En matemáticas , un máximo suave de una familia indexada x 1 , ..., x n de números es una aproximación suave a la función máxima , es decir, una familia paramétrica de funciones tales que para cada α , la función es suave y la familia converge a la función máxima como . El concepto de mínimo suave se define de manera similar. En muchos casos, una sola familia se aproxima a ambos: máximo cuando el parámetro tiende a infinito positivo, mínimo cuando el parámetro tiende a infinito negativo; en símbolos, como y como . El término también se puede usar de manera vaga para una función suave específica que se comporta de manera similar a un máximo, sin ser necesariamente parte de una familia parametrizada.
Ejemplos
Operador de Boltzmann
Para valores positivos grandes del parámetro , la siguiente formulación es una aproximación suave y diferenciable de la función máxima. Para valores negativos del parámetro que son grandes en valor absoluto, se aproxima al mínimo.
Esto también se puede normalizar si todos son no negativos, lo que produce una función con dominio y rango :
El término corrige el hecho de que al cancelar todos menos uno, el exponencial es cero, y si todos son cero.
Máximo suave
El operador mellowmax [1] se define de la siguiente manera:
Es un operador no expansivo . Como , actúa como un máximo. Como , actúa como una media aritmética. Como , actúa como un mínimo. Este operador puede verse como una instancia particular de la media cuasi-aritmética . También puede derivarse de los principios teóricos de la información como una forma de regularizar políticas con una función de costo definida por la divergencia KL. El operador se ha utilizado previamente en otras áreas, como la ingeniería energética. [2]
^ ab Asadi, Kavosh; Littman, Michael L. (2017). "Un operador Softmax alternativo para el aprendizaje por refuerzo". PMLR . 70 : 243–252. arXiv : 1612.05628 . Consultado el 6 de enero de 2023 .
^ Safak, Aysel (febrero de 1993). "Análisis estadístico de la suma de potencias de múltiples componentes log-normales correlacionados". IEEE Transactions on Vehicular Technology . 42 (1): {58–61. doi :10.1109/25.192387 . Consultado el 6 de enero de 2023 .
^ Biswas, Koushik; Kumar, Sandeep; Banerjee, Shilpak; Ashish Kumar Pandey (2021). "SMU: Función de activación suave para redes profundas utilizando la técnica de suavizado máximo". arXiv : 2111.04682 [cs.LG].
https://www.johndcook.com/soft_maximum.pdf
M. Lange, D. Zühlke, O. Holz y T. Villmann, "Aplicaciones de las normas lp y sus aproximaciones suaves para la cuantificación vectorial basada en el aprendizaje de gradientes", en Proc. ESANN , abril de 2014, págs. 271-276. (https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-153.pdf)