En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo: donde
es alguna función no lineal respecto a algunos parámetros desconocidos
El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal.
Este es el sentido del término "lineal" en el contexto de la regresión estadística.
Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras
Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios.
Las consecuencias prácticas de esta mala interpretación conducen a que un procedimiento de optimización no lineal sea usado cuando en realidad hay una solución disponible en términos de regresión lineal.
Paquetes (software) estadísticos consideran, por lo general, más alternativas de regresión lineal que de regresión no lineal en sus procedimientos.
Algunos problemas de regresión no lineal pueden linealizarse mediante una transformación en la formulación del modelo.
, un cálculo que no requiere procedimientos de optimización iterativa.
De todas formas, la linealización debe usarse con cuidado ya que la influencia de los datos en el modelo cambia, así como la estructura del error del modelo y la interpretación e inferencia de los resultados.
Hay que distinguir entre la "linealización" usada en los párrafos anteriores y la "linealización local" que se adopta para algoritmos clásicos como el de Gauss-Newton.
La mejor curva de ajuste se considera como aquella que minimiza la suma de las desviaciones (residuales) al cuadrado (SRC).
Este es la aproximación por el método de mínimos cuadrados (MMC).
Sin embargo, en aquellos casos donde se tienen diferentes varianzas de error para diferentes errores, es necesario minimizar la suma de los residuales al cuadrado ponderados (SRCP) (método de mínimos cuadrados ponderados).
En la práctica, la varianza puede depender del valor promedio ajustado.
Así que los pesos son recalculados para cada iteración en un algoritmo de mínimos cuadrados ponderados iterativo.
Otra vez, en contraste con la regresión lineal, podría haber varios máximos locales de la función a ser optimizada.
En la práctica, se suponen algunos valores iniciales los cuales junto con el algoritmo de optimización conducen a encontrar el máximo global...
Cada observación es aleatorizada de acuerdo a su media y su desviación estándar.
Con el nuevo conjunto de datos, una nueva curva es ajustada y las estimaciones de los parámetros registradas.
Al final, varios conjuntos de parámetros son generados y su media y desviación estándar pueden ser calculados.
[1][2] Diversos lenguajes de programación y software estadístico y matemático contienen funciones de optimización.
Entre ellos, Gauss, GNU Octave, Matlab, Mathematica, R, Splus; C++, Python y Fortran maple.
En determinados experimentos, en su mayoría biológicos, la dependencia entre las variables
es de forma exponencial, en cuyo caso interesa ajustar a la nube de puntos una función del tipo: Mediante una transformación lineal, tomando logaritmos, se convierte el problema en una cuestión de regresión lineal, es decir, tomando logaritmos obtenemos Número de datos:
Usando la forma lineal de la Regresión Exponencial:
es también una recta, pero en lugar de estar referida a las variables originales
Algunas veces cuando la relación entre las variables dependientes e independientes es no lineal, es útil incluir términos polinomiales para ayudar a explicar la variación de nuestra variable dependiente.
Usando una Matriz para calcular valores de los coeficientes