Mínimos cuadrados no lineales

Los Mínimos cuadrados no lineales es la forma de análisis de mínimos cuadrados que se usa para encajar un conjunto de m observaciones con un modelo que es no lineal en n parámetros desconocidos (m > n).

Se utiliza en algunas formas de regresión no lineal.

Hay muchas similitudes con mínimos cuadrados lineales, pero también algunas diferencias importantes.

de parámetros tales que la curva se ajuste mejor a los datos dados en el sentido de mínimos cuadrados, es decir, la suma de cuadrados esta es minimizada cuando los errores ri están dados por para

El mínimo valor de S se produce cuando el gradiente es cero.

Dado que el modelo contiene n parámetros hay n ecuaciones de gradiente: En un sistema no lineal, los derivados

son funciones tanto de la variable independiente y los parámetros, por lo que estas ecuaciones gradiente no tienen una solución cerrada.

En lugar de ello, los valores iniciales deben ser elegidos para los parámetros.

Entonces, los parámetros se refinan iterativamente, es decir, los valores se obtienen por aproximación sucesiva, Aquí, k es un número de iteración y el vector de incrementos,

que se conoce como el vector de desplazamiento.

El jacobiano , J, es una función de las constantes, la variable independiente y los parámetros, por lo que cambia de una iteración a la siguiente.

[1]​ Las ecuaciones normales son entonces: Estas ecuaciones forman la base para el algoritmo de Gauss-Newton para un problema de mínimos cuadrados no lineal.

La geometría de la función objetivo general puede describirse como el elíptico paraboloide.

En NLLSQ la función objetivo es cuadrática con respecto a los parámetros sólo en una región cercana a su valor mínimo, donde la serie truncada de Taylor es una buena aproximación al modelo.

Una consecuencia de esto es que las estimaciones de parámetros iniciales deben ser lo más cercanas posible a sus valores óptimos (desconocidos!).

Los datos observados y calculados se muestran en una pantalla.

Los parámetros del modelo se ajustan a mano hasta que el acuerdo entre los datos observados y calculados es razonablemente bueno.

Aunque esto será un juicio subjetivo, basta con encontrar un buen punto de partida para el refinamiento no lineal.

Las estimaciones de parámetros iniciales se pueden crear usando transformaciones o linealizaciones.

Los mejores algoritmos evolutivos como el Algoritmo del Embudo Estocástico pueden conducir a la cuenca convexa de atracción que rodea las estimaciones de los parámetros óptimos.

Se ha demostrado que los algoritmos híbridos que usan la aleatorización y el elitismo, seguidos por los métodos de Newton, son útiles y computacionalmente eficientes.

Cualquier método entre los descritos a continuación se puede aplicar para encontrar una solución.

El criterio del sentido común para la convergencia es que la suma de los cuadrados no disminuye de una iteración a la siguiente.

Sin embargo, este criterio es a menudo difícil de aplicar en la práctica, por diversas razones.

En particular, puede ser necesario aumentar cuando los errores experimentales son grandes.

Un criterio alternativo es: Una vez más, el valor numérico es algo arbitrario; 0.001 es equivalente a especificar que cada parámetro debe ser refinado a 0.1% de precisión.

Esto es razonable cuando es menor que la desviación estándar relativa más grande en los parámetros.

El tamaño debe ser elegido por lo que la derivada numérica no está sujeta a error de aproximación por ser demasiado grande, o el error de redondeo por ser demasiado pequeño.