stringtranslate.com

Regula falsa

En matemáticas , la regula falsi , método de posición falsa o método de posición falsa es un método muy antiguo para resolver una ecuación con una incógnita; este método, en forma modificada, todavía se utiliza. En términos simples, el método es la técnica de prueba y error que consiste en utilizar valores de prueba ("falsos") para la variable y luego ajustar el valor de prueba de acuerdo con el resultado. A esto a veces también se le llama "adivinar y comprobar". Las versiones del método son anteriores a la llegada del álgebra y el uso de ecuaciones .

Como ejemplo, consideremos el problema 26 del papiro de Rhind , que pide una solución (escrita en notación moderna) de la ecuación x + x /4 = 15 . Esto se soluciona con una posición falsa. [1] Primero, adivina que x = 4 para obtener, a la izquierda, 4 + 4/4 = 5 . Esta suposición es una buena opción ya que produce un valor entero. Sin embargo, 4 no es la solución de la ecuación original, ya que da un valor tres veces demasiado pequeño. Para compensar, multiplica x (actualmente establecido en 4) por 3 y sustituye nuevamente para obtener 12 + 12/4 = 15 , verificando que la solución sea x = 12 .

Las versiones modernas de la técnica emplean formas sistemáticas de elegir nuevos valores de prueba y se ocupan de la cuestión de si se puede obtener o no una aproximación a una solución y, de ser posible, con qué rapidez se puede encontrar la aproximación.

Dos tipos históricos

Históricamente se pueden distinguir dos tipos básicos de método de posición falsa, posición falsa simple y posición falsa doble .

La posición falsa simple tiene como objetivo resolver problemas que involucran proporción directa. Estos problemas se pueden escribir algebraicamente en la forma: determine x tal que

si se conocen a y b . El método comienza usando un valor de entrada de prueba x y encontrando el valor de salida correspondiente b mediante la multiplicación: ax ′ = b . La respuesta correcta se encuentra entonces mediante ajuste proporcional, x = b/ b ' X ' .

La doble posición falsa tiene como objetivo resolver problemas más difíciles que se pueden escribir algebraicamente en la forma: determine x tal que

si se sabe que

La doble posición falsa es matemáticamente equivalente a la interpolación lineal . Al utilizar un par de entradas de prueba y el par de salidas correspondiente, el resultado de este algoritmo dado por, [2]

sería memorizado y realizado de memoria. De hecho, la regla dada por Robert Recorde en su Ground of Artes (c. 1542) es: [2]

Gesse en este trabajo como sucede.
Por casualidad, puede continuar.
Y primero trabajemos con la pregunta,
Aunque no se diga ninguna verdad en ello.
Esta falsedad es un fundamento tan bueno,
Esa verdad pronto será encontrada.
De muchos bate a muchos meses,
De a unos pocos lleva a unos pocos también.
Con mucho juego para pocos otra vez,
Para pocos se suman a muchos planos.
En los crossewaies se multiplican los tipos contrarios,
Toda la verdad por falsehode para fynde.

Para una función lineal afín ,

La doble posición falsa proporciona la solución exacta, mientras que para una función no lineal f proporciona una aproximación que puede mejorarse sucesivamente mediante iteración .

Historia

La técnica simple de la posición falsa se encuentra en tablillas cuneiformes de las antiguas matemáticas babilónicas y en papiros de las antiguas matemáticas egipcias . [3] [1]

La doble posición falsa surgió en la antigüedad tardía como un algoritmo puramente aritmético. En el antiguo texto matemático chino llamado Los nueve capítulos sobre el arte matemático (九章算術), [4] que data del 200 a. C. al 100 d. C., la mayor parte del capítulo 7 estaba dedicado al algoritmo. Allí, el procedimiento se justificó con argumentos aritméticos concretos y luego se aplicó creativamente a una amplia variedad de problemas narrativos, incluido uno que involucraba lo que llamaríamos líneas secantes en una sección cónica . Un ejemplo más típico es este problema de "compra conjunta" que implica una condición de "exceso y déficit": [5]

Ahora se compra un artículo de forma conjunta; cada uno aporta 8 [monedas], el sobrante es 3; todos aportan 7, el déficit es 4. Di: El número de personas, el precio del artículo, ¿cuánto cuesta cada uno? Respuesta: 7 personas, precio del artículo 53. [6]

Entre los siglos IX y X, el matemático egipcio Abu Kamil escribió un tratado hoy perdido sobre el uso de la doble posición falsa, conocido como el Libro de los Dos Errores ( Kitāb al-khaṭāʾayn ). El escrito más antiguo que se conserva sobre la doble posición falsa del Medio Oriente es el de Qusta ibn Luqa (siglo X), un matemático árabe de Baalbek , Líbano . Justificó la técnica mediante una prueba geométrica formal de estilo euclidiano . Dentro de la tradición de las matemáticas musulmanas medievales , la doble posición falsa se conocía como hisāb al-khaṭāʾayn ("cómputo mediante dos errores"). Se utilizó durante siglos para resolver problemas prácticos como cuestiones comerciales y jurídicas (particiones de bienes según las reglas de la herencia coránica ), así como problemas puramente recreativos. El algoritmo se memorizaba a menudo con la ayuda de mnemónicos , como un verso atribuido a Ibn al-Yasamin y diagramas de balanza explicados por al-Hassar e Ibn al-Banna , los tres matemáticos de origen marroquí . [7]

Leonardo de Pisa ( Fibonacci ) dedicó el capítulo 13 de su libro Liber Abaci (1202 d. C.) a explicar y demostrar los usos de la doble posición falsa, denominando al método regulis elchatayn en honor al método al-khaṭāʾayn que había aprendido de fuentes árabes . [7] En 1494, Pacioli utilizó el término el cataym en su libro Summa de arithmetica , probablemente tomando el término de Fibonacci. Otros escritores europeos seguirían a Pacioli y en ocasiones proporcionarían una traducción al latín o a la lengua vernácula. Por ejemplo, Tartaglia traduce la versión latinizada del término de Pacioli a la lengua vernácula "falsas posiciones" en 1556. [8] El término de Pacioli casi desapareció en las obras europeas del siglo XVI y la técnica recibió varios nombres como "Regla de lo falso", " Regla de Posición" y "Regla de Posición Falsa". Regula Falsi aparece como la versión latinizada de Rule of False ya en 1690. [2]

Varios autores europeos del siglo XVI sintieron la necesidad de pedir disculpas por el nombre del método en una ciencia que busca encontrar la verdad. Por ejemplo, en 1568 Humphrey Baker dice: [2]

La Regla de la falsedad se llama así no porque enseñe a nadie el engaño o la falsedad, sino que mediante números fabulosos tomados en todas las aventuras, enseña a descubrir el verdadero número que se demanda, y esto de todas las Reglas vulgares que se aplican en la práctica. ) es vuestra máxima excelencia.

Análisis numérico

El método de posición falsa proporciona una solución exacta para funciones lineales, pero técnicas algebraicas más directas han suplantado su uso para estas funciones. Sin embargo, en el análisis numérico , la doble posición falsa se convirtió en un algoritmo de búsqueda de raíces utilizado en técnicas iterativas de aproximación numérica.

Muchas ecuaciones, incluidas la mayoría de las más complicadas, sólo pueden resolverse mediante una aproximación numérica iterativa. Este consiste en prueba y error, en el que se prueban varios valores de la cantidad desconocida. Ese ensayo y error puede guiarse calculando, en cada paso del procedimiento, una nueva estimación de la solución. Hay muchas maneras de llegar a una estimación calculada y regula falsi proporciona una de ellas.

Dada una ecuación, mueve todos sus términos hacia un lado para que tenga la forma f  ( x ) = 0 , donde f es alguna función de la variable desconocida x . Un valor c que satisface esta ecuación, es decir, f  ( c ) = 0 , se llama raíz o cero de la función f y es una solución de la ecuación original. Si f es una función continua y existen dos puntos a 0 y b 0 tales que f  ( a 0 ) y f  ( b 0 ) son de signos opuestos, entonces, según el teorema del valor intermedio , la función f tiene una raíz en el intervalo ( a 0 , b 0 ) .

Existen muchos algoritmos de búsqueda de raíces que se pueden utilizar para obtener aproximaciones a dicha raíz. Uno de los más comunes es el método de Newton , pero puede no encontrar una raíz en determinadas circunstancias y puede resultar costoso desde el punto de vista computacional, ya que requiere un cálculo de la derivada de la función . Se necesitan otros métodos y una clase general de métodos son los métodos de paréntesis de dos puntos . Estos métodos proceden produciendo una secuencia de intervalos cada vez más reducidos [ a k , b k ] , en el k ésimo paso, tal que ( a k , b k ) contiene una raíz de f .

Métodos de bracketing de dos puntos

Estos métodos comienzan con dos valores de x , encontrados inicialmente mediante prueba y error, en los que f  ( x ) tiene signos opuestos. Bajo el supuesto de continuidad, se garantiza que habrá una raíz de f entre estos dos valores, es decir, estos valores "entre paréntesis" la raíz. Luego se selecciona un punto estrictamente entre estos dos valores y se utiliza para crear un intervalo más pequeño que todavía encierra una raíz. Si c es el punto seleccionado, entonces el intervalo más pequeño va desde c hasta el punto final donde f  ( x ) tiene el signo opuesto al de f  ( c ) . En el caso improbable de que f  ( c ) = 0 , se haya encontrado una raíz y el algoritmo se detenga. De lo contrario, el procedimiento se repite tantas veces como sea necesario para obtener una aproximación a la raíz con la precisión deseada.

El punto seleccionado en cualquier intervalo actual puede considerarse como una estimación de la solución. Las diferentes variaciones de este método implican diferentes formas de calcular esta estimación de solución.

Preservar el bracketing y asegurar que las estimaciones de la solución se encuentren en el interior de los intervalos de bracketing garantiza que las estimaciones de la solución convergerán hacia la solución, una garantía que no está disponible con otros métodos de búsqueda de raíces como el método de Newton o el método de la secante .

La variación más simple, llamada método de bisección , calcula la estimación de la solución como el punto medio del intervalo entre corchetes. Es decir, si en el paso k , el intervalo de paréntesis actual es [ a k , b k ] , entonces la nueva estimación de la solución c k se obtiene mediante,

Esto asegura que c k esté entre a k y b k , garantizando así la convergencia hacia la solución.

Dado que la longitud del intervalo entre corchetes se reduce a la mitad en cada paso, el error del método de bisección se reduce, en promedio, a la mitad con cada iteración. Por lo tanto, cada 3 iteraciones, el método gana aproximadamente un factor de 2 3 , es decir, aproximadamente un decimal, en precisión.

El método de la regula falsi (posición falsa)

Las dos primeras iteraciones del método de la posición falsa. La curva roja muestra la función f y las líneas azules son las secantes.

La tasa de convergencia del método de bisección posiblemente podría mejorarse utilizando una estimación de solución diferente.

El método regula falsi calcula la nueva estimación de la solución como la intersección con el eje x del segmento de línea que une los puntos finales de la función en el intervalo de horquillado actual. Esencialmente, la raíz se aproxima reemplazando la función real por un segmento de línea en el intervalo entre corchetes y luego usando la fórmula clásica de doble posición falsa en ese segmento de línea. [9]

Más precisamente, supongamos que en la k -ésima iteración el intervalo entre corchetes es ( a k , b k ) . Construya la línea que pasa por los puntos ( a k , f  ( a k ) ) y ( b k , f  ( b k ) ) , como se ilustra. Esta recta es una secante o cuerda de la gráfica de la función f . En forma punto-pendiente , su ecuación viene dada por

Ahora elija c k para que sea la intersección con el eje x de esta línea, es decir, el valor de x para el cual y = 0 , y sustituya estos valores para obtener

Resolver esta ecuación para c k da:

Esta última forma simétrica tiene una ventaja computacional:

A medida que se aproxima una solución, ak y bk estarán muy juntos y casi siempre tendrán el mismo signo . En tal resta se pueden perder dígitos significativos. Debido a que f  ( b k ) y f  ( a k ) son siempre de signo opuesto, la “resta” en el numerador de la fórmula mejorada es efectivamente una suma (al igual que la resta en el denominador).

En el número de iteración k , el número c k se calcula como arriba y luego, si f  ( a k ) y f  ( c k ) tienen el mismo signo, establezca a k + 1 = c k y b k + 1 = b k , de lo contrario, establezca a k + 1 = a k y b k + 1 = c k . Este proceso se repite hasta que la raíz se aproxime lo suficiente.

La fórmula anterior también se usa en el método de la secante, pero el método de la secante siempre retiene los dos últimos puntos calculados y, por lo tanto, si bien es un poco más rápido, no conserva el bracketing y es posible que no converja.

El hecho de que regula falsi siempre converja y tenga versiones que eviten bien las desaceleraciones lo convierte en una buena opción cuando se necesita velocidad. Sin embargo, su tasa de convergencia puede caer por debajo de la del método de bisección.

Análisis

Dado que los puntos finales iniciales a 0 y b 0 se eligen de manera que f  ( a 0 ) y f  ( b 0 ) sean de signos opuestos, en cada paso, uno de los puntos finales se acercará a una raíz de f . Si la segunda derivada de f es de signo constante (por lo que no hay punto de inflexión ) en el intervalo, entonces un punto final (aquel en el que f también tiene el mismo signo) permanecerá fijo para todas las iteraciones posteriores mientras el punto final convergente se actualiza. Como resultado, a diferencia del método de bisección , el ancho del corchete no tiende a cero (a menos que el cero esté en un punto de inflexión alrededor del cual signo( f  ) = −signo( f  ") ). Como consecuencia, la aproximación lineal to f  ( x ) , que se utiliza para elegir la posición falsa, no mejora tan rápido como sea posible.

Un ejemplo de este fenómeno es la función

en el corchete inicial [−1,1]. El extremo izquierdo, −1, nunca se reemplaza (no cambia al principio y después de las primeras tres iteraciones, f  " es negativo en el intervalo) y, por lo tanto, el ancho del corchete nunca cae por debajo de 1. Por lo tanto, el extremo derecho se aproxima 0 a una tasa lineal (el número de dígitos precisos crece linealmente, con una tasa de convergencia de 2/3 [ cita necesaria ] ).

Para funciones discontinuas, solo se puede esperar que este método encuentre un punto donde la función cambia de signo (por ejemplo, en x = 0 para 1/ x o la función de signo ). Además de los cambios de signo, también es posible que el método converja a un punto donde el límite de la función es cero, incluso si la función no está definida (o tiene otro valor) en ese punto (por ejemplo en x = 0 para la función dada por f  ( x ) = abs( x ) − x 2 cuando x ≠ 0 y por f  (0) = 5 , comenzando con el intervalo [-0.5, 3.0]). Es matemáticamente posible con funciones discontinuas que el método no converja a un límite cero o a un cambio de signo, pero esto no es un problema en la práctica ya que requeriría una secuencia infinita de coincidencias para que ambos puntos finales se atasquen convergiendo en discontinuidades donde el signo no cambia, por ejemplo en x = ±1 pulg.

El método de bisección evita este hipotético problema de convergencia.

Mejoras en la regula falsi

Aunque la regula falsi siempre converge, normalmente considerablemente más rápido que la bisección, hay situaciones que pueden ralentizar su convergencia, a veces hasta un grado prohibitivo. Ese problema no es exclusivo de la regula falsi : aparte de la bisección, todos los métodos de resolución de ecuaciones numéricas pueden tener un problema de convergencia lenta o de no convergencia bajo algunas condiciones. A veces, el método de Newton y el método de la secante divergen en lugar de converger, y a menudo lo hacen en las mismas condiciones que frenan la convergencia de la regula falsi .

Pero, aunque regula falsi es uno de los mejores métodos, e incluso en su versión original no mejorada, a menudo sería la mejor opción; por ejemplo, cuando no se utiliza la de Newton porque la evaluación de la derivada requiere mucho tiempo, o cuando la de Newton y las sustituciones sucesivas no han logrado converger.

El modo de fallo de Regula falsi es fácil de detectar: ​​el mismo punto final se mantiene dos veces seguidas. El problema se soluciona fácilmente eligiendo en su lugar una posición falsa modificada, elegida para evitar ralentizaciones debidas a situaciones desfavorables relativamente inusuales. Se han propuesto varias mejoras de este tipo a la regula falsi ; dos de ellos, el algoritmo de Illinois y el algoritmo de Anderson-Björk, se describen a continuación.

El algoritmo de Illinois

El algoritmo de Illinois reduce a la mitad el valor y del punto final retenido en el siguiente cálculo de estimación cuando el nuevo valor y (es decir, f  ( c k )) tiene el mismo signo que el anterior ( f  ( c k − 1 ) ), lo que significa que se mantendrá el punto final del paso anterior. Por eso:

o

Reducir el peso de uno de los valores del punto final para forzar que el siguiente c k ocurra en ese lado de la función. [10] El factor ½ utilizado anteriormente parece arbitrario, pero garantiza una convergencia superlineal (asintóticamente, el algoritmo realizará dos pasos regulares después de cualquier paso modificado y tiene un orden de convergencia de 1,442). Hay otras formas de elegir el reescalamiento que dan tasas de convergencia superlineal aún mejores. [11]

Algunos estudiosos llaman algoritmo de Illinois al ajuste anterior de la regula falsi . [10] [12] Ford (1995) resume y analiza esta y otras variantes superlineales similares del método de posición falsa. [11]

Algoritmo de Anderson-Björck

Supongamos que en la k -ésima iteración el intervalo entre corchetes es [ a k , b k ] y que el valor funcional de la nueva estimación calculada c k tiene el mismo signo que f  ( b k ) . En este caso, se ha conservado el nuevo intervalo de horquillado [ a k + 1 , b k + 1 ] = [ a k , c k ] y el punto final izquierdo. (Hasta ahora, es lo mismo que la Regula Falsi ordinaria y el algoritmo de Illinois).

Pero, mientras que el algoritmo de Illinois multiplicaría f  ( a k ) por1/2, El algoritmo de Anderson-Björck lo multiplica por m , donde m tiene uno de los dos valores siguientes: [13]

Para raíces simples, Anderson-Björck funciona muy bien en la práctica. [14]

método PTI

Dada y donde está la proporción áurea , en cada iteración el método ITP calcula el punto siguiendo tres pasos:

  1. [Paso de interpolación] Calcule la bisección y los puntos de regula falsi: y  ;
  2. [Paso de truncamiento] Perturbe el estimador hacia el centro: donde y  ;
  3. [Paso de proyección] Proyecte el estimador al intervalo minmax: donde .

Se consulta el valor de la función en este punto y luego se reduce el intervalo para poner entre paréntesis la raíz manteniendo el subintervalo con valores de función de signo opuesto en cada extremo. Este procedimiento de tres pasos garantiza que la estimación disfrute de las propiedades minmax del método de bisección, así como de la convergencia superlineal del método de la secante. Y se observa que supera los métodos basados ​​en bisección e interpolación en funciones suaves y no suaves. [15]

Consideraciones prácticas

Al resolver una ecuación, o solo algunas, usando una computadora, el método de bisección es una opción adecuada. Aunque la bisección no es tan rápida como los otros métodos (cuando están en su mejor momento y no tienen problemas), se garantiza que la bisección convergerá a una velocidad útil, reduciendo aproximadamente a la mitad el error con cada iteración, ganando aproximadamente un decimal. lugar de precisión con cada 3 iteraciones.

Para el cálculo manual, mediante calculadora, uno tiende a querer utilizar métodos más rápidos y, por lo general, aunque no siempre, convergen más rápido que la bisección. Pero una computadora, incluso usando la bisección, resolverá una ecuación, con la precisión deseada, tan rápidamente que no hay necesidad de intentar ahorrar tiempo usando un método menos confiable, y cada método es menos confiable que la bisección.

Una excepción sería si el programa de computadora tuviera que resolver ecuaciones muchas veces durante su ejecución. Entonces el tiempo ahorrado por los métodos más rápidos podría ser significativo.

Luego, un programa podría comenzar con el método de Newton y, si el de Newton no converge, cambiar a regula falsi , tal vez en una de sus versiones mejoradas, como las versiones de Illinois o Anderson-Björck. O, si ni siquiera eso converge tan bien como lo haría la bisección, cambie a la bisección, que siempre converge a un ritmo útil, si no espectacular.

Cuando el cambio en y se ha vuelto muy pequeño y x también cambia muy poco, lo más probable es que el método de Newton no tenga problemas y converja. Entonces, bajo esas condiciones favorables, uno podría cambiar al método de Newton si quisiera que el error fuera muy pequeño y quisiera una convergencia muy rápida.

Ejemplo: crecimiento de una espadaña

En el capítulo 7 de Los Nueve Capítulos , un problema de búsqueda de raíces se puede traducir al lenguaje moderno de la siguiente manera:

Problema de exceso y déficit n.° 11:

Respuesta: días; la altura es unidades.

Explicación:

Gráfica de la función F , su raíz exacta (punto K ) y la raíz aproximada

Para entender esto, modelaremos las alturas de las plantas en el día n ( n = 1, 2, 3...) según una serie geométrica .

Espadaña
prisa por el club

Para obtener mejores notaciones, reescribamos la serie de altura de la planta en términos de k e invoquemos la fórmula de la suma .

Ahora, usa regula falsi para encontrar la raíz de

Establezca y calcule cuál es igual a −1,5 (el "déficit"). Establezca y calcule lo que equivale a 1,75 (el "exceso").

Raíz estimada (primera iteración):

Código de ejemplo

Este programa de ejemplo, escrito en el lenguaje de programación C , es un ejemplo del algoritmo de Illinois. Para encontrar el número positivo x donde cos( x ) = x 3 , la ecuación se transforma en una forma de búsqueda de raíces f  ( x ) = cos( x ) -- x 3 = 0 .

#incluir <stdio.h> #incluir <math.h>  doble f ( doble x ) { return cos ( x ) - x * x * x ; } /* a,b: puntos finales de un intervalo donde buscamos  e: mitad del límite superior para el error relativo  m: número máximo de iteraciones */ double FalsiMethod ( double ( * f )( double ), double a , double b , double mi , int m ) { doble c , fc ; int norte , lado = 0 ; /* valores iniciales en los puntos finales del intervalo */ double fa = f ( a ); doble fb = f ( segundo );                                    for ( n = 0 ; n < m ; n ++ ) { c = ( fa * b - fb * a ) / ( fa - fb ); if ( fabs ( b - a ) < e * fabs ( b + a )) romper ; fc = f ( c );                                    if ( fc * fb > 0 ) { /* fc y fb tienen el mismo signo, copia c a b */ b = c ; fb = fc ; si ( lado == -1 ) fa /= 2 ; lado = -1 ; } else if ( fa * fc > 0 ) { /* fc y fa tienen el mismo signo, copia c a a */ a = c ; fa = fc ; si ( lado == + 1 ) fb /= 2 ; lado = + 1 ; } else { /* fc * f_ muy pequeño (parece cero) */ break ; } } devolver c ; }                                                          int main ( void ) { printf ( "%0.15f \n " , FalsiMethod ( & f , 0 , 1 , 5E-15 , 100 )); devolver 0 ; }          

Después de ejecutar este código, la respuesta final es aproximadamente 0,865474033101614.

Ver también

Referencias

  1. ^ ab Katz, Victor J. (1998), Una historia de las matemáticas (2ª ed.), Addison Wesley Longman, p. 15, ISBN 978-0-321-01618-8
  2. ^ abcd Smith, DE (1958) [1925], Historia de las Matemáticas , vol. II, Dover, págs. 437–441, ISBN 978-0-486-20430-7
  3. ^ Chabert, Jean-Luc, ed. (2012) [1999]. "3. Métodos de posición falsa". Una historia de los algoritmos: del guijarro al microchip . Saltador. págs. 86–91. ISBN 978-3-642-18192-4.
  4. ^ Needham, José (1959). Matemáticas y Ciencias de los Cielos y de la Tierra. Ciencia y civilización en China. vol. 3. Prensa de la Universidad de Cambridge. págs. 147–. ISBN 978-0-521-05801-8.
  5. ^ "Nueve capítulos". www-groups.dcs.st-and.ac.uk . Consultado el 16 de febrero de 2019 .
  6. ^ Shen, Kangshen; Crossley, John N.; Lun, Anthony Wah-Cheung (1999). Los nueve capítulos sobre el arte matemático: acompañamiento y comentario. Prensa de la Universidad de Oxford. pag. 358.ISBN 978-7-03-006101-0.
  7. ^ ab Schwartz, RK (2004). Problemas en el origen y desarrollo de Hisab al-Khata'ayn (Cálculo por doble posición falsa) . Octavo Encuentro Norteafricano sobre la Historia de las Matemáticas Árabes. Radès, Túnez.Disponible en línea en: http://facstaff.uindy.edu/~oaks/Biblio/COMHISMA8paper.doc y "Copia archivada" (PDF) . Archivado desde el original (PDF) el 16 de mayo de 2014 . Consultado el 8 de junio de 2012 .{{cite web}}: CS1 maint: archived copy as title (link)
  8. Tratado General , vol. I, Venecia, 1556, pág. fol. 238, v, Regola Helcataym (vocabulo Arabo) che in nostra lingua vuol dire delle false Positioni
  9. ^ Conte, SD; Boor, Carl de (1965). Análisis numérico elemental: un enfoque algorítmico (2ª ed.). McGraw-Hill. pag. 40. OCLC  1088854304.
  10. ^ ab Dahlquist, Germund ; Björck, Åke (2003) [1974]. Métodos numéricos. Dover. págs. 231-232. ISBN 978-0486428079.
  11. ^ ab Ford, JA (1995), Algoritmos mejorados de tipo Illinois para la solución numérica de ecuaciones no lineales , Informe técnico, University of Essex Press, CiteSeerX 10.1.1.53.8676 , CSM-257 
  12. ^ Dowell, M.; Jarratt, P. (1971). "Un método de regula falsi modificado para calcular la raíz de una ecuación". POCO . 11 (2): 168-174. doi :10.1007/BF01934364. S2CID  50473598.
  13. ^ King, Richard F. (octubre de 1983). "Anderson-Bjorck para secuencias lineales". Matemáticas de la Computación . 41 (164): 591–596. doi :10.2307/2007695. JSTOR  2007695.
  14. ^ Galdino, Sergio (2011). "Una familia de métodos de búsqueda de raíces regula falsi". Actas del Congreso Mundial de Ingeniería y Tecnología de 2011 . 1 . Consultado el 9 de septiembre de 2016 .
  15. ^ Oliveira, IFD; Takahashi, RHC (6 de diciembre de 2020). "Una mejora del rendimiento promedio del método de bisección que preserva la optimización Minmax". Transacciones ACM sobre software matemático . 47 (1): 5:1–5:24. doi :10.1145/3423597. ISSN  0098-3500. S2CID  230586635.

Otras lecturas