stringtranslate.com

Fundamentos de las matemáticas

Fundamentos de las matemáticas es el marco lógico y matemático que permite el desarrollo de las matemáticas sin generar teorías autocontradictorias , y, en particular, tener conceptos confiables de teoremas , demostraciones , algoritmos , etc. Esto también puede incluir el estudio filosófico de la relación. de este marco con la realidad . [1]

El término "fundamentos de las matemáticas" no se acuñó hasta finales del siglo XIX. Sin embargo, fue establecida por primera vez por los antiguos filósofos griegos con el nombre de lógica de Aristóteles y aplicada sistemáticamente en los Elementos de Euclides . En resumen, una afirmación matemática se considera verdad sólo si es un teorema que se prueba a partir de premisas verdaderas mediante una secuencia de silogismos ( reglas de inferencia ), siendo las premisas teoremas ya demostrados o afirmaciones evidentes por sí mismas llamadas axiomas o postulados. .

Estos fundamentos parecieron ser un logro definitivo hasta el siglo XVII, con la introducción del cálculo infinitesimal por parte de Isaac Newton y Gottfried Wilhelm Leibniz . Esta nueva área de las matemáticas implicó nuevos métodos de razonamiento y nuevos conceptos básicos ( funciones continuas , derivadas , límites ) que no estaban bien fundamentados, pero que tienen consecuencias asombrosas, como el hecho de que se puede deducir de la ley de gravitación de Newton que las órbitas de los planetas son elipses .

Durante el siglo XIX, varios matemáticos trabajaron para elaborar definiciones precisas de los conceptos básicos del cálculo infinitesimal, incluidas las definiciones de números naturales y reales . Esto condujo, hacia finales del siglo XIX, a una serie de resultados matemáticos paradójicos que desafiaron la confianza general en la confiabilidad y verdad de los resultados matemáticos. A esto se le ha llamado la crisis fundacional de las matemáticas .

La resolución de esta crisis implicó el surgimiento de una nueva disciplina matemática llamada lógica matemática que incluye la teoría de conjuntos , la teoría de modelos , la teoría de la prueba , la computabilidad y la teoría de la complejidad computacional y, más recientemente, varias partes de la informática . Durante el siglo XX, los descubrimientos realizados en esta área estabilizaron los fundamentos de las matemáticas en un marco coherente válido para todas las matemáticas, que se basa en ZFC , la teoría de conjuntos de Zermelo - Fraenkel con el axioma de elección , y en un uso sistemático de la axiomática. método .

De esto resulta que los conceptos matemáticos básicos, como números , puntos , líneas y espacios geométricos, ya no se definen como abstracciones de la realidad; se definen únicamente por sus propiedades básicas ( axiomas ). Su adecuación con su origen físico ya no pertenece a las matemáticas, aunque su relación con la realidad física todavía es utilizada por los matemáticos para la elección de los axiomas, para encontrar qué teoremas es interesante demostrar y para obtener indicaciones sobre posibles demostraciones; en resumen, la relación con la realidad se utiliza para guiar la intuición matemática .

Antigua Grecia

La mayoría de las civilizaciones desarrollaron algunas matemáticas, principalmente con fines prácticos, como contar (comerciantes), topografía (delimitación de campos), prosodia , astronomía y astrología . Parece que los filósofos griegos antiguos fueron los primeros en estudiar la naturaleza de las matemáticas y su relación con el mundo real.

Zenón de Elea (490 – c. 430 a. C.) produjo varias paradojas que utilizó para apoyar su tesis de que el movimiento no existe. Estas paradojas involucran el infinito matemático , un concepto que estaba fuera de los fundamentos matemáticos de esa época y no fue bien comprendido antes de finales del siglo XIX.

La escuela pitagórica de matemáticas insistía originalmente en que sólo los números son números naturales y razones de números naturales. El descubrimiento (alrededor del siglo V a. C.) de que la razón entre la diagonal de un cuadrado y su lado no es la razón de dos números naturales fue para ellos un shock que sólo aceptaron de mala gana. Un testimonio de ello es la terminología moderna de número irracional para referirse a un número que no es el cociente de dos enteros, ya que "irracional" significa originalmente "no razonable" o "no accesible con razón".

El hecho de que las razones de longitud no estén representadas por números racionales fue resuelto por Eudoxo de Cnido (408-355 a. C.), un estudiante de Platón , quien redujo la comparación de dos razones irracionales a comparaciones de múltiplos enteros de las magnitudes involucradas. Su método anticipó el de los cortes de Dedekind en la definición moderna de números reales de Richard Dedekind (1831-1916); [2] ver Eudoxo de Cnido § Proporciones de Eudoxo .

En los Análisis posteriores , Aristóteles (384-322 a. C.) estableció la lógica para organizar un campo de conocimiento mediante conceptos, axiomas, postulados, definiciones y teoremas primitivos. Aristóteles tomó la mayoría de sus ejemplos de la aritmética y de la geometría, y su lógica sirvió como fundamento de las matemáticas durante siglos. Este método se parece al método axiomático moderno con una gran diferencia filosófica: se suponía que los axiomas y postulados eran verdaderos, ya sea evidentes por sí mismos o resultantes de experimentos , mientras que el método axiomático no implica otra verdad que la exactitud de la prueba. Así, para Aristóteles, un teorema demostrado es verdadero, mientras que en los métodos axiomáticos, la prueba sólo dice que los axiomas implican el enunciado del teorema.

La lógica de Aristóteles alcanzó su punto culminante con los Elementos de Euclides (300 a. C.), un tratado de matemáticas estructurado con muy altos estándares de rigor: Euclides justifica cada proposición mediante una demostración en forma de cadenas de silogismos (aunque no siempre se ajustan estrictamente a ellas). a modelos aristotélicos). La lógica silogística de Aristóteles , junto con su ejemplificación por los Elementos de Euclides , son reconocidos como logros científicos de la antigua Grecia y permanecieron como los fundamentos de las matemáticas durante siglos.

Antes del cálculo infinitesimal

Durante la Edad Media , los Elementos de Euclides constituían una base perfectamente sólida para las matemáticas, y la filosofía de las matemáticas se concentraba en el estatus ontológico de los conceptos matemáticos; la pregunta era si existen independientemente de la percepción ( realismo ) o sólo dentro de la mente ( conceptualismo ); o incluso si son simplemente nombres de colecciones de objetos individuales ( nominalismo ).

En Elementos , los únicos números que se consideran son los números naturales y las proporciones de longitudes. Esta visión geométrica de los números no enteros siguió siendo dominante hasta el final de la Edad Media, aunque el auge del álgebra llevó a considerarlos independientemente de la geometría, lo que implica implícitamente que existen primitivos fundamentales de las matemáticas. Por ejemplo, las transformaciones de ecuaciones introducidas por Al-Khwarizmi y las fórmulas cúbicas y cuárticas descubiertas en el siglo XVI son el resultado de manipulaciones algebraicas que no tienen contrapartida geométrica.

Sin embargo, esto no desafió los fundamentos clásicos de las matemáticas, ya que todas las propiedades de los números utilizados se pueden deducir de su definición geométrica.

En 1637, René Descartes publicó La Géométrie , en la que demostraba que la geometría se puede reducir al álgebra mediante las coordenadas , que son números que determinan la posición de un punto. Esto les da a los números que él llamó números reales un papel más fundamental (antes de él, los números se definían como la relación de dos longitudes). El libro de Descartes se hizo famoso después de 1649 y abrió el camino al cálculo infinitesimal .

calculo infinitesimal

Isaac Newton (1642-1727) en Inglaterra y Leibniz (1646-1716) en Alemania desarrollaron de forma independiente el cálculo infinitesimal para tratar con puntos móviles (como los planetas en el cielo) y cantidades variables.

Esto requirió la introducción de nuevos conceptos como funciones continuas , derivadas y límites . Para tratar estos conceptos de forma lógica, se definieron en términos de infinitesimales , que son números hipotéticos infinitamente cercanos a cero. Las fuertes implicaciones del cálculo infinitesimal en los fundamentos de las matemáticas se ilustran en un folleto del filósofo protestante George Berkeley (1685-1753), quien escribió: "[Los infinitesimales] no son cantidades finitas, ni cantidades infinitamente pequeñas, ni nada. ¿Llamarlos los fantasmas de las cantidades fallecidas?". [3]

Además, se ha invocado con frecuencia una falta de rigor, porque los infinitesimales y los conceptos asociados no estaban formalmente definidos ( las líneas y los planos tampoco estaban formalmente definidos, pero la gente estaba más acostumbrada a ellos). Los números reales, las funciones continuas y las derivadas no se definieron formalmente antes del siglo XIX, así como la geometría euclidiana . Sólo en el siglo XX se dio una definición formal de los infinitesimales, con la prueba de que de ellos se puede deducir todo el infinitesimal.

A pesar de su falta de fundamentos lógicos firmes, el cálculo infinitesimal fue rápidamente adoptado por los matemáticos y validado por sus numerosas aplicaciones; en particular el hecho de que las trayectorias de los planetas se pueden deducir de la ley de gravitación de Newton .

Siglo 19

En el siglo XIX, las matemáticas se desarrollaron rápidamente en muchas direcciones. Varios de los problemas que se consideraron llevaron a preguntas sobre los fundamentos de las matemáticas. Con frecuencia, las soluciones propuestas conducían a otras cuestiones que a menudo eran simultáneamente de naturaleza filosófica y matemática. Todas estas cuestiones condujeron, a finales del siglo XIX y principios del XX, a debates que han sido denominados la crisis fundacional de las matemáticas. Las siguientes subsecciones describen los principales problemas fundacionales revelados durante el siglo XIX.

Análisis reales

Cauchy (1789-1857) inició el proyecto de dar bases rigurosas al cálculo infinitesimal . En particular, rechazó el principio heurístico que llamó generalidad del álgebra , que consistía en aplicar propiedades de operaciones algebraicas a secuencias infinitas sin pruebas adecuadas. En su Cours d'Analyse (1821), considera cantidades muy pequeñas , que actualmente podrían denominarse "cantidades suficientemente pequeñas"; es decir, una oración tal que "si x es muy pequeña entonces..." debe entenderse como "existe un número natural (suficientemente grande) n tal que | x | < 1/ n ". En las pruebas, usa esto de una manera anterior a la definición moderna (ε, δ) de límite . [4]

La definición moderna (ε, δ) de límites y funciones continuas fue desarrollada por primera vez por Bolzano en 1817, pero permaneció relativamente desconocida, y Cauchy probablemente conocía el trabajo de Bolzano.

Karl Weierstrass (1815-1897) formalizó y popularizó la definición de límites (ε, δ) y descubrió algunas funciones patológicas que parecían paradójicas en ese momento, como las funciones continuas y no diferenciables en ninguna parte . De hecho, tales funciones contradicen concepciones previas de una función como regla de cálculo o como gráfica suave.

En este punto, el programa de aritmetización del análisis (reducción del análisis matemático a operaciones aritméticas y algebraicas) defendido por Weierstrass estaba esencialmente completado, excepto en dos puntos.

En primer lugar, todavía faltaba una definición formal de los números reales. De hecho, comenzando con Richard Dedekind en 1858, varios matemáticos trabajaron en la definición de los números reales, incluidos Hermann Hankel , Charles Méray y Eduard Heine , pero no fue hasta 1872 que se publicaron dos definiciones completas e independientes de los números reales: una de Dedekind, mediante cortes de Dedekind ; el otro de Georg Cantor como clases de equivalencia de secuencias de Cauchy . [5]

Estas definiciones dejaron abiertos varios problemas, lo que contribuyó a la crisis fundacional de las matemáticas . En primer lugar, ambas definiciones suponen que los números racionales y, por tanto, los números naturales están definidos rigurosamente; esto se hizo unos años más tarde con los axiomas de Peano . En segundo lugar, ambas definiciones implican conjuntos infinitos (cortes de Dedekind y conjuntos de elementos de una secuencia de Cauchy), y la teoría de conjuntos de Cantor se publicó varios años después.

El tercer problema es más sutil y está relacionado con los fundamentos de la lógica: la lógica clásica es una lógica de primer orden ; es decir, los cuantificadores se aplican a variables que representan elementos individuales, no a variables que representan conjuntos (infinitos) de elementos. La propiedad básica de la integridad de los números reales que se requiere para definir y utilizar números reales implica una cuantificación en conjuntos infinitos. De hecho, esta propiedad puede expresarse como para cada secuencia infinita de números reales, si es una secuencia de Cauchy , tiene un límite que es un número real , o como cada subconjunto de números reales acotado tiene un límite superior mínimo. ese es un número real . Esta necesidad de cuantificación de conjuntos infinitos es una de las motivaciones del desarrollo de lógicas de orden superior durante la primera mitad del siglo XX.

Geometrías no euclidianas

Antes del siglo XIX, hubo muchos intentos fallidos de derivar el postulado de las paralelas a partir de otros axiomas de la geometría. En un intento por demostrar que su negación conduce a una contradicción, Johann Heinrich Lambert (1728-1777) comenzó a construir la geometría hiperbólica , introdujo las funciones hiperbólicas y calculó el área de un triángulo hiperbólico (donde la suma de los ángulos es menor que 180°). ).

Continuando con la construcción de esta nueva geometría, varios matemáticos demostraron de forma independiente que si es inconsistente , entonces la geometría euclidiana también lo es y, por lo tanto, que el postulado de las paralelas no se puede probar. Esto fue demostrado por Nikolai Lobachevsky en 1826, János Bolyai (1802-1860) en 1832 y Carl Friedrich Gauss (inédito).

Más tarde, en el siglo XIX, el matemático alemán Bernhard Riemann desarrolló la geometría elíptica , otra geometría no euclidiana en la que no se pueden encontrar paralelos y la suma de los ángulos de un triángulo es superior a 180°. Se demostró que era coherente al definir los puntos como pares de puntos antípodas en una esfera (o hiperesfera ) y las líneas como círculos máximos en la esfera.

Estas pruebas de indemostrabilidad del postulado de las paralelas conducen a varios problemas filosóficos, siendo el principal que antes de este descubrimiento, el postulado de las paralelas y todas sus consecuencias se consideraban verdaderos . Así, las geometrías no euclidianas desafiaron el concepto de verdad matemática .

Geometría sintética versus analítica

Desde la introducción de la geometría analítica por parte de René Descartes en el siglo XVII, hubo dos enfoques de la geometría, el antiguo llamado geometría sintética , y el nuevo, donde todo se especifica en términos de números reales llamados coordenadas . Por otro lado, en la geometría sintética clásica, los números se definen como razones de distancias o, de manera equivalente, como distancias medidas en términos de una unidad de longitud fija.

Los matemáticos no se preocuparon mucho por esta definición circular antes de mediados del siglo XIX, donde hubo "una enconada controversia entre los defensores de los métodos sintéticos y analíticos en geometría proyectiva , acusándose ambas partes de mezclar conceptos proyectivos y métricos". [6] De hecho, no existe el concepto de distancia en un espacio proyectivo , y la relación cruzada , que es un número, es un concepto básico de la geometría proyectiva sintética.

Karl von Staudt desarrolló un enfoque puramente geométrico para este problema introduciendo "lanzamientos" que forman lo que actualmente se llama un campo , en el que se puede expresar la razón cruzada.

Aparentemente, el problema de la equivalencia entre el enfoque analítico y sintético se resolvió completamente sólo con el libro Álgebra geométrica de Emil Artin publicado en 1957. Era bien sabido que, dado un campo k , se pueden definir espacios afines y proyectivos sobre k en términos de k - espacios vectoriales . En estos espacios se cumple el teorema del hexágono de Pappus . Por el contrario, si el teorema del hexágono de Pappus se incluye en los axiomas de una geometría plana, entonces se puede definir un campo k tal que la geometría sea la misma que la geometría afín o proyectiva sobre k .

Números naturales

El trabajo de hacer el análisis real riguroso y la definición de los números reales, consistió en reducir todo a números racionales y por ende a números naturales , ya que los números racionales positivos son fracciones de números naturales. Por lo tanto, era necesaria una definición formal de los números naturales, que implicara como teoría axiomática de la aritmética . Esto se inició con Charles Sanders Peirce en 1881 y Richard Dedekind en 1888, quienes definieron los números naturales como la cardinalidad de un conjunto finito . [ cita necesaria ] . Sin embargo, se trata de la teoría de conjuntos , que no estaba formalizada en este momento.

Giuseppe Peano proporcionó en 1888 una axiomatización completa basada en la propiedad ordinal de los números naturales. El último axioma de Peano es el único que induce dificultades lógicas, ya que comienza con "si S es un conjunto, entonces" o "si es un predicado, entonces". Entonces, los axiomas de Peano inducen una cuantificación en conjuntos infinitos, y esto significa que la aritmética de Peano es lo que actualmente se llama lógica de segundo orden .

Esto no se entendía bien en aquella época, pero el hecho de que el infinito ocurriera en la definición de los números naturales fue un problema para muchos matemáticos de esa época. Por ejemplo, Henri Poincaré afirmó que los axiomas sólo pueden demostrarse en su aplicación finita, y concluyó que es "el poder de la mente" el que permite concebir la repetición indefinida de un mismo acto. [7] Esto se aplica en particular al uso del último axioma de Peano para demostrar que la función sucesora genera todos los números naturales. Además, Leopold Kronecker dijo "Dios hizo los números enteros, todo lo demás es obra del hombre". [a] Esto puede interpretarse como "los números enteros no se pueden definir matemáticamente".

conjuntos infinitos

Antes de la segunda mitad del siglo XIX, el infinito era un concepto filosófico que no pertenecía a las matemáticas. Sin embargo, con el auge del cálculo infinitesimal , los matemáticos se acostumbraron al infinito, principalmente a través del infinito potencial , es decir, como resultado de un proceso infinito, como la definición de una secuencia infinita , una serie infinita o un límite . La posibilidad de un infinito real fue objeto de muchas disputas filosóficas.

Los conjuntos , y más especialmente los conjuntos infinitos, no eran considerados como un concepto matemático; en particular, no había un plazo fijo para ellos. Un cambio dramático surgió con el trabajo de Georg Cantor, quien fue el primer matemático en estudiar sistemáticamente conjuntos infinitos. En particular, introdujo los números cardinales que miden el tamaño de conjuntos infinitos y los números ordinales que, en términos generales, permiten seguir contando después de haber llegado al infinito. Uno de sus principales resultados es el descubrimiento de que existen estrictamente más números reales que naturales (el cardinal del continuo de los números reales es mayor que el de los números naturales).

Estos resultados fueron rechazados por muchos matemáticos y filósofos y dieron lugar a debates que forman parte de la crisis fundacional de las matemáticas.

La crisis se amplificó con la paradoja de Russel que afirma que la frase "el conjunto de todos los conjuntos" es autocontradictoria. Esta contradicción introdujo una duda sobre la coherencia de todas las matemáticas.

Con la introducción de la teoría de conjuntos de Zermelo-Fraenkel ( c.  1925 ) y su adopción por parte de la comunidad matemática, la duda sobre la consistencia quedó esencialmente eliminada, aunque la consistencia de la teoría de conjuntos no se puede probar debido al teorema de incompletitud de Gödel .

Lógica matemática

En 1847, De Morgan publicó sus leyes y George Boole ideó un álgebra, ahora llamada álgebra booleana , que permite expresar la lógica de Aristóteles en términos de fórmulas y operaciones algebraicas . El álgebra booleana es el punto de partida de la lógica de la matematización y la base del cálculo proposicional.

De forma independiente, en la década de 1870, Charles Sanders Peirce y Gottlob Frege ampliaron el cálculo proposicional introduciendo cuantificadores para construir la lógica de predicados .

Frege señaló tres propiedades deseadas de una teoría lógica: [ cita necesaria ] consistencia (imposibilidad de probar enunciados contradictorios), integridad (cualquier enunciado es demostrable o refutable; es decir, su negación es demostrable) y decidibilidad (hay una decisión procedimiento para probar cada declaración).

Cerca del cambio de siglo, Bertrand Russell popularizó el trabajo de Frege y descubrió la paradoja de Russel , que implica que la frase "el conjunto de todos los conjuntos" es autocontradictoria. Esta paradoja parecía hacer que todas las matemáticas fueran inconsistentes y es una de las principales causas de la crisis fundacional de las matemáticas.

Crisis fundacional

La crisis fundacional de las matemáticas surgió a finales del siglo XIX y principios del XX con el descubrimiento de varias paradojas o resultados contraintuitivos.

La primera fue la prueba de que el postulado de las paralelas no se puede probar. Esto resulta de una construcción de una geometría no euclidiana dentro de la geometría euclidiana , cuya inconsistencia implicaría la inconsistencia de la geometría euclidiana. Una paradoja bien conocida es la paradoja de Russell , que muestra que la frase "el conjunto de todos los conjuntos que no se contienen a sí mismos" es autocontradictoria. Otros problemas filosóficos fueron la prueba de la existencia de objetos matemáticos que no pueden calcularse ni describirse explícitamente, y la prueba de la existencia de teoremas de la aritmética que no pueden probarse con la aritmética de Peano .

Varias escuelas de filosofía de las matemáticas se enfrentaron a estos problemas en el siglo XX, y se describen a continuación.

Estos problemas también fueron estudiados por los matemáticos, lo que llevó a establecer la lógica matemática como una nueva área de las matemáticas, consistente en proporcionar definiciones matemáticas a la lógica (conjuntos de reglas de inferencia ), teorías, teoremas y demostraciones matemáticas y lógicas, y en el uso de matemáticas. Métodos para demostrar teoremas sobre estos conceptos.

Esto llevó a resultados inesperados, como los teoremas de incompletitud de Gödel , que, en términos generales, afirman que, si una teoría contiene la aritmética estándar, no puede usarse para demostrar que ella misma no es autocontradictoria ; y, si no es contradictorio, hay teoremas que no pueden demostrarse dentro de la teoría, pero que, sin embargo, son verdaderos en algún sentido técnico.

La teoría de conjuntos de Zermelo-Fraenkel con el axioma de elección (ZFC) es una teoría lógica establecida por Ernst Zermelo y Abraham Fraenkel . Se convirtió en el fundamento estándar de las matemáticas modernas y, a menos que se especifique explícitamente lo contrario, se utiliza en todos los textos matemáticos modernos, generalmente de forma implícita.

Al mismo tiempo, el método axiomático se convirtió en un estándar de facto: la demostración de un teorema debe resultar de axiomas explícitos y teoremas previamente demostrados mediante la aplicación de reglas de inferencia claramente definidas. Los axiomas no necesitan corresponder a alguna realidad. Sin embargo, es un problema filosófico abierto explicar por qué los sistemas de axiomas que conducen a teorías ricas y útiles son aquellos que resultan de la abstracción de la realidad física u otra teoría matemática.

En resumen, la crisis fundacional está esencialmente resuelta y esto abre nuevos problemas filosóficos. En particular, no se puede demostrar que la nueva fundación (ZFC) no sea contradictoria. Existe un consenso general de que, si esto sucediera, el problema podría resolverse mediante una ligera modificación del ZFC.

Puntos de vista filosóficos

Cuando surgió la crisis fundacional, hubo mucho debate entre matemáticos y lógicos sobre qué se debería hacer para restaurar la confianza en las matemáticas. Esto implicó cuestiones filosóficas sobre la verdad matemática , la relación de las matemáticas con la realidad , la realidad de los objetos matemáticos y la naturaleza de las matemáticas.

En cuanto al problema de las fundaciones, había dos opciones principales para intentar evitar las paradojas. El primero derivó en el intuicionismo y el constructivismo , y consistió en restringir las reglas lógicas para acercarse más a la intuición, mientras que el segundo, que se ha denominado formalismo , considera que un teorema es verdadero si puede deducirse a partir de axiomas aplicando reglas de inferencia ( prueba formal ), y que no se necesita la "veracidad" de los axiomas para la validez de un teorema.

Formalismo

Ha sido reclamado [ ¿por quién? ] que formalistas, como David Hilbert (1862-1943), sostienen que las matemáticas son sólo un lenguaje y una serie de juegos. Hilbert insistió en que el formalismo, llamado por él "juego de fórmulas", es una parte fundamental de las matemáticas, pero que las matemáticas no deben reducirse al formalismo. De hecho, utilizó las palabras "juego de fórmulas" en su respuesta de 1927 a las críticas de LEJ Brouwer :

¿Y hasta qué punto el juego de fórmulas así hecho posible ha tenido éxito? Este juego de fórmulas nos permite expresar de manera uniforme todo el contenido mental de la ciencia de las matemáticas y desarrollarlo de tal manera que, al mismo tiempo, se aclaren las interconexiones entre las distintas proposiciones y los hechos... La fórmula El juego que Brouwer tanto desaprueba tiene, además de su valor matemático, un importante significado filosófico general. Pues este juego de fórmulas se lleva a cabo según ciertas reglas definidas, en las que se expresa la técnica de nuestro pensamiento . Estas reglas forman un sistema cerrado que puede descubrirse y enunciarse definitivamente. [10]

Así, Hilbert insiste en que las matemáticas no son un juego arbitrario con reglas arbitrarias ; más bien debe estar de acuerdo con cómo procede nuestro pensamiento, y luego nuestro habla y escritura. [10]

No estamos hablando aquí de arbitrariedad en ningún sentido. Las matemáticas no son como un juego cuyas tareas están determinadas por reglas estipuladas arbitrariamente. Más bien, es un sistema conceptual que posee una necesidad interna que sólo puede ser así y de ninguna manera de otra manera. [11]

La filosofía fundacional del formalismo, ejemplificada por David Hilbert , es una respuesta a las paradojas de la teoría de conjuntos y se basa en la lógica formal . Prácticamente todos los teoremas matemáticos actuales pueden formularse como teoremas de la teoría de conjuntos. La verdad de un enunciado matemático, desde este punto de vista, está representada por el hecho de que el enunciado puede derivarse de los axiomas de la teoría de conjuntos utilizando las reglas de la lógica formal.

El mero uso del formalismo por sí solo no explica varias cuestiones: por qué deberíamos utilizar los axiomas que utilizamos y no algunos otros, por qué deberíamos emplear las reglas lógicas que utilizamos y no otras, por qué enunciados matemáticos "verdaderos" (por ejemplo, las leyes de aritmética ) parecen ser verdaderas, y así sucesivamente. Hermann Weyl le planteó estas mismas preguntas a Hilbert:

Qué "verdad" u objetividad se puede atribuir a esta construcción teórica del mundo, que va mucho más allá de lo dado, es un problema filosófico profundo. Está estrechamente relacionado con la siguiente pregunta: ¿qué nos impulsa a tomar como base precisamente el particular sistema de axiomas desarrollado por Hilbert? De hecho, la coherencia es una condición necesaria pero no suficiente. Por el momento probablemente no podamos responder a esta pregunta... [12]

En algunos casos, estas preguntas pueden responderse suficientemente mediante el estudio de teorías formales, en disciplinas como las matemáticas inversas y la teoría de la complejidad computacional . Como señaló Weyl, los sistemas lógicos formales también corren el riesgo de ser inconsistentes ; En la aritmética de Peano , podría decirse que esto ya se ha resuelto con varias pruebas de coherencia , pero existe un debate sobre si son lo suficientemente finitas o no para ser significativas. El segundo teorema de incompletitud de Gödel establece que los sistemas lógicos de aritmética nunca pueden contener una prueba válida de su propia consistencia . Lo que Hilbert quería hacer era demostrar que un sistema lógico S era consistente, basado en principios P ​​que sólo constituían una pequeña parte de S. Pero Gödel demostró que los principios P ​​ni siquiera podían demostrar que P fuera consistente, y mucho menos S.

Intuicionismo

Los intuicionistas, como LEJ Brouwer (1882-1966), sostienen que las matemáticas son una creación de la mente humana. Los números, como los personajes de los cuentos de hadas, son meras entidades mentales, que no existirían si nunca hubiera mentes humanas que pensaran en ellos.

La filosofía fundacional del intuicionismo o constructivismo , ejemplificada en extremo por Brouwer y Stephen Kleene , requiere que las pruebas sean de naturaleza "constructiva": la existencia de un objeto debe demostrarse en lugar de inferirse a partir de una demostración de la imposibilidad de su no-existencia. existencia. Por ejemplo, como consecuencia de esto, la forma de prueba conocida como reductio ad absurdum es sospechosa.

Algunas teorías modernas de la filosofía de las matemáticas niegan la existencia de fundamentos en el sentido original. Algunas teorías tienden a centrarse en la práctica matemática y apuntan a describir y analizar el trabajo real de los matemáticos como grupo social . Otros intentan crear una ciencia cognitiva de las matemáticas , centrándose en la cognición humana como origen de la fiabilidad de las matemáticas cuando se aplican al mundo real. Estas teorías propondrían encontrar fundamentos sólo en el pensamiento humano, no en ninguna construcción objetiva externa. El asunto sigue siendo controvertido.

logicismo

El logicismo es una escuela de pensamiento y un programa de investigación en filosofía de las matemáticas, basado en la tesis de que las matemáticas son una extensión de la lógica o que algunas o todas las matemáticas pueden derivarse en un sistema formal adecuado cuyos axiomas y reglas de inferencia son " de naturaleza lógica. Bertrand Russell y Alfred North Whitehead defendieron esta teoría iniciada por Gottlob Frege e influenciada por Richard Dedekind .

Platonismo teórico de conjuntos

Muchos investigadores de la teoría axiomática de conjuntos se han suscrito a lo que se conoce como platonismo teórico de conjuntos , ejemplificado por Kurt Gödel .

Varios teóricos de conjuntos siguieron este enfoque y buscaron activamente axiomas que pudieran considerarse verdaderos por razones heurísticas y que decidirían la hipótesis del continuo . Se estudiaron muchos axiomas cardinales grandes , pero la hipótesis siempre permaneció independiente de ellos y ahora se considera poco probable que CH pueda resolverse mediante un nuevo axioma cardinal grande. Se consideraron otros tipos de axiomas, pero ninguno de ellos ha llegado aún a un consenso sobre la hipótesis del continuo. Un trabajo reciente de Hamkins propone una alternativa más flexible: un multiverso con teoría de conjuntos que permita el paso libre entre universos con teoría de conjuntos que satisfacen la hipótesis del continuo y otros universos que no lo hacen.

Argumento de indispensabilidad a favor del realismo

Este argumento de Willard Quine y Hilary Putnam dice (en palabras más breves de Putnam):

... la cuantificación de entidades matemáticas es indispensable para la ciencia ... por lo tanto, deberíamos aceptar dicha cuantificación; pero esto nos compromete a aceptar la existencia de las entidades matemáticas en cuestión.

Sin embargo, Putnam no era platónico.

Realismo rudo y listo

Son pocos los matemáticos que suelen preocuparse diariamente y trabajando por el logicismo, el formalismo o cualquier otra posición filosófica. Más bien, su principal preocupación es que la empresa matemática en su conjunto siga siendo siempre productiva. Por lo general, consideran que esto se garantiza si mantienen una mente abierta, son prácticos y están ocupados; como potencialmente amenazados por volverse demasiado ideológicos, fanáticamente reduccionistas o perezosos.

Algunos físicos de renombre también han expresado esta opinión.

Por ejemplo, el premio Nobel de Física Richard Feynman dijo

La gente me dice: "¿Estás buscando las leyes fundamentales de la física?" No, no lo soy... Si resulta que hay una ley fundamental y sencilla que lo explica todo, que así sea; sería muy bonito descubrirlo. Si resulta que es como una cebolla con millones de capas… entonces es así. Pero de cualquier manera existe la Naturaleza y ella saldrá tal como es. Por lo tanto, cuando vamos a investigar no debemos predecidir qué es lo que estamos buscando sólo para saber más sobre ello. [13]

Y Steven Weinberg : [14]

Las ideas de los filósofos han beneficiado ocasionalmente a los físicos, pero generalmente de manera negativa: protegiéndolos de las ideas preconcebidas de otros filósofos. ... sin alguna guía de nuestras ideas preconcebidas uno no podría hacer nada en absoluto. Lo que pasa es que, en general, los principios filosóficos no nos han proporcionado las ideas preconcebidas correctas.

Weinberg creía que cualquier indecidibilidad en matemáticas, como la hipótesis del continuo, podría resolverse potencialmente a pesar del teorema de incompletitud, encontrando otros axiomas adecuados para agregar a la teoría de conjuntos.

Consecuencias filosóficas del teorema de completitud de Gödel

El teorema de completitud de Gödel establece una equivalencia en lógica de primer orden entre la demostrabilidad formal de una fórmula y su verdad en todos los modelos posibles. Precisamente, para cualquier teoría de primer orden consistente, proporciona una "construcción explícita" de un modelo descrito por la teoría; este modelo será contable si el lenguaje de la teoría es contable. Sin embargo, esta "construcción explícita" no es algorítmica. Se basa en un proceso iterativo de compleción de la teoría, donde cada paso de la iteración consiste en agregar una fórmula a los axiomas si esto mantiene consistente la teoría; pero esta cuestión de coherencia es sólo semidecidible (hay un algoritmo disponible para encontrar cualquier contradicción, pero si no la hay, este hecho de coherencia puede seguir siendo indemostrable).

Más paradojas

A continuación se enumeran algunos resultados notables en metamatemáticas. La teoría de conjuntos de Zermelo-Fraenkel es la axiomatización de la teoría de conjuntos más estudiada. Se abrevia ZFC cuando incluye el axioma de elección y ZF cuando se excluye el axioma de elección.

Hacia la resolución de la crisis

A partir de 1935, el grupo Bourbaki de matemáticos franceses comenzó a publicar una serie de libros para formalizar muchas áreas de las matemáticas sobre los nuevos fundamentos de la teoría de conjuntos.

La escuela intuicionista no atrajo a muchos adeptos, y no fue hasta el trabajo de Bishop en 1967 que las matemáticas constructivas adquirieron una base más sólida. [dieciséis]

Se puede considerar que el programa de Hilbert se ha completado parcialmente , de modo que la crisis está esencialmente resuelta, satisfaciendonos con exigencias inferiores a las ambiciones originales de Hilbert. Sus ambiciones se expresaron en una época en la que nada estaba claro: no estaba claro si las matemáticas podían tener alguna base rigurosa.

Hay muchas variantes posibles de la teoría de conjuntos, que difieren en la fuerza de la consistencia, donde las versiones más fuertes (que postulan tipos superiores de infinitos) contienen pruebas formales de la consistencia de las versiones más débiles, pero ninguna contiene una prueba formal de su propia consistencia. Por tanto, lo único que no tenemos es una prueba formal de coherencia de cualquier versión de teoría de conjuntos que prefiramos, como ZF.

En la práctica, la mayoría de los matemáticos no trabajan a partir de sistemas axiomáticos o, si lo hacen, no dudan de la coherencia de ZFC , generalmente su sistema axiomático preferido. En la mayor parte de las matemáticas tal como se practican, lo incompleto y las paradojas de las teorías formales subyacentes nunca jugaron un papel, y en aquellas ramas en las que sí lo hacen o cuyos intentos de formalización correrían el riesgo de formar teorías inconsistentes (como la lógica y las categorías). teoría), pueden tratarse con cuidado.

El desarrollo de la teoría de categorías a mediados del siglo XX mostró la utilidad de las teorías de conjuntos que garantizan la existencia de clases más grandes que la ZFC, como la teoría de conjuntos de Von Neumann-Bernays-Gödel o la teoría de conjuntos de Tarski-Grothendieck , aunque en muchísimos casos. En muchos casos, el uso de grandes axiomas cardinales o universos de Grothendieck es formalmente eliminable.

Uno de los objetivos del programa de matemáticas inversas es identificar si hay áreas de las "matemáticas básicas" en las que las cuestiones fundamentales puedan provocar nuevamente una crisis.

Ver también

Notas

  1. ^ La traducción al inglés es de Gray. En una nota a pie de página, Gray atribuye la cita alemana a: "Weber 1891–1892, 19, citando una conferencia de Kronecker de 1886". [8] [9]
  1. ^ Joachim Lambek (2007), "Fundamentos de las matemáticas", Encyc. Británica
  2. ^ Los trece libros de los Elementos de Euclides, editados por Sir Thomas Heath. vol. 2 (Libro V). Traducido por Heiberg. Nueva York: Publicaciones de Dover . 1956, págs. 124-126. ISBN 0-486-60089-0.
  3. ^ El analista , discurso dirigido a un matemático infiel
  4. ^ Grabiner, Judith V. (1983), "¿Quién te dio el Epsilon? Cauchy y los orígenes del cálculo riguroso", American Mathematical Monthly , 90 (3): 185–194, doi :10.2307/2975545, JSTOR  2975545, recopilado en ¿Quién te dio el Epsilon?, ISBN 978-0-88385-569-0 págs. 5-13. También disponible en: http://www.maa.org/pubs/Calc_articles/ma002.pdf 
  5. ^ O'Connor, John J.; Robertson, Edmund F. (octubre de 2005), "Los números reales: Stevin a Hilbert", Archivo MacTutor de Historia de las Matemáticas , Universidad de St Andrews
  6. ^ Laptev, BL & BA Rozenfel'd (1996) Matemáticas del siglo XIX: geometría , página 40, Birkhäuser ISBN 3-7643-5048-2 
  7. ^ Poincaré, Henri (1905) [1902]. "Sobre la naturaleza del razonamiento matemático". La Science et l'hypothèse [ Ciencia e Hipótesis ]. Traducido por Greenstreet, William John. VI.
  8. ^ Gris, Jeremy (2008). El fantasma de Platón: la transformación modernista de las matemáticas. Prensa de la Universidad de Princeton. pag. 153.ISBN 978-1-4008-2904-0. Archivado desde el original el 29 de marzo de 2017, a través de Google Books.
  9. ^ Weber, Heinrich L. (1891–1892). "Kronecker".Jahresbericht der Deutschen Mathematiker-Vereinigung[ Informe anual de la Asociación Alemana de Matemáticos ]. págs. 2:5–23. (La cita está en la página 19). Archivado desde el original el 9 de agosto de 2018; "acceso a Jahresbericht der Deutschen Mathematiker-Vereinigung". Archivado desde el original el 20 de agosto de 2017.
  10. ^ ab Hilbert 1927 Los fundamentos de las matemáticas en van Heijenoort 1967:475
  11. ^ pág. 14 en Hilbert, D. (1919–20), Natur und Mathematisches Erkennen: Vorlesungen, gehalten 1919–1920 en Göttingen. Nach der Ausarbeitung von Paul Bernays (Editado y con introducción en inglés de David E. Rowe), Basilea, Birkhauser (1992).
  12. ^ Weyl 1927 Comentarios sobre la segunda conferencia de Hilbert sobre los fundamentos de las matemáticas en van Heijenoort 1967:484. Aunque el intuicionista Weyl creía que finalmente prevalecería la "visión de Hilbert", esto supondría una pérdida significativa para la filosofía: " Veo en esto una derrota decisiva de la actitud filosófica de la fenomenología pura , que resulta así insuficiente para la comprensión de ciencia creativa incluso en el área de la cognición más primaria y más abierta a la evidencia: las matemáticas" (ibid).
  13. ^ Richard Feynman, El placer de descubrir cosas p. 23
  14. ^ Steven Weinberg, capítulo escrito Contra la Filosofía , en Sueños de una teoría final
  15. ^ Chaitin, Gregory (2006), "Los límites de la razón" (PDF) , Scientific American , 294 (3): 74–81, Bibcode :2006SciAm.294c..74C, doi :10.1038/scientificamerican0306-74, PMID  16502614, Archivado desde el original (PDF) el 4 de marzo de 2016 , consultado el 22 de febrero de 2016.
  16. ^ Andrej Bauer (2017), "Cinco etapas para aceptar las matemáticas constructivas", Bull. América. Matemáticas. Soc. , 54 (3): 485, doi : 10.1090/bull/1556

Referencias

En el Capítulo III Una crítica del razonamiento matemático, §11. Las paradojas , Kleene analiza en profundidad el intuicionismo y el formalismo . A lo largo del resto del libro, trata y compara la lógica formalista (clásica) y la intuicionista, con énfasis en la primera. Extraordinario escrito de un extraordinario matemático.

enlaces externos