Los fundamentos de las matemáticas son el marco lógico y matemático que permite el desarrollo de las matemáticas sin generar teorías autocontradictorias , y, en particular, disponer de conceptos fiables de teoremas , demostraciones , algoritmos , etc. Esto puede incluir también el estudio filosófico de la relación de este marco con la realidad . [1]
El término "fundamentos de las matemáticas" no fue acuñado hasta finales del siglo XIX, aunque los primeros fundamentos fueron establecidos por los filósofos griegos antiguos bajo el nombre de lógica de Aristóteles y aplicados sistemáticamente en los Elementos de Euclides . Una afirmación matemática se considera verdadera solo si es un teorema que se demuestra a partir de premisas verdaderas por medio de una secuencia de silogismos ( reglas de inferencia ), siendo las premisas teoremas ya demostrados o afirmaciones evidentes por sí mismas llamadas axiomas o postulados .
Estos fundamentos se asumieron tajantemente como definitivos hasta la introducción del cálculo infinitesimal por Isaac Newton y Gottfried Wilhelm Leibniz en el siglo XVII. Esta nueva área de las matemáticas implicó nuevos métodos de razonamiento y nuevos conceptos básicos ( funciones continuas , derivadas , límites ) que no estaban bien fundamentados, pero que tuvieron consecuencias asombrosas, como la deducción a partir de la ley de gravitación de Newton de que las órbitas de los planetas son elipses .
Durante el siglo XIX se avanzó en la elaboración de definiciones precisas de los conceptos básicos del cálculo infinitesimal, en particular los números naturales y reales . Esto condujo, hacia finales del siglo XIX, a una serie de resultados matemáticos aparentemente paradójicos que desafiaron la confianza general en la fiabilidad y la verdad de los resultados matemáticos. Esto se ha denominado la crisis fundacional de las matemáticas .
La resolución de esta crisis implicó el surgimiento de una nueva disciplina matemática llamada lógica matemática que incluye la teoría de conjuntos , la teoría de modelos , la teoría de la prueba , la computabilidad y la teoría de la complejidad computacional y, más recientemente, partes de la informática . Los descubrimientos posteriores del siglo XX estabilizaron los fundamentos de las matemáticas en un marco coherente válido para todas las matemáticas. Este marco se basa en un uso sistemático del método axiomático y en la teoría de conjuntos, específicamente ZFC , la teoría de conjuntos de Zermelo - Fraenkel con el axioma de elección .
De ello se desprende que los conceptos matemáticos básicos, como números , puntos , líneas y espacios geométricos , no se definen como abstracciones de la realidad, sino a partir de propiedades básicas ( axiomas ). Su adecuación a sus orígenes físicos ya no pertenece a las matemáticas, aunque su relación con la realidad todavía se utiliza para guiar la intuición matemática : los matemáticos todavía utilizan la realidad física para elegir axiomas, encontrar qué teoremas son interesantes de demostrar y obtener indicaciones de posibles demostraciones.
La mayoría de las civilizaciones desarrollaron algunas matemáticas, principalmente con fines prácticos, como el conteo (comerciantes), la topografía (delimitación de campos), la prosodia , la astronomía y la astrología . Parece que los filósofos griegos antiguos fueron los primeros en estudiar la naturaleza de las matemáticas y su relación con el mundo real.
Zenón de Elea (490 – c. 430 a. C.) formuló varias paradojas que utilizó para sustentar su tesis de que el movimiento no existe. Estas paradojas involucran el infinito matemático , un concepto que estaba fuera de los fundamentos matemáticos de esa época y que no se comprendía bien antes de fines del siglo XIX.
La escuela pitagórica de matemáticas originalmente insistió en que los únicos números son los números naturales y las razones de los números naturales. El descubrimiento (alrededor del siglo V a.C.) de que la razón de la diagonal de un cuadrado con su lado no es la razón de dos números naturales fue una sorpresa para ellos, que aceptaron solo a regañadientes. Un testimonio de esto es la terminología moderna de número irracional para referirse a un número que no es el cociente de dos números enteros, ya que "irracional" significa originalmente "no razonable" o "no accesible con la razón".
El hecho de que las razones de longitud no se representen mediante números racionales fue resuelto por Eudoxo de Cnido (408-355 a. C.), un estudiante de Platón , quien redujo la comparación de dos razones irracionales a comparaciones de múltiplos enteros de las magnitudes involucradas. Su método anticipó el de Dedekind en la definición moderna de números reales de Richard Dedekind (1831-1916); [2] véase Eudoxo de Cnido § Proporciones de Eudoxo .
En los Segundos Analíticos , Aristóteles (384-322 a. C.) estableció la lógica para organizar un campo de conocimiento por medio de conceptos primitivos, axiomas, postulados, definiciones y teoremas. Aristóteles tomó la mayoría de sus ejemplos de la aritmética y la geometría, y su lógica sirvió como fundamento de las matemáticas durante siglos. Este método se asemeja al método axiomático moderno, pero con una gran diferencia filosófica: se suponía que los axiomas y los postulados eran verdaderos, ya fuera por ser evidentes por sí mismos o por ser el resultado de experimentos , mientras que en el método axiomático no está involucrada ninguna otra verdad que la corrección de la prueba. Así, para Aristóteles, un teorema demostrado es verdadero, mientras que en los métodos axiomáticos, la prueba solo dice que los axiomas implican el enunciado del teorema.
La lógica de Aristóteles alcanzó su punto álgido con los Elementos de Euclides (300 a. C.), un tratado de matemáticas estructurado con unos estándares de rigor muy elevados: Euclides justifica cada proposición mediante una demostración en forma de cadenas de silogismos (aunque no siempre se ajusten estrictamente a los patrones aristotélicos). La lógica silogística de Aristóteles , junto con su ejemplificación en los Elementos de Euclides , se reconocen como logros científicos de la antigua Grecia, y se mantuvieron como los fundamentos de las matemáticas durante siglos.
Durante la Edad Media , los Elementos de Euclides constituyeron una base perfectamente sólida para las matemáticas, y la filosofía de las matemáticas se concentró en el estatus ontológico de los conceptos matemáticos; la cuestión era si existen independientemente de la percepción ( realismo ) o sólo dentro de la mente ( conceptualismo ); o incluso si son simplemente nombres de colecciones de objetos individuales ( nominalismo ).
En Elementos , los únicos números que se consideran son los números naturales y los cocientes de longitudes. Esta visión geométrica de los números no enteros siguió siendo dominante hasta finales de la Edad Media, aunque el auge del álgebra llevó a considerarlos independientemente de la geometría, lo que implica implícitamente que existen primitivos fundacionales de las matemáticas. Por ejemplo, las transformaciones de ecuaciones introducidas por Al-Khwarizmi y las fórmulas cúbicas y cuárticas descubiertas en el siglo XVI son resultado de manipulaciones algebraicas que no tienen contrapartida geométrica.
Sin embargo, esto no desafió los fundamentos clásicos de las matemáticas ya que todas las propiedades de los números que se utilizaron pueden deducirse de su definición geométrica.
En 1637, René Descartes publicó La Géométrie , en la que demostró que la geometría puede reducirse al álgebra mediante coordenadas , que son números que determinan la posición de un punto. Esto otorga a los números que él llamó números reales un papel más fundamental (antes de él, los números se definían como el cociente de dos longitudes). El libro de Descartes se hizo famoso después de 1649 y allanó el camino hacia el cálculo infinitesimal .
Isaac Newton (1642-1727) en Inglaterra y Leibniz (1646-1716) en Alemania desarrollaron independientemente el cálculo infinitesimal para tratar puntos móviles (como los planetas en el cielo) y cantidades variables.
Esto requirió la introducción de nuevos conceptos como funciones continuas , derivadas y límites . Para tratar estos conceptos de una manera lógica, se definieron en términos de infinitesimales , que son números hipotéticos que están infinitamente cerca de cero. Las fuertes implicaciones del cálculo infinitesimal en los fundamentos de las matemáticas se ilustran en un panfleto del filósofo protestante George Berkeley (1685-1753), quien escribió: "[Los infinitesimales] no son cantidades finitas, ni cantidades infinitamente pequeñas, ni nada. ¿No podemos llamarlos los fantasmas de cantidades desaparecidas?". [3]
Además, se ha invocado con frecuencia una falta de rigor, porque los infinitesimales y los conceptos asociados no estaban definidos formalmente ( las líneas y los planos tampoco estaban definidos formalmente, pero la gente estaba más acostumbrada a ellos). Los números reales, las funciones continuas, las derivadas no estaban definidas formalmente antes del siglo XIX, así como la geometría euclidiana . Es solo en el siglo XX que se ha dado una definición formal de los infinitesimales, con la prueba de que todo el infinitesimal puede deducirse de ellos.
A pesar de su falta de fundamentos lógicos firmes, el cálculo infinitesimal fue rápidamente adoptado por los matemáticos y validado por sus numerosas aplicaciones; en particular el hecho de que las trayectorias de los planetas pueden deducirse de la ley de gravitación de Newton .
En el siglo XIX, las matemáticas evolucionaron rápidamente en muchas direcciones. Varios de los problemas que se plantearon dieron lugar a preguntas sobre los fundamentos de las matemáticas. Con frecuencia, las soluciones propuestas dieron lugar a otras cuestiones que, a menudo, eran simultáneamente de naturaleza filosófica y matemática. Todas estas cuestiones condujeron, a finales del siglo XIX y principios del XX, a debates que se han denominado la crisis fundacional de las matemáticas. En las siguientes subsecciones se describen los principales problemas fundacionales de este tipo que se pusieron de manifiesto durante el siglo XIX.
Cauchy (1789-1857) inició el proyecto de dar bases rigurosas al cálculo infinitesimal . En particular, rechazó el principio heurístico que llamó la generalidad del álgebra , que consistía en aplicar propiedades de operaciones algebraicas a secuencias infinitas sin pruebas adecuadas. En su Cours d'Analyse (1821), considera cantidades muy pequeñas , que actualmente podrían llamarse "cantidades suficientemente pequeñas"; es decir, una oración tal que "si x es muy pequeño entonces ..." debe entenderse como "hay un número natural (suficientemente grande) n tal que | x | < 1/ n ". En las pruebas, usa esto de una manera que es anterior a la moderna (ε, δ)-definición de límite . [4]
La definición moderna (ε, δ) de límites y funciones continuas fue desarrollada por primera vez por Bolzano en 1817, pero permaneció relativamente desconocida y Cauchy probablemente conocía el trabajo de Bolzano.
Karl Weierstrass (1815-1897) formalizó y popularizó la definición (ε, δ) de límites y descubrió algunas funciones patológicas que parecían paradójicas en ese momento, como las funciones continuas que no se pueden diferenciar en ningún punto . De hecho, estas funciones contradicen las concepciones previas de una función como regla para el cálculo o como un gráfico suave.
En este punto, el programa de aritmetización del análisis (reducción del análisis matemático a operaciones aritméticas y algebraicas) propugnado por Weierstrass estaba esencialmente completado, excepto en dos puntos.
En primer lugar, todavía no existía una definición formal de los números reales. De hecho, a partir de Richard Dedekind en 1858, varios matemáticos trabajaron en la definición de los números reales, entre ellos Hermann Hankel , Charles Méray y Eduard Heine , pero no fue hasta 1872 que se publicaron dos definiciones completas e independientes de los números reales: una por Dedekind, mediante cortes de Dedekind ; la otra por Georg Cantor como clases de equivalencia de sucesiones de Cauchy . [5]
Estas definiciones dejaron varios problemas abiertos, lo que contribuyó a la crisis fundacional de las matemáticas . En primer lugar, ambas definiciones suponen que los números racionales y, por lo tanto, los números naturales están definidos rigurosamente; esto se hizo unos años más tarde con los axiomas de Peano . En segundo lugar, ambas definiciones implican conjuntos infinitos (cortes de Dedekind y conjuntos de los elementos de una sucesión de Cauchy), y la teoría de conjuntos de Cantor se publicó varios años después.
El tercer problema es más sutil y está relacionado con los fundamentos de la lógica: la lógica clásica es una lógica de primer orden ; es decir, los cuantificadores se aplican a variables que representan elementos individuales, no a variables que representan conjuntos (infinitos) de elementos. La propiedad básica de la completitud de los números reales que se requiere para definir y utilizar números reales implica una cuantificación sobre conjuntos infinitos. De hecho, esta propiedad puede expresarse ya sea como para cada secuencia infinita de números reales, si es una secuencia de Cauchy , tiene un límite que es un número real , o como cada subconjunto de los números reales que está acotado tiene un límite superior mínimo que es un número real . Esta necesidad de cuantificación sobre conjuntos infinitos es una de las motivaciones del desarrollo de la lógica de orden superior durante la primera mitad del siglo XX.
Antes del siglo XIX hubo muchos intentos fallidos de derivar el postulado de las paralelas a partir de otros axiomas de la geometría. En un intento de demostrar que su negación conduce a una contradicción, Johann Heinrich Lambert (1728-1777) comenzó a construir la geometría hiperbólica e introdujo las funciones hiperbólicas y calculó el área de un triángulo hiperbólico (donde la suma de los ángulos es menor que 180°).
Continuando con la construcción de esta nueva geometría, varios matemáticos demostraron de forma independiente que si es inconsistente , entonces la geometría euclidiana también es inconsistente y, por lo tanto, que el postulado de las paralelas no puede demostrarse. Esto fue demostrado por Nikolai Lobachevsky en 1826, János Bolyai (1802-1860) en 1832 y Carl Friedrich Gauss (inédito).
Más tarde, en el siglo XIX, el matemático alemán Bernhard Riemann desarrolló la geometría elíptica , otra geometría no euclidiana en la que no se puede encontrar ningún paralelo y la suma de los ángulos de un triángulo es mayor que 180°. Se demostró su coherencia al definir los puntos como pares de puntos antípodas en una esfera (o hiperesfera ) y las líneas como círculos máximos en la esfera.
Estas pruebas de la imposibilidad de demostrar el postulado de las paralelas conducen a varios problemas filosóficos, siendo el principal de ellos que antes de este descubrimiento, el postulado de las paralelas y todas sus consecuencias se consideraban verdaderos . Por tanto, las geometrías no euclidianas cuestionaban el concepto de verdad matemática .
Desde la introducción de la geometría analítica por René Descartes en el siglo XVII, hubo dos enfoques de la geometría, la antigua llamada geometría sintética , y la nueva, donde todo se especifica en términos de números reales llamados coordenadas .
Los matemáticos no se preocuparon mucho por la contradicción entre estos dos enfoques antes de mediados del siglo XIX, cuando hubo "una acalorada controversia entre los defensores de los métodos sintéticos y analíticos en la geometría proyectiva , acusándose mutuamente de mezclar conceptos proyectivos y métricos". [6] De hecho, no existe el concepto de distancia en un espacio proyectivo , y la razón cruzada , que es un número, es un concepto básico de la geometría proyectiva sintética.
Karl von Staudt desarrolló un enfoque puramente geométrico para este problema al introducir "lanzamientos" que forman lo que actualmente se llama un campo , en el que se puede expresar la relación cruzada.
Aparentemente, el problema de la equivalencia entre el enfoque analítico y sintético fue completamente resuelto sólo con el libro de Emil Artin Álgebra geométrica publicado en 1957. Era bien sabido que, dado un cuerpo k , se pueden definir espacios afines y proyectivos sobre k en términos de espacios vectoriales k . En estos espacios, se cumple el teorema del hexágono de Pappus . Por el contrario, si el teorema del hexágono de Pappus se incluye en los axiomas de una geometría plana, entonces se puede definir un cuerpo k tal que la geometría sea la misma que la geometría afín o proyectiva sobre k .
El trabajo de hacer un análisis real riguroso y la definición de los números reales, consistió en reducir todo a números racionales y por ende a números naturales , ya que los números racionales positivos son fracciones de números naturales. Había por tanto una necesidad de una definición formal de los números naturales, lo que implicaba una teoría axiomática de la aritmética . Esto se inició con Charles Sanders Peirce en 1881 y Richard Dedekind en 1888, quienes definieron a los números naturales como la cardinalidad de un conjunto finito . [ cita requerida ] . Sin embargo, esto implica la teoría de conjuntos , que no estaba formalizada en este momento.
Giuseppe Peano propuso en 1888 una axiomatización completa basada en la propiedad ordinal de los números naturales. El último axioma de Peano es el único que induce dificultades lógicas, ya que comienza con "si S es un conjunto entonces" o "si es un predicado entonces". Por lo tanto, los axiomas de Peano inducen una cuantificación en conjuntos infinitos, y esto significa que la aritmética de Peano es lo que actualmente se llama una lógica de segundo orden .
Esto no se comprendía bien en aquella época, pero el hecho de que el infinito apareciera en la definición de los números naturales fue un problema para muchos matemáticos de esa época. Por ejemplo, Henri Poincaré afirmó que los axiomas solo pueden demostrarse en su aplicación finita, y concluyó que es "el poder de la mente" el que permite concebir la repetición indefinida del mismo acto. [7] Esto se aplica en particular al uso del último axioma de Peano para demostrar que la función sucesora genera todos los números naturales. También, Leopold Kronecker dijo "Dios hizo los números enteros, todo lo demás es obra del hombre". [a] Esto puede interpretarse como "los números enteros no pueden definirse matemáticamente".
Antes de la segunda mitad del siglo XIX, el infinito era un concepto filosófico que no pertenecía a las matemáticas. Sin embargo, con el auge del cálculo infinitesimal , los matemáticos empezaron a acostumbrarse al infinito, principalmente a través del infinito potencial , es decir, como resultado de un proceso sin fin, como la definición de una sucesión infinita , una serie infinita o un límite . La posibilidad de un infinito actual fue objeto de muchas disputas filosóficas.
Los conjuntos , y más concretamente los conjuntos infinitos , no se consideraban un concepto matemático; en particular, no existía un término fijo para ellos. Un cambio radical surgió con el trabajo de Georg Cantor , que fue el primer matemático en estudiar sistemáticamente los conjuntos infinitos. En particular, introdujo los números cardinales que miden el tamaño de los conjuntos infinitos y los números ordinales que, en términos generales, permiten seguir contando después de haber llegado al infinito. Uno de sus principales resultados es el descubrimiento de que estrictamente hay más números reales que números naturales (el cardinal del continuo de los números reales es mayor que el de los números naturales).
Estos resultados fueron rechazados por muchos matemáticos y filósofos y dieron lugar a debates que forman parte de la crisis fundacional de las matemáticas.
La crisis se amplificó con la paradoja de Russell , que afirma que la frase "el conjunto de todos los conjuntos" es contradictoria en sí misma. Esta contradicción introdujo una duda sobre la consistencia de todas las matemáticas.
Con la introducción de la teoría de conjuntos de Zermelo-Fraenkel ( c. 1925 ) y su adopción por la comunidad matemática, la duda sobre la consistencia fue esencialmente eliminada, aunque la consistencia de la teoría de conjuntos no puede probarse debido al teorema de incompletitud de Gödel .
En 1847, De Morgan publicó sus leyes y George Boole ideó un álgebra, hoy llamada álgebra de Boole , que permite expresar la lógica de Aristóteles en términos de fórmulas y operaciones algebraicas . El álgebra de Boole es el punto de partida de la lógica de matematización y la base del cálculo proposicional.
Independientemente, en la década de 1870, Charles Sanders Peirce y Gottlob Frege ampliaron el cálculo proposicional introduciendo cuantificadores para construir la lógica de predicados .
Frege señaló tres propiedades deseadas de una teoría lógica: [ cita requerida ] consistencia (imposibilidad de probar afirmaciones contradictorias), completitud (cualquier afirmación es demostrable o refutable; es decir, su negación es demostrable) y decidibilidad (existe un procedimiento de decisión para probar cada afirmación).
A finales del siglo XX, Bertrand Russell popularizó el trabajo de Frege y descubrió la paradoja de Russell , que implica que la frase "el conjunto de todos los conjuntos" es contradictoria en sí misma. Esta paradoja parecía hacer que toda la matemática fuera inconsistente y es una de las principales causas de la crisis fundacional de las matemáticas.
La crisis fundacional de las matemáticas surgió a finales del siglo XIX y principios del XX con el descubrimiento de varias paradojas o resultados contra-intuitivos.
El primero fue la prueba de que el postulado de las paralelas no puede ser probado. Esto resulta de una construcción de una geometría no euclidiana dentro de la geometría euclidiana , cuya inconsistencia implicaría la inconsistencia de la geometría euclidiana. Una paradoja bien conocida es la paradoja de Russell , que muestra que la frase "el conjunto de todos los conjuntos que no se contienen a sí mismos" es autocontradictoria. Otros problemas filosóficos fueron la prueba de la existencia de objetos matemáticos que no pueden ser calculados o descritos explícitamente, y la prueba de la existencia de teoremas de la aritmética que no pueden ser probados con la aritmética de Peano .
Varias escuelas de filosofía de las matemáticas se enfrentaron a estos problemas en el siglo XX y se describen a continuación.
Estos problemas también fueron estudiados por los matemáticos, y esto llevó a establecer la lógica matemática como una nueva área de las matemáticas, consistente en proporcionar definiciones matemáticas a las lógicas (conjuntos de reglas de inferencia ), teorías matemáticas y lógicas, teoremas y pruebas, y en utilizar métodos matemáticos para probar teoremas sobre estos conceptos.
Esto condujo a resultados inesperados, como los teoremas de incompletitud de Gödel , que, en términos generales, afirman que, si una teoría contiene la aritmética estándar, no puede usarse para demostrar que en sí misma no es contradictoria ; y, si no es contradictoria, hay teoremas que no pueden demostrarse dentro de la teoría, pero que, sin embargo, son verdaderos en algún sentido técnico.
La teoría de conjuntos de Zermelo-Fraenkel con axioma de elección (ZFC) es una teoría lógica establecida por Ernst Zermelo y Abraham Fraenkel . Se convirtió en la base estándar de las matemáticas modernas y, a menos que se especifique explícitamente lo contrario, se utiliza en todos los textos matemáticos modernos, generalmente de manera implícita.
Simultáneamente, el método axiomático se convirtió en un estándar de facto: la prueba de un teorema debe resultar de axiomas explícitos y teoremas previamente demostrados mediante la aplicación de reglas de inferencia claramente definidas. Los axiomas no necesitan corresponder a alguna realidad. Sin embargo, es un problema filosófico abierto explicar por qué los sistemas axiomáticos que conducen a teorías ricas y útiles son los que resultan de la abstracción de la realidad física o de otra teoría matemática.
En resumen, la crisis fundacional está esencialmente resuelta, y esto abre nuevos problemas filosóficos. En particular, no se puede demostrar que la nueva fundación (ZFC) no sea autocontradictoria. Existe un consenso general en que, si esto sucediera, el problema podría resolverse mediante una modificación leve de la ZFC.
Cuando surgió la crisis fundacional, hubo un gran debate entre matemáticos y lógicos sobre lo que se debía hacer para restablecer la confianza en las matemáticas. Esto implicó cuestiones filosóficas sobre la verdad matemática , la relación de las matemáticas con la realidad , la realidad de los objetos matemáticos y la naturaleza de las matemáticas.
Para el problema de los fundamentos, existían dos opciones principales para intentar evitar las paradojas. La primera de ellas, que conducía al intuicionismo y al constructivismo , consistía en restringir las reglas lógicas para que se mantuvieran más cercanas a la intuición, mientras que la segunda, que se ha denominado formalismo , considera que un teorema es verdadero si puede deducirse de axiomas mediante la aplicación de reglas de inferencia ( prueba formal ), y que no se necesita ninguna "veracidad" de los axiomas para la validez de un teorema.
Se ha afirmado [¿ quién lo ha afirmado? ] que los formalistas, como David Hilbert (1862-1943), sostienen que las matemáticas son sólo un lenguaje y una serie de juegos. Hilbert insistió en que el formalismo, al que él llamaba "juego de fórmulas", es una parte fundamental de las matemáticas, pero que las matemáticas no deben reducirse al formalismo. De hecho, utilizó las palabras "juego de fórmulas" en su respuesta de 1927 a las críticas de LEJ Brouwer :
¿En qué medida ha tenido éxito el juego de fórmulas que se ha hecho posible de esta manera? Este juego de fórmulas nos permite expresar de manera uniforme todo el contenido de pensamiento de la ciencia matemática y desarrollarlo de tal manera que, al mismo tiempo, se hagan claras las interconexiones entre las distintas proposiciones y los hechos... El juego de fórmulas que tanto critica Brouwer tiene, además de su valor matemático, una importante significación filosófica general, pues se lleva a cabo según ciertas reglas definidas, en las que se expresa la técnica de nuestro pensamiento . Estas reglas forman un sistema cerrado que se puede descubrir y enunciar definitivamente. [10]
De este modo, Hilbert insiste en que las matemáticas no son un juego arbitrario con reglas arbitrarias , sino que deben concordar con el modo en que procede nuestro pensamiento, y luego nuestro habla y escritura. [10]
No se trata aquí de arbitrariedad en ningún sentido. Las matemáticas no son como un juego cuyas tareas están determinadas por reglas arbitrarias, sino que son un sistema conceptual que posee una necesidad interna que sólo puede ser así y de ninguna otra manera. [11]
La filosofía fundacional del formalismo, ejemplificada por David Hilbert , es una respuesta a las paradojas de la teoría de conjuntos y se basa en la lógica formal . Prácticamente todos los teoremas matemáticos actuales pueden formularse como teoremas de la teoría de conjuntos. La verdad de un enunciado matemático, desde este punto de vista, está representada por el hecho de que el enunciado puede derivarse de los axiomas de la teoría de conjuntos utilizando las reglas de la lógica formal.
El mero uso del formalismo no explica varias cuestiones: por qué deberíamos utilizar los axiomas que utilizamos y no otros, por qué deberíamos emplear las reglas lógicas que utilizamos y no otras, por qué los enunciados matemáticos "verdaderos" (por ejemplo, las leyes de la aritmética ) parecen ser verdaderos, etcétera. Hermann Weyl le planteó estas mismas preguntas a Hilbert:
¿Qué "verdad" u objetividad puede atribuirse a esta construcción teórica del mundo, que va mucho más allá de lo dado? Es un profundo problema filosófico. Está estrechamente relacionado con la pregunta ulterior: ¿qué nos impulsa a tomar como base precisamente el sistema de axiomas desarrollado por Hilbert? La coherencia es, en efecto, una condición necesaria, pero no suficiente. Por el momento, probablemente no podamos responder a esta pregunta... [12]
En algunos casos, estas preguntas pueden responderse suficientemente mediante el estudio de teorías formales, en disciplinas como las matemáticas inversas y la teoría de la complejidad computacional . Como señaló Weyl, los sistemas lógicos formales también corren el riesgo de la inconsistencia ; en la aritmética de Peano , esto posiblemente ya se haya resuelto con varias pruebas de consistencia , pero existe un debate sobre si son o no lo suficientemente finitas como para ser significativas. El segundo teorema de incompletitud de Gödel establece que los sistemas lógicos de la aritmética nunca pueden contener una prueba válida de su propia consistencia . Lo que Hilbert quería hacer era demostrar que un sistema lógico S era consistente, basado en principios P que solo constituían una pequeña parte de S. Pero Gödel demostró que los principios P ni siquiera podían demostrar que P fuera consistente, y mucho menos S.
Los intuicionistas, como LEJ Brouwer (1882-1966), sostienen que las matemáticas son una creación de la mente humana. Los números, como los personajes de los cuentos de hadas, son meras entidades mentales que no existirían si nunca hubiera habido mentes humanas que pensaran en ellas.
La filosofía fundacional del intuicionismo o constructivismo , ejemplificada en extremo por Brouwer y Stephen Kleene , exige que las pruebas sean de naturaleza "constructiva": la existencia de un objeto debe demostrarse en lugar de inferirse a partir de una demostración de la imposibilidad de su no existencia. Por ejemplo, como consecuencia de esto, la forma de prueba conocida como reductio ad absurdum es sospechosa.
Algunas teorías modernas en la filosofía de las matemáticas niegan la existencia de fundamentos en el sentido original. Algunas teorías tienden a centrarse en la práctica matemática y pretenden describir y analizar el trabajo real de los matemáticos como grupo social . Otras intentan crear una ciencia cognitiva de las matemáticas , centrándose en la cognición humana como el origen de la fiabilidad de las matemáticas cuando se aplican al mundo real. Estas teorías propondrían encontrar fundamentos solo en el pensamiento humano, no en ningún constructo objetivo externo. El asunto sigue siendo controvertido.
El logicismo es una escuela de pensamiento y un programa de investigación en el campo de la filosofía de las matemáticas, basado en la tesis de que las matemáticas son una extensión de la lógica o que algunas o todas las matemáticas pueden derivarse de un sistema formal adecuado cuyos axiomas y reglas de inferencia son de naturaleza "lógica". Bertrand Russell y Alfred North Whitehead defendieron esta teoría iniciada por Gottlob Frege e influida por Richard Dedekind .
Muchos investigadores en teoría de conjuntos axiomáticos han suscrito lo que se conoce como platonismo de teoría de conjuntos , ejemplificado por Kurt Gödel .
Varios teóricos de conjuntos siguieron este enfoque y buscaron activamente axiomas que pudieran considerarse verdaderos por razones heurísticas y que decidirían la hipótesis del continuo . Se estudiaron muchos axiomas cardinales grandes , pero la hipótesis siempre permaneció independiente de ellos y ahora se considera improbable que CH pueda resolverse mediante un nuevo axioma cardinal grande. Se consideraron otros tipos de axiomas, pero ninguno de ellos ha alcanzado aún un consenso sobre la hipótesis del continuo. El trabajo reciente de Hamkins propone una alternativa más flexible: un multiverso de teoría de conjuntos que permita el paso libre entre universos de teoría de conjuntos que satisfacen la hipótesis del continuo y otros universos que no.
Este argumento de Willard Quine y Hilary Putnam dice (en las palabras más breves de Putnam):
...la cuantificación sobre entidades matemáticas es indispensable para la ciencia... por lo tanto debemos aceptar dicha cuantificación; pero esto nos compromete a aceptar la existencia de las entidades matemáticas en cuestión.
Sin embargo, Putnam no era platónico.
Son pocos los matemáticos que, en su trabajo diario, se preocupan por el logicismo, el formalismo o cualquier otra postura filosófica. Su principal preocupación es que la actividad matemática en su conjunto siga siendo siempre productiva. Por lo general, consideran que esto se consigue manteniendo una mentalidad abierta, práctica y ocupada, pero que puede verse amenazado por volverse excesivamente ideológicos, fanáticamente reduccionistas o perezosos.
Algunos físicos conocidos también han expresado esta opinión.
Por ejemplo, el Premio Nobel de Física Richard Feynman dijo:
La gente me dice: "¿Estás buscando las leyes fundamentales de la física?" No, no las estoy buscando... Si resulta que hay una ley fundamental simple que lo explica todo, que así sea, sería muy bueno descubrirlo. Si resulta que es como una cebolla con millones de capas... entonces así es. Pero en cualquier caso, existe la Naturaleza y ella va a resultar tal como es. Por lo tanto, cuando vayamos a investigar, no deberíamos decidir de antemano qué es lo que estamos buscando sólo para descubrir más sobre ello. [13]
Y Steven Weinberg : [14]
Las ideas de los filósofos han beneficiado ocasionalmente a los físicos, pero generalmente de manera negativa, al protegerlos de las preconcepciones de otros filósofos. ... sin cierta guía de nuestras preconcepciones, no podríamos hacer nada en absoluto. Lo que ocurre es que los principios filosóficos, en general, no nos han proporcionado las preconcepciones correctas.
Weinberg creía que cualquier indecidibilidad en matemáticas, como la hipótesis del continuo, podría resolverse potencialmente a pesar del teorema de incompletitud, encontrando axiomas adicionales adecuados para agregar a la teoría de conjuntos.
El teorema de completitud de Gödel establece una equivalencia en lógica de primer orden entre la demostrabilidad formal de una fórmula y su verdad en todos los modelos posibles. Precisamente, para cualquier teoría consistente de primer orden da una "construcción explícita" de un modelo descrito por la teoría; este modelo será numerable si el lenguaje de la teoría es numerable. Sin embargo, esta "construcción explícita" no es algorítmica. Se basa en un proceso iterativo de completitud de la teoría, donde cada paso de la iteración consiste en añadir una fórmula a los axiomas si mantiene la teoría consistente; pero esta cuestión de consistencia es sólo semidecidible (existe un algoritmo para encontrar cualquier contradicción pero si no hay ninguna este hecho de consistencia puede permanecer indemostrable).
A continuación se enumeran algunos resultados notables en metamatemáticas. La teoría de conjuntos de Zermelo-Fraenkel es la axiomatización de la teoría de conjuntos más estudiada. Se abrevia ZFC cuando incluye el axioma de elección y ZF cuando se excluye el axioma de elección.
A partir de 1935, el grupo de matemáticos franceses Bourbaki comenzó a publicar una serie de libros para formalizar muchas áreas de las matemáticas sobre la nueva base de la teoría de conjuntos.
La escuela intuicionista no atrajo a muchos adeptos, y no fue hasta el trabajo de Bishop en 1967 que las matemáticas constructivas alcanzaron una base más sólida. [16]
Se puede considerar que el programa de Hilbert se ha completado parcialmente , de modo que la crisis está esencialmente resuelta, conformándonos con exigencias menores que las ambiciones originales de Hilbert. Sus ambiciones se expresaron en una época en la que nada estaba claro: no estaba claro si las matemáticas podían tener una base rigurosa.
Existen muchas variantes posibles de la teoría de conjuntos que difieren en su grado de consistencia, donde las versiones más fuertes (que postulan tipos superiores de infinitos) contienen pruebas formales de la consistencia de las versiones más débiles, pero ninguna contiene una prueba formal de su propia consistencia. Por lo tanto, lo único que no tenemos es una prueba formal de la consistencia de cualquier versión de la teoría de conjuntos que prefiramos, como por ejemplo ZF.
En la práctica, la mayoría de los matemáticos no trabajan a partir de sistemas axiomáticos o, si lo hacen, no dudan de la consistencia de ZFC , generalmente su sistema axiomático preferido. En la mayor parte de las matemáticas tal como se practican, la incompletitud y las paradojas de las teorías formales subyacentes nunca jugaron un papel de todos modos, y en aquellas ramas en las que sí lo hacen o cuyos intentos de formalización correrían el riesgo de formar teorías inconsistentes (como la lógica y la teoría de categorías), pueden tratarse con cuidado.
El desarrollo de la teoría de categorías a mediados del siglo XX mostró la utilidad de las teorías de conjuntos que garantizan la existencia de clases más grandes que las que permite ZFC, como la teoría de conjuntos de Von Neumann–Bernays–Gödel o la teoría de conjuntos de Tarski–Grothendieck , aunque en muchos casos el uso de grandes axiomas cardinales o universos de Grothendieck es formalmente eliminable.
Uno de los objetivos del programa de matemáticas inversas es identificar si hay áreas de "matemáticas fundamentales" en las que cuestiones fundamentales puedan volver a provocar una crisis.