En lógica y teoría de la prueba , la deducción natural es un tipo de cálculo de prueba en el que el razonamiento lógico se expresa mediante reglas de inferencia estrechamente relacionadas con la forma "natural" de razonamiento. [1] Esto contrasta con los sistemas de estilo Hilbert , que en cambio utilizan axiomas tanto como sea posible para expresar las leyes lógicas del razonamiento deductivo .
La deducción natural surgió de un contexto de insatisfacción con las axiomatizaciones del razonamiento deductivo comunes a los sistemas de Hilbert , Frege y Russell (véase, por ejemplo, el sistema de Hilbert ). Dichas axiomatizaciones fueron las más famosas utilizadas por Russell y Whitehead en su tratado matemático Principia Mathematica . Inspirado por una serie de seminarios en Polonia en 1926 por Łukasiewicz que abogaban por un tratamiento más natural de la lógica, Jaśkowski hizo los primeros intentos de definir una deducción más natural, primero en 1929 utilizando una notación diagramática, y luego actualizando su propuesta en una secuencia de artículos en 1934 y 1935. [2] Sus propuestas llevaron a diferentes notaciones como el cálculo al estilo de Fitch (o diagramas de Fitch) o el método de Suppes para el cual Lemmon dio una variante ahora conocida como notación de Suppes-Lemmon .
La deducción natural en su forma moderna fue propuesta independientemente por el matemático alemán Gerhard Gentzen en 1933, en una disertación presentada en la facultad de ciencias matemáticas de la Universidad de Göttingen . [3] El término deducción natural (o más bien, su equivalente alemán natürliches Schließen ) fue acuñado en ese artículo:
Gentzen estaba motivado por el deseo de establecer la consistencia de la teoría de números . No pudo probar el resultado principal requerido para el resultado de consistencia, el teorema de eliminación de cortes —el Hauptsatz— directamente para la deducción natural. Por esta razón introdujo su sistema alternativo, el cálculo secuente , para el cual demostró el Hauptsatz tanto para la lógica clásica como para la intuicionista . En una serie de seminarios en 1961 y 1962, Prawitz dio un resumen completo de los cálculos de deducción natural y trasladó gran parte del trabajo de Gentzen con los cálculos secuentes al marco de la deducción natural. Su monografía de 1965 Deducción natural: un estudio teórico de la prueba [5] se convertiría en una obra de referencia sobre la deducción natural e incluía aplicaciones para la lógica modal y de segundo orden .
En la deducción natural, una proposición se deduce de una colección de premisas aplicando reglas de inferencia de forma repetida. El sistema presentado en este artículo es una variación menor de la formulación de Gentzen o Prawitz, pero con una mayor adherencia a la descripción de Martin-Löf de los juicios lógicos y los conectivos. [6]
La deducción natural ha tenido una gran variedad de estilos de notación, [7] lo que puede dificultar el reconocimiento de una demostración si no se está familiarizado con alguno de ellos. Para ayudar con esta situación, este artículo tiene una sección de Notación que explica cómo leer toda la notación que realmente utilizará. Esta sección simplemente explica la evolución histórica de los estilos de notación, la mayoría de los cuales no se pueden mostrar porque no hay ilustraciones disponibles bajo una licencia de derechos de autor pública ; se remite al lector a la SEP y la IEP para obtener imágenes.
A continuación se muestra una tabla con las variantes de notación más comunes para los conectivos lógicos .
Gentzen , que inventó la deducción natural, tenía su propio estilo de notación para los argumentos. Esto se ejemplificará con un argumento simple a continuación. Digamos que tenemos un argumento de ejemplo simple en lógica proposicional , como, por ejemplo, "si está lloviendo, entonces está nublado; está lloviendo; por lo tanto, está nublado". (Esto es en modus ponens ). Representando esto como una lista de proposiciones, como es común, tendríamos:
En la notación de Gentzen, [7] esto se escribiría así:
Las premisas se muestran sobre una línea, llamada línea de inferencia , [11] [12] separadas por una coma , que indica combinación de premisas. [13] La conclusión se escribe debajo de la línea de inferencia. [11] La línea de inferencia representa la consecuencia sintáctica , [11] a veces llamada consecuencia deductiva , [14] que también se simboliza con ⊢. [15] [14] Por lo tanto, lo anterior también se puede escribir en una línea como . (El torniquete, para la consecuencia sintáctica, tiene menor precedencia que la coma, que representa la combinación de premisas, que a su vez tiene menor precedencia que la flecha, utilizada para la implicación material; por lo que no se necesitan paréntesis para interpretar esta fórmula). [13]
La consecuencia sintáctica contrasta con la consecuencia semántica , [16] que se simboliza con ⊧. [15] [14] En este caso, la conclusión se sigue sintácticamente porque la deducción natural es un sistema de prueba sintáctica , que asume las reglas de inferencia como primitivas .
En gran parte de este artículo se utilizará el estilo de Gentzen. Las anotaciones de descarga de Gentzen utilizadas para internalizar juicios hipotéticos se pueden evitar representando las pruebas como un árbol de secuencias Γ ⊢A en lugar de un árbol de juicios de que A (es verdadero).
Muchos libros de texto utilizan la notación de Suppes-Lemmon , [7] por lo que este artículo también la dará, aunque por ahora, esto solo se incluye para la lógica proposicional , y el resto de la cobertura se da solo en estilo Gentzen. Una prueba , presentada de acuerdo con el estilo de notación de Suppes-Lemmon , es una secuencia de líneas que contienen oraciones, [17] donde cada oración es una suposición o el resultado de aplicar una regla de prueba a oraciones anteriores en la secuencia. [17] Cada línea de prueba se compone de una oración de prueba , junto con su anotación , su conjunto de suposiciones y el número de línea actual . [17] El conjunto de suposiciones enumera las suposiciones de las que depende la oración de prueba dada, a las que se hace referencia mediante los números de línea. [17] La anotación especifica qué regla de prueba se aplicó y a qué líneas anteriores para producir la oración actual. [17] Aquí hay un ejemplo de prueba:
Esta prueba será más clara cuando se especifiquen las reglas de inferencia y sus anotaciones apropiadas (véase § Reglas de inferencia proposicional (estilo Suppes-Lemmon).
Esta sección define la sintaxis formal de un lenguaje de lógica proposicional , contrastando las formas comunes de hacerlo con una forma de hacerlo al estilo Gentzen.
El lenguaje formal de un cálculo proposicional suele definirse mediante una definición recursiva , como ésta, de Bostock : [18]
Hay otras formas de hacerlo, como la gramática BNF . [19] [20]
También se puede dar una definición de sintaxis utilizando la notación de árbol de Gentzen, escribiendo fórmulas bien formadas debajo de la línea de inferencia y cualquier variable esquemática utilizada por esas fórmulas encima de ella. [20] Por ejemplo, el equivalente de las reglas 3 y 4, de la definición de Bostock anterior, se escribe de la siguiente manera:
Una convención de notación diferente considera la sintaxis del lenguaje como una gramática categorial con una única categoría "fórmula", denotada por el símbolo . Por lo tanto, todos los elementos de la sintaxis se introducen mediante categorizaciones, para las cuales la notación es , que significa " es una expresión para un objeto en la categoría ." [21] Las letras de la oración, entonces, se introducen mediante categorizaciones como , , , y así sucesivamente; [21] los conectores, a su vez, se definen mediante enunciados similares a los anteriores, pero utilizando la notación de categorización, como se ve a continuación:
En el resto de este artículo, se utilizará la notación de categorización para cualquier declaración en notación Gentzen que defina la gramática del lenguaje; cualquier otra declaración en notación Gentzen será una inferencia, que afirmará que se sigue un consecuente en lugar de que una expresión es una fórmula bien formada.
La siguiente es una lista completa de reglas de inferencia primitivas para la deducción natural en la lógica proposicional clásica: [20]
Esta tabla sigue la costumbre de utilizar letras griegas como esquemas , que pueden abarcar cualquier fórmula, en lugar de solo proposiciones atómicas. El nombre de una regla se da a la derecha de su árbol de fórmulas. Por ejemplo, la primera regla de introducción se llama , que es la abreviatura de "introducción de conjunción".
Como ejemplo del uso de reglas de inferencia, considere la conmutatividad de la conjunción. Si A ∧ B , entonces B ∧ A ; esta derivación se puede obtener componiendo reglas de inferencia de tal manera que las premisas de una inferencia inferior coincidan con la conclusión de la siguiente inferencia superior.
Como segundo ejemplo, considere la derivación de " A ⊃ (B ⊃ (A ∧ B)) ":
Esta derivación completa no tiene premisas insatisfechas; sin embargo, las subderivaciones son hipotéticas. Por ejemplo, la derivación de " B ⊃ (A ∧ B) " es hipotética con antecedente " A " (llamado u ).
Las reglas de inferencia de deducción natural, debidas en última instancia a Gentzen , se dan a continuación. [22] Hay diez reglas primitivas de prueba, que son la regla de suposición , más cuatro pares de reglas de introducción y eliminación para los conectivos binarios, y la regla reductio ad adbsurdum . [17] El silogismo disyuntivo se puede utilizar como una alternativa más fácil a la ∨-eliminación adecuada, [17] y MTT y DN son reglas dadas comúnmente, [22] aunque no son primitivas. [17]
Recordemos que ya se dio un ejemplo de demostración al introducir la notación § Suppes-Lemmon. Este es un segundo ejemplo.
Se dice que una teoría es consistente si su falsedad no es demostrable (a partir de ninguna suposición) y es completa si cada teorema o su negación es demostrable utilizando las reglas de inferencia de la lógica. Estas son afirmaciones sobre la lógica en su totalidad y suelen estar vinculadas a alguna noción de modelo . Sin embargo, existen nociones locales de consistencia y completitud que son comprobaciones puramente sintácticas de las reglas de inferencia y no requieren apelaciones a modelos. La primera de ellas es la consistencia local, también conocida como reducibilidad local, que dice que cualquier derivación que contenga una introducción de un conectivo seguida inmediatamente por su eliminación puede convertirse en una derivación equivalente sin este rodeo. Es una comprobación de la fuerza de las reglas de eliminación: no deben ser tan fuertes como para incluir conocimiento que no esté ya contenido en sus premisas. Como ejemplo, considere las conjunciones.
En el caso dual, la completitud local dice que las reglas de eliminación son lo suficientemente fuertes como para descomponer un conectivo en las formas adecuadas para su regla de introducción. Nuevamente para las conjunciones:
Estas nociones corresponden exactamente a la β-reducción (reducción beta) y a la η-conversión (conversión eta) en el cálculo lambda , utilizando el isomorfismo de Curry-Howard . Por completitud local, vemos que cada derivación puede convertirse en una derivación equivalente donde se introduce el conectivo principal. De hecho, si la derivación entera obedece a este orden de eliminaciones seguidas de introducciones, entonces se dice que es normal . En una derivación normal todas las eliminaciones ocurren por encima de las introducciones. En la mayoría de las lógicas, cada derivación tiene una derivación normal equivalente, llamada forma normal . La existencia de formas normales es generalmente difícil de probar utilizando solo la deducción natural, aunque tales explicaciones existen en la literatura, más notablemente por Dag Prawitz en 1961. [24] Es mucho más fácil mostrar esto indirectamente por medio de una presentación de cálculo secuente sin cortes .
La lógica de la sección anterior es un ejemplo de lógica de ordenación única , es decir , una lógica con un único tipo de objeto: proposiciones. Se han propuesto muchas extensiones de este marco simple; en esta sección lo ampliaremos con un segundo tipo de individuos o términos . Más precisamente, añadiremos una nueva categoría, "término", denotada . Fijaremos un conjunto numerable de variables , otro conjunto numerable de símbolos de función y construiremos términos con las siguientes reglas de formación:
y
Para las proposiciones, consideramos un tercer conjunto contable P de predicados , y definimos predicados atómicos sobre términos con la siguiente regla de formación:
Las dos primeras reglas de formación proporcionan una definición de un término que es efectivamente la misma que la definida en el álgebra de términos y la teoría de modelos , aunque el enfoque de esos campos de estudio es bastante diferente de la deducción natural. La tercera regla de formación define efectivamente una fórmula atómica , como en la lógica de primer orden , y nuevamente en la teoría de modelos.
A estas se añaden un par de reglas de formación que definen la notación para proposiciones cuantificadas ; una para cuantificación universal (∀) y existencial (∃):
El cuantificador universal tiene las reglas de introducción y eliminación:
El cuantificador existencial tiene las reglas de introducción y eliminación:
En estas reglas, la notación [ t / x ] A representa la sustitución de t por cada instancia (visible) de x en A , evitando la captura. [c] Como antes, los superíndices en el nombre representan los componentes que se descargan: el término a no puede ocurrir en la conclusión de ∀I (tales términos se conocen como variables propias o parámetros ), y las hipótesis nombradas u y v en ∃E se localizan en la segunda premisa en una derivación hipotética. Aunque la lógica proposicional de las secciones anteriores era decidible , agregar los cuantificadores hace que la lógica sea indecidible.
Hasta ahora, las extensiones cuantificadas son de primer orden : distinguen las proposiciones de los tipos de objetos sobre los que se cuantifican. La lógica de orden superior adopta un enfoque diferente y sólo tiene un único tipo de proposiciones. Los cuantificadores tienen como dominio de cuantificación el mismo tipo de proposiciones, como se refleja en las reglas de formación:
El análisis de las formas de introducción y eliminación de la lógica de orden superior queda fuera del alcance de este artículo. Es posible estar en un punto intermedio entre la lógica de primer orden y la lógica de orden superior. Por ejemplo, la lógica de segundo orden tiene dos tipos de proposiciones: una que cuantifica sobre términos y la otra que cuantifica sobre proposiciones de la primera.
Hasta ahora, la presentación de la deducción natural se ha centrado en la naturaleza de las proposiciones sin dar una definición formal de una prueba . Para formalizar la noción de prueba, modificamos ligeramente la presentación de las derivaciones hipotéticas. Etiquetamos los antecedentes con variables de prueba (de algún conjunto contable V de variables) y decoramos el sucedente con la prueba real. Los antecedentes o hipótesis se separan del sucedente por medio de un torniquete (⊢). Esta modificación a veces se conoce con el nombre de hipótesis localizadas . El siguiente diagrama resume el cambio.
El conjunto de hipótesis se escribirá como Γ cuando su composición exacta no sea relevante. Para hacer explícitas las pruebas, pasamos del juicio sin pruebas " A " a un juicio: "π es una prueba de (A) ", que se escribe simbólicamente como "π : A ". Siguiendo el enfoque estándar, las pruebas se especifican con sus propias reglas de formación para el juicio "π prueba ". La prueba más simple posible es el uso de una hipótesis etiquetada; en este caso, la evidencia es la etiqueta misma.
Reexaminemos algunos de los conectivos con pruebas explícitas. Para la conjunción, observamos la regla de introducción ∧I para descubrir la forma de las pruebas de conjunción: deben ser un par de pruebas de los dos conjuntivos. Así:
Las reglas de eliminación ∧E 1 y ∧E 2 seleccionan el conjunto izquierdo o el derecho; por lo tanto, las pruebas son un par de proyecciones: primera ( fst ) y segunda ( snd ).
Para la implicación, la forma introductoria localiza o vincula la hipótesis, escrita con λ; esto corresponde a la etiqueta descargada. En la regla, "Γ, u : A " representa el conjunto de hipótesis Γ, junto con la hipótesis adicional u .
Si se dispone de pruebas explícitamente, se pueden manipular y razonar sobre ellas. La operación clave en las pruebas es la sustitución de una prueba por un supuesto utilizado en otra prueba. Esto se conoce comúnmente como teorema de sustitución y se puede demostrar por inducción sobre la profundidad (o estructura) del segundo juicio.
Hasta ahora, el juicio "Γ ⊢ π : A " ha tenido una interpretación puramente lógica. En la teoría de tipos , la visión lógica se cambia por una visión más computacional de los objetos. Las proposiciones en la interpretación lógica ahora se ven como tipos , y las demostraciones como programas en el cálculo lambda . Así, la interpretación de "π : A " es " el programa π tiene tipo A ". Los conectivos lógicos también reciben una lectura diferente: la conjunción se ve como producto (×), la implicación como la función flecha (→), etc. Sin embargo, las diferencias son solo cosméticas. La teoría de tipos tiene una presentación de deducción natural en términos de reglas de formación, introducción y eliminación; de hecho, el lector puede reconstruir fácilmente lo que se conoce como teoría de tipos simple a partir de las secciones anteriores.
La diferencia entre la lógica y la teoría de tipos es principalmente un cambio de enfoque de los tipos (proposiciones) a los programas (pruebas). La teoría de tipos está principalmente interesada en la convertibilidad o reducibilidad de los programas. Para cada tipo, hay programas canónicos de ese tipo que son irreducibles; estos se conocen como formas o valores canónicos . Si cada programa se puede reducir a una forma canónica, entonces se dice que la teoría de tipos es normalizadora (o débilmente normalizadora ). Si la forma canónica es única, entonces se dice que la teoría es fuertemente normalizadora . La normalizabilidad es una característica rara de la mayoría de las teorías de tipos no triviales, lo que es una gran desviación del mundo lógico. (Recuerde que casi cada derivación lógica tiene una derivación normal equivalente). Para esbozar la razón: en las teorías de tipos que admiten definiciones recursivas, es posible escribir programas que nunca se reducen a un valor; a tales programas de bucle generalmente se les puede dar cualquier tipo. En particular, el programa de bucle tiene tipo ⊥, aunque no hay una prueba lógica de "⊥". Por esta razón, las proposiciones como tipos; El paradigma de las pruebas como programas sólo funciona en una dirección, si es que funciona: interpretar una teoría de tipos como una lógica generalmente da como resultado una lógica inconsistente.
Al igual que la lógica, la teoría de tipos tiene muchas extensiones y variantes, incluidas versiones de primer orden y de orden superior. Una rama, conocida como teoría de tipos dependientes , se utiliza en varios sistemas de demostración asistidos por ordenador . La teoría de tipos dependientes permite que los cuantificadores se extiendan a los propios programas. Estos tipos cuantificados se escriben como Π y Σ en lugar de ∀ y ∃, y tienen las siguientes reglas de formación:
Estos tipos son generalizaciones de los tipos flecha y producto, respectivamente, como lo atestiguan sus reglas de introducción y eliminación.
La teoría de tipos dependientes en su máxima generalidad es muy poderosa: es capaz de expresar casi cualquier propiedad concebible de los programas directamente en los tipos del programa. Esta generalidad tiene un alto precio: o bien la comprobación de tipos es indecidible ( teoría de tipos extensional ), o bien el razonamiento extensional es más difícil ( teoría de tipos intensional ). Por esta razón, algunas teorías de tipos dependientes no permiten la cuantificación sobre programas arbitrarios, sino que se limitan a programas de un dominio de índice decidible dado , por ejemplo, números enteros, cadenas o programas lineales.
Dado que las teorías de tipos dependientes permiten que los tipos dependan de los programas, una pregunta natural que se plantea es si es posible que los programas dependan de los tipos, o de cualquier otra combinación. Hay muchos tipos de respuestas a estas preguntas. Un enfoque popular en la teoría de tipos es permitir que los programas se cuantifiquen sobre los tipos, también conocido como polimorfismo paramétrico ; de esto hay dos tipos principales: si los tipos y los programas se mantienen separados, entonces se obtiene un sistema algo más comportado llamado polimorfismo predicativo ; si la distinción entre programa y tipo se difumina, se obtiene el análogo teórico de tipos de la lógica de orden superior, también conocido como polimorfismo impredicativo . En la literatura se han considerado varias combinaciones de dependencia y polimorfismo, siendo la más famosa el cubo lambda de Henk Barendregt .
La intersección de la lógica y la teoría de tipos es un área de investigación amplia y activa. Las nuevas lógicas suelen formalizarse en un contexto teórico de tipos general, conocido como marco lógico . Los marcos lógicos modernos populares, como el cálculo de construcciones y el LF, se basan en la teoría de tipos dependientes de orden superior, con diversas compensaciones en términos de decidibilidad y poder expresivo. Estos marcos lógicos siempre se especifican como sistemas de deducción natural, lo que da testimonio de la versatilidad del enfoque de la deducción natural.
Para simplificar, las lógicas presentadas hasta ahora han sido intuicionistas . La lógica clásica extiende la lógica intuicionista con un axioma adicional o principio de tercero excluido :
Esta afirmación no es, obviamente, ni una introducción ni una eliminación; de hecho, implica dos conectivos distintos. El tratamiento original de Gentzen del tercero excluido prescribía una de las siguientes tres formulaciones (equivalentes), que ya estaban presentes en formas análogas en los sistemas de Hilbert y Heyting :
(XM 3 es simplemente XM 2 expresado en términos de E.) Este tratamiento del medio excluido, además de ser objetable desde el punto de vista de un purista, introduce complicaciones adicionales en la definición de las formas normales.
Un tratamiento comparativamente más satisfactorio de la deducción natural clásica en términos de reglas de introducción y eliminación solamente fue propuesto por Parigot en 1992 en la forma de un cálculo lambda clásico llamado λμ . La idea clave de su enfoque fue reemplazar un juicio centrado en la verdad A con una noción más clásica, reminiscente del cálculo secuente : en forma localizada, en lugar de Γ ⊢ A , utilizó Γ ⊢ Δ, con Δ una colección de proposiciones similares a Γ. Γ fue tratado como una conjunción, y Δ como una disyunción. Esta estructura se toma esencialmente directamente de los cálculos secuentes clásicos , pero la innovación en λμ fue dar un significado computacional a las pruebas de deducción natural clásica en términos de un callcc o un mecanismo de lanzamiento/captura visto en LISP y sus descendientes. (Véase también: control de primera clase .)
Otra extensión importante fue para las lógicas modales y otras lógicas que necesitan más que el juicio básico de verdad. Estas fueron descritas por primera vez, para las lógicas modales aléticas S4 y S5 , en un estilo de deducción natural por Prawitz en 1965, [5] y desde entonces han acumulado una gran cantidad de trabajo relacionado. Para dar un ejemplo simple, la lógica modal S4 requiere un nuevo juicio, " A válido ", que es categórico con respecto a la verdad:
Este juicio categórico se internaliza como un conectivo unario ◻ A (léase " necesariamente A ") con las siguientes reglas de introducción y eliminación:
Obsérvese que la premisa " A válida " no tiene reglas definitorias; en su lugar, se utiliza la definición categórica de validez. Este modo se vuelve más claro en la forma localizada cuando las hipótesis son explícitas. Escribimos "Ω;Γ ⊢ A " donde Γ contiene las hipótesis verdaderas como antes, y Ω contiene las hipótesis válidas. A la derecha hay un solo juicio " A "; la validez no es necesaria aquí ya que "Ω ⊢ A válida " es por definición lo mismo que "Ω;⋅ ⊢ A ". Las formas de introducción y eliminación son entonces:
Las hipótesis modales tienen su propia versión de la regla de hipótesis y del teorema de sustitución.
Este marco de separación de juicios en conjuntos distintos de hipótesis, también conocidos como contextos multizonales o poliádicos , es muy potente y extensible; se ha aplicado a muchas lógicas modales diferentes, y también a lógicas lineales y otras lógicas subestructurales , por dar algunos ejemplos. Sin embargo, relativamente pocos sistemas de lógica modal pueden formalizarse directamente en la deducción natural. Para dar caracterizaciones teóricas de prueba de estos sistemas, se utilizan extensiones como el etiquetado o los sistemas de inferencia profunda.
La adición de etiquetas a las fórmulas permite un control mucho más preciso de las condiciones bajo las cuales se aplican las reglas, lo que permite aplicar las técnicas más flexibles de los cuadros analíticos , como se ha hecho en el caso de la deducción etiquetada. Las etiquetas también permiten nombrar mundos en la semántica de Kripke; Simpson (1993) presenta una técnica influyente para convertir las condiciones marco de las lógicas modales en la semántica de Kripke en reglas de inferencia en una formalización de deducción natural de la lógica híbrida . Stouppa (2004) examina la aplicación de muchas teorías de prueba, como las hipersecuentes de Avron y Pottinger y la lógica de visualización de Belnap a lógicas modales como S5 y B.
El cálculo secuencial es la principal alternativa a la deducción natural como fundamento de la lógica matemática . En la deducción natural, el flujo de información es bidireccional: las reglas de eliminación hacen fluir la información hacia abajo por deconstrucción, y las reglas de introducción hacen fluir la información hacia arriba por ensamblaje. Por lo tanto, una prueba de deducción natural no tiene una lectura puramente de abajo hacia arriba o de arriba hacia abajo, lo que la hace inadecuada para la automatización en la búsqueda de pruebas. Para abordar este hecho, Gentzen propuso en 1935 su cálculo secuencial , aunque inicialmente lo concibió como un dispositivo técnico para aclarar la consistencia de la lógica de predicados . Kleene , en su influyente libro de 1952 Introducción a las metamatemáticas , dio la primera formulación del cálculo secuencial en el estilo moderno. [25]
En el cálculo consecuente, todas las reglas de inferencia tienen una lectura puramente ascendente. Las reglas de inferencia pueden aplicarse a elementos de ambos lados del torniquete . (Para diferenciarlas de la deducción natural, este artículo utiliza una doble flecha ⇒ en lugar de la flecha derecha ⊢ para los consecuentes). Las reglas de introducción de la deducción natural se consideran reglas derechas en el cálculo consecuente y son estructuralmente muy similares. Las reglas de eliminación, por otro lado, se convierten en reglas izquierdas en el cálculo consecuente. Para dar un ejemplo, considere la disyunción; las reglas derechas son familiares:
A la izquierda:
Recordemos la regla ∨E de deducción natural en forma localizada:
La proposición A ∨ B , que es la sucedente de una premisa en ∨E, se convierte en una hipótesis de la conclusión en la regla de la izquierda ∨L. Por lo tanto, las reglas de la izquierda pueden verse como una especie de regla de eliminación invertida. Esta observación puede ilustrarse de la siguiente manera:
En el cálculo secuencial, las reglas de izquierda y derecha se ejecutan al unísono hasta llegar al secuencial inicial , que corresponde al punto de encuentro de las reglas de eliminación e introducción en la deducción natural. Estas reglas iniciales son superficialmente similares a la regla de hipótesis de la deducción natural, pero en el cálculo secuencial describen una transposición o un apretón de manos de una proposición izquierda y una derecha:
La correspondencia entre el cálculo secuencial y la deducción natural es un par de teoremas de solidez y completitud, ambos demostrables mediante un argumento inductivo.
Estos teoremas dejan claro que el cálculo secuencial no cambia la noción de verdad, porque la misma colección de proposiciones sigue siendo verdadera. Por lo tanto, se pueden utilizar los mismos objetos de prueba que antes en las derivaciones del cálculo secuencial. Como ejemplo, consideremos las conjunciones. La regla correcta es prácticamente idéntica a la regla de introducción.
La regla de la izquierda, sin embargo, realiza algunas sustituciones adicionales que no se realizan en las reglas de eliminación correspondientes.
Por lo tanto, los tipos de pruebas generadas en el cálculo secuencial son bastante diferentes de los de la deducción natural. El cálculo secuencial produce pruebas en lo que se conoce como la forma β-normal η-larga , que corresponde a una representación canónica de la forma normal de la prueba de deducción natural. Si uno intenta describir estas pruebas utilizando la propia deducción natural, se obtiene lo que se llama el cálculo de intercalación (descrito por primera vez por John Byrnes), que puede usarse para definir formalmente la noción de una forma normal para la deducción natural.
El teorema de sustitución de la deducción natural toma la forma de una regla estructural o teorema estructural conocido como corte en el cálculo secuencial.
En la mayoría de las lógicas bien comportadas, el corte es innecesario como regla de inferencia, aunque sigue siendo demostrable como un metateorema ; la superfluidad de la regla de corte suele presentarse como un proceso computacional, conocido como eliminación de corte . Esto tiene una aplicación interesante para la deducción natural; por lo general, es extremadamente tedioso demostrar ciertas propiedades directamente en la deducción natural debido a un número ilimitado de casos. Por ejemplo, considere mostrar que una proposición dada no es demostrable en la deducción natural. Un argumento inductivo simple falla debido a reglas como ∨E o E que pueden introducir proposiciones arbitrarias. Sin embargo, sabemos que el cálculo consecuente es completo con respecto a la deducción natural, por lo que es suficiente mostrar esta imposibilidad de demostración en el cálculo consecuente. Ahora bien, si el corte no está disponible como regla de inferencia, entonces todas las reglas consecuentes introducen un conectivo a la derecha o a la izquierda, por lo que la profundidad de una derivación consecuente está completamente limitada por los conectivos en la conclusión final. Por lo tanto, demostrar la imposibilidad de demostrar algo es mucho más fácil, porque sólo hay un número finito de casos a considerar, y cada caso está compuesto enteramente de subproposiciones de la conclusión. Un ejemplo sencillo de esto es el teorema de consistencia global : "⋅ ⊢ ⊥" no es demostrable. En la versión del cálculo secuencial, esto es manifiestamente cierto porque no hay ninguna regla que pueda tener "⋅ ⇒ ⊥" como conclusión. Los teóricos de la demostración a menudo prefieren trabajar en formulaciones de cálculo secuencial sin cortes debido a estas propiedades.
La deducción natural visualizada como un juego de dominó