stringtranslate.com

Modelo deductivo-nomológico

El modelo nomológico deductivo ( modelo DN ) de explicación científica, también conocido como modelo de Hempel , modelo de Hempel-Oppenheim , modelo de Popper-Hempel o modelo de ley de cobertura , es una visión formal de la respuesta científica a preguntas que plantean "¿Por qué...?". El modelo DN plantea la explicación científica como una estructura deductiva , donde la verdad de sus premisas implica la verdad de su conclusión, dependiente de la predicción o postdicción precisa del fenómeno que se quiere explicar.

Debido a problemas relacionados con la capacidad de los humanos para definir, descubrir y conocer la causalidad , esto se omitió en las formulaciones iniciales del modelo DN. Se pensaba que la causalidad se aproximaba incidentalmente mediante la selección realista de premisas que derivan el fenómeno de interés a partir de las condiciones iniciales observadas más las leyes generales . Aun así, el modelo DN permitía formalmente factores causalmente irrelevantes. Además, la derivabilidad a partir de observaciones y leyes a veces arrojaba respuestas absurdas.

Cuando el empirismo lógico cayó en desgracia en la década de 1960, el modelo DN fue visto ampliamente como un modelo defectuoso o muy incompleto de explicación científica. No obstante, siguió siendo una versión idealizada de la explicación científica, y que era bastante precisa cuando se aplicaba a la física moderna . A principios de la década de 1980, una revisión del modelo DN enfatizó la máxima especificidad para la relevancia de las condiciones y axiomas establecidos. Junto con el modelo estadístico inductivo de Hempel , el modelo DN forma el modelo de ley de cobertura de la explicación científica , que también se denomina, desde un ángulo crítico, teoría de la subsunción .

Forma

El término deductivo distingue el determinismo pretendido por el modelo DN del probabilismo de las inferencias inductivas . [1] El término nomológico se deriva de la palabra griega νόμος o nomos , que significa "ley". [1] El modelo DN se adhiere a una visión de la explicación científica cuyas condiciones de adecuación (CA) —semiformal pero enunciada de manera clásica— son la derivabilidad (CA1), la semejanza a leyes (CA2), el contenido empírico (CA3) y la verdad (CA4). [2]

En el modelo DN, una ley axiomatiza una generalización sin restricciones del antecedente A al consecuente B mediante una proposición condicional —si A, entonces B— y tiene un contenido empírico comprobable. [3] Una ley se diferencia de la mera regularidad verdadera —por ejemplo, George siempre lleva sólo billetes de un dólar en su billetera— al apoyar afirmaciones contrafácticas y, por lo tanto, sugerir lo que debe ser verdad, [4] al tiempo que se sigue de la estructura axiomática de una teoría científica. [5]

El fenómeno a explicar es el explanandum —un acontecimiento, ley o teoría— mientras que las premisas para explicarlo son explanans , verdaderos o altamente confirmados, que contienen al menos una ley universal y que implican el explanandum. [6] [7] Así, dados los explanans como condiciones iniciales específicas C 1 , C 2 , ... C n más las leyes generales L 1 , L 2 , ... L n , el fenómeno E como explanandum es una consecuencia deductiva, por lo tanto científicamente explicada. [6]

Raíces

La explicación científica de Aristóteles en Física se asemeja al modelo DN, una forma idealizada de explicación científica. [7] El marco de la física aristotélica —la metafísica aristotélica— reflejaba la perspectiva de este biólogo principalmente, quien, en medio de la innegable intencionalidad de las entidades vivientes, formalizó el vitalismo y la teleología , una moralidad intrínseca en la naturaleza. [8] Sin embargo, con el surgimiento del copernicanismo , Descartes introdujo la filosofía mecánica , luego Newton planteó rigurosamente una explicación legal, tanto Descartes como especialmente Newton evitaron la teleología dentro de la filosofía natural . [9] En 1740, David Hume [10] planteó la bifurcación de Hume , [11] destacó el problema de la inducción , [12] y encontró que los humanos ignoraban tanto la causalidad necesaria como la suficiente. [13] [14] Hume también destacó la brecha hecho/valor , ya que lo que es no revela en sí mismo lo que debería . [15]

Cerca de 1780 , contrarrestando el empirismo ostensiblemente radical de Hume , Immanuel Kant destacó el racionalismo extremo —como el de Descartes o Spinoza— y buscó un punto medio. Al inferir que la mente organiza la experiencia del mundo en sustancia , espacio y tiempo , Kant colocó la mente como parte de la constelación causal de la experiencia y, por lo tanto, encontró que la teoría del movimiento de Newton era universalmente verdadera, [16] pero el conocimiento de las cosas en sí mismas era imposible. [14] Salvaguardando la ciencia , Kant paradójicamente la despojó del realismo científico . [14] [17] [18] Abortando la misión inductivista de Francis Bacon de disolver el velo de la apariencia para descubrir el noúmeno —visión metafísica de las verdades últimas de la naturaleza— el idealismo trascendental de Kant encargó a la ciencia simplemente modelar patrones de fenómenos . Salvaguardando también la metafísica, encontró las constantes del espíritu que contienen también verdades morales universales , [19] y lanzó el idealismo alemán .

Auguste Comte encontró que el problema de la inducción era bastante irrelevante ya que la inducción enumerativa se basa en el empirismo disponible, mientras que el punto de la ciencia no es la verdad metafísica. Comte encontró que el conocimiento humano había evolucionado de teológico a metafísico a científico -la etapa última- rechazando tanto la teología como la metafísica por plantear preguntas sin respuesta y plantear respuestas inverificables. Comte en la década de 1830 expuso el positivismo -la primera filosofía moderna de la ciencia y simultáneamente una filosofía política [20] - rechazando conjeturas sobre inobservables , rechazando así la búsqueda de causas . [21] El positivismo predice observaciones, confirma las predicciones y establece una ley , que luego se aplica para beneficiar a la sociedad humana. [22] Desde finales del siglo XIX hasta principios del siglo XX, la influencia del positivismo se extendió por todo el mundo. [20] Mientras tanto, la selección natural de la teoría evolutiva trajo la Revolución Copernicana a la biología y resultó en la primera alternativa conceptual al vitalismo y la teleología . [8]

Crecimiento

Mientras que el positivismo comtiano planteaba la ciencia como descripción , el positivismo lógico surgió a finales de la década de 1920 y planteó la ciencia como explicación , tal vez para unificar mejor las ciencias empíricas al abarcar no solo la ciencia fundamental —es decir, la física fundamental— sino también las ciencias especiales , como la biología, la psicología, la economía y la antropología . [23] Después de la derrota del nacionalsocialismo con el fin de la Segunda Guerra Mundial en 1945, el positivismo lógico cambió a una variante más suave, el empirismo lógico . [24] Todas las variantes del movimiento, que duraron hasta 1965, son neopositivismo, [25] compartiendo la búsqueda del verificacionismo . [26]

Los neopositivistas lideraron el surgimiento de la subdisciplina de la filosofía, la filosofía de la ciencia , que investiga tales cuestiones y aspectos de la teoría y el conocimiento científicos. [24] El realismo científico toma las afirmaciones de la teoría científica al pie de la letra , por lo que se le otorga falsedad o verdad, probable, aproximada o real. [17] Los neopositivistas sostuvieron el antirrealismo científico como instrumentalismo , sosteniendo que la teoría científica es simplemente un dispositivo para predecir las observaciones y su curso, mientras que las afirmaciones sobre los aspectos no observables de la naturaleza son elípticas o metafóricas de sus aspectos observables, más bien. [27]

El modelo DN recibió su declaración más detallada e influyente por Carl G Hempel , primero en su artículo de 1942 "La función de las leyes generales en la historia", y más explícitamente con Paul Oppenheim en su artículo de 1948 "Estudios en la lógica de la explicación". [28] [29] Empirista lógico líder, Hempel abrazó la visión empirista humeana de que los humanos observan la secuencia de eventos sensoriales, no causa y efecto, [23] ya que las relaciones causales y los mecanismos casuales son inobservables. [30] El modelo DN pasa por alto la causalidad más allá de la mera conjunción constante : primero un evento como A , luego siempre un evento como B. [23 ]

Hempel sostuvo que las leyes naturales —regularidades confirmadas empíricamente— eran satisfactorias y, si se incluían de manera realista, aproximaban la causalidad. [6] En artículos posteriores, Hempel defendió el modelo DN y propuso una explicación probabilística mediante el modelo estadístico inductivo (modelo IS). [6] El modelo DN y el modelo IS —según el cual la probabilidad debe ser alta, como al menos el 50% [31] — juntos forman el modelo de ley de cobertura , [6] como lo nombró un crítico, William Dray . [32] La derivación de leyes estadísticas a partir de otras leyes estadísticas va al modelo estadístico deductivo (modelo DS). [31] [33] Georg Henrik von Wright , otro crítico, nombró la teoría de la subsunción de la totalidad . [34]

Rechazar

En medio del fracaso de los postulados fundamentales del neopositivismo , [35] Hempel abandonó el verificacionismo en 1965, señalando la desaparición del neopositivismo. [36] A partir de 1930, Karl Popper atacó al positivismo, aunque, paradójicamente, Popper fue comúnmente confundido con un positivista. [37] [38] Incluso el libro de Popper de 1934 [39] adopta el modelo DN, [7] [28] ampliamente aceptado como el modelo de explicación científica mientras la física siguió siendo el modelo de ciencia examinado por los filósofos de la ciencia. [30] [40]

En la década de 1940, llenando el enorme vacío observacional entre la citología [41] y la bioquímica , [42] surgió la biología celular [43] y estableció la existencia de orgánulos celulares además del núcleo . Lanzado a fines de la década de 1930, el programa de investigación de biología molecular descifró un código genético a principios de la década de 1960 y luego convergió con la biología celular como biología celular y molecular , sus avances y descubrimientos desafiaron el modelo de DN al llegar en busca no de una explicación legal sino de mecanismos causales. [30] La biología se convirtió en un nuevo modelo de ciencia, mientras que las ciencias especiales ya no se consideraban defectuosas por carecer de leyes universales, como las que asumía la física. [40]

En 1948, al explicar el modelo DN y establecer las condiciones semiformales de adecuación de la explicación científica , Hempel y Oppenheim reconocieron la redundancia del tercer contenido empírico , implícito en los otros tres: derivabilidad , legalidad y verdad . [2] A principios de los años 1980, ante la visión generalizada de que la causalidad asegura la relevancia del explanans, Wesley Salmon pidió que se devolviera la causa a porque , [44] y junto con James Fetzer ayudaron a reemplazar el contenido empírico de CA3 con la especificidad máxima estricta de CA3 . [45]

Salmon introdujo la explicación mecánica causal , sin aclarar nunca cómo procede, pero reavivando el interés de los filósofos en ella. [30] A través de las deficiencias del modelo inductivo-estadístico de Hempel (modelo IS), Salmon introdujo el modelo de relevancia estadística (modelo SR). [7] Aunque el modelo DN siguió siendo una forma idealizada de explicación científica, especialmente en las ciencias aplicadas , [7] la mayoría de los filósofos de la ciencia consideran que el modelo DN es defectuoso al excluir muchos tipos de explicaciones generalmente aceptadas como científicas. [33]

Fortalezas

Como teoría del conocimiento, la epistemología se diferencia de la ontología , que es una subrama de la metafísica , la teoría de la realidad. [46] La ontología propone categorías del ser (qué tipos de cosas existen) y, por lo tanto, aunque el compromiso ontológico de una teoría científica puede modificarse a la luz de la experiencia, un compromiso ontológico precede inevitablemente a la investigación empírica. [46]

Las llamadas leyes naturales son enunciados de observaciones humanas, por lo tanto son epistemológicas (relativas al conocimiento humano) y epistémicas . Los mecanismos y estructuras causales que existen supuestamente independientemente de las mentes existen, o existirían, en la estructura misma del mundo natural, y por lo tanto son ontológicas y ónticas . Confundir lo epistémico con lo óntico (por ejemplo, al presumir imprudentemente que una ley natural se refiere a un mecanismo causal, o que traza estructuras de manera realista durante transiciones no observadas, o que son regularidades verdaderas que siempre son invariables) tiende a generar un error de categoría . [47] [48]

Descartando los compromisos ónticos, incluida la causalidad per se , el modelo DN permite que las leyes de una teoría se reduzcan a, es decir, se subsuman por, las leyes de una teoría más fundamental. Las leyes de la teoría superior se explican en el modelo DN por las leyes de la teoría inferior. [5] [6] Por lo tanto, el éxito epistémico de la ley de gravitación universal de la teoría newtoniana se reduce a, y por lo tanto se explica por, la teoría general de la relatividad de Albert Einstein , aunque Einstein descarta la afirmación óntica de Newton de que el éxito epistémico de la gravitación universal al predecir las leyes de Kepler del movimiento planetario [49] es a través de un mecanismo causal de una fuerza directamente atractiva que atraviesa instantáneamente el espacio absoluto a pesar del tiempo absoluto .

El modelo de ley de cobertura refleja la visión del neopositivismo de la ciencia empírica , una visión que interpreta o presume la unidad de la ciencia , por la cual todas las ciencias empíricas son ciencias fundamentales —es decir, física fundamental— o ciencias especiales , ya sea astrofísica , química, biología, geología , psicología, economía, etc. [40] [50] [51] Todas las ciencias especiales se conectarían en red mediante el modelo de ley de cobertura. [52] Y al enunciar condiciones de contorno mientras se proporcionan leyes puente , cualquier ley especial se reduciría a una ley especial inferior, reduciéndose en última instancia —teóricamente aunque generalmente no prácticamente— a la ciencia fundamental. [53] [54] ( Las condiciones de contorno son condiciones especificadas por las cuales ocurren los fenómenos de interés. Las leyes puente traducen términos de una ciencia a términos de otra ciencia). [53] [54]

Debilidades

Por el modelo DN, si uno pregunta, "¿Por qué esa sombra tiene 20 pies de largo?", otro puede responder, "Porque ese asta de bandera tiene 15 pies de alto, el Sol está en un ángulo x , y las leyes del electromagnetismo ". [6] Sin embargo, por el problema de la simetría, si en cambio uno preguntara, "¿Por qué ese asta de bandera tiene 15 pies de alto?", otro podría responder, "Porque esa sombra tiene 20 pies de largo, el Sol está en un ángulo x , y las leyes del electromagnetismo", igualmente una deducción de las condiciones observadas y las leyes científicas, pero una respuesta claramente incorrecta. [6] Por el problema de la irrelevancia, si uno pregunta, "¿Por qué ese hombre no quedó embarazado?", uno podría en parte responder, entre los explanans, "Porque tomó píldoras anticonceptivas" -si de hecho las tomó, y la ley de su prevención del embarazo- ya que el modelo de la ley de cobertura no plantea ninguna restricción para excluir esa observación del explanans.

Muchos filósofos han concluido que la causalidad es parte integral de la explicación científica. [55] El modelo DN ofrece una condición necesaria de una explicación causal (predicción exitosa), pero no condiciones suficientes de explicación causal, ya que una regularidad universal puede incluir relaciones espurias o correlaciones simples, por ejemplo, Z siempre sigue a Y , pero no Z debido a Y , sino Y y luego Z como un efecto de X. [55] Al relacionar la temperatura, la presión y el volumen de gas dentro de un recipiente, la ley de Boyle permite la predicción de una variable desconocida (volumen, presión o temperatura), pero no explica por qué esperar eso a menos que uno agregue, tal vez, la teoría cinética de los gases . [55] [56]

Las explicaciones científicas plantean cada vez más no las leyes universales del determinismo , sino las leyes del azar del probabilismo , [57] ceteris paribus . [40] La contribución del tabaquismo al cáncer de pulmón falla incluso en el modelo estadístico inductivo (modelo IS), que requiere una probabilidad superior a 0,5 (50%). [58] (La probabilidad varía de forma estándar entre 0 (0%) y 1 (100%).) La epidemiología , una ciencia aplicada que utiliza la estadística en busca de asociaciones entre eventos, no puede demostrar causalidad, pero encontró sistemáticamente una mayor incidencia de cáncer de pulmón en fumadores frente a no fumadores similares, aunque la proporción de fumadores que desarrollan cáncer de pulmón es modesta. [59] Sin embargo, frente a los no fumadores, los fumadores como grupo mostraron más de 20 veces el riesgo de cáncer de pulmón y, junto con la investigación básica , se llegó a un consenso de que el tabaquismo se había explicado científicamente como causa del cáncer de pulmón, [60] responsable de algunos casos que sin fumar no habrían ocurrido, [59] una causalidad contrafáctica probabilística . [61] [62]

Acción de cobertura

A través de una explicación basada en leyes, la física fundamental —a menudo percibida como ciencia fundamental— ha avanzado a través de la relación entre teorías y la reducción de teorías, resolviendo así paradojas experimentales con gran éxito histórico, [63] asemejándose al modelo de la ley de cobertura. [ 64] A principios del siglo XX, Ernst Mach y Wilhelm Ostwald se habían resistido a la reducción de la termodinámica de Ludwig Boltzmann —y por lo tanto a la ley de Boyle [65] —a la mecánica estadística en parte porque se basaba en la teoría cinética de los gases , [56] que dependía de la teoría atómica/molecular de la materia . [66] Mach y Ostwald veían la materia como una variante de la energía y las moléculas como ilusiones matemáticas, [66] como incluso Boltzmann creía posible. [67]

En 1905, a través de la mecánica estadística, Albert Einstein predijo el fenómeno del movimiento browniano , inexplicable desde que lo reportó en 1827 el botánico Robert Brown . [66] Pronto, la mayoría de los físicos aceptaron que los átomos y las moléculas eran inobservables pero reales. [66] También en 1905, Einstein explicó la energía del campo electromagnético como distribuida en partículas , dudada hasta que esto ayudó a resolver la teoría atómica en las décadas de 1910 y 1920. [68] Mientras tanto, todos los fenómenos físicos conocidos eran gravitacionales o electromagnéticos , [69] cuyas dos teorías no se alineaban. [70] Sin embargo, la creencia en el éter como la fuente de todos los fenómenos físicos era prácticamente unánime. [71] [72] [73] [74] En las paradojas experimentales, [75] los físicos modificaron las propiedades hipotéticas del éter. [76]

Al considerar inútil la hipótesis del éter luminífero , [77] Einstein unificó a priori en 1905 todos los marcos de referencia inerciales para enunciar el principio especial de relatividad, [78] que, al omitir el éter, [79] convirtió el espacio y el tiempo en fenómenos relativos cuya relatividad alineó la electrodinámica con el principio newtoniano de relatividad o invariancia galileana . [63] [80] Originalmente epistémico o instrumental , esto se interpretó como óntico o realista —es decir, una explicación mecánica causal— y el principio se convirtió en una teoría , [81] refutando la gravitación newtoniana. [79] [82] Por el éxito predictivo en 1919 , la relatividad general aparentemente derrocó la teoría de Newton , una revolución en la ciencia [83] resistida por muchos pero cumplida alrededor de 1930. [84]

En 1925, Werner Heisenberg y Erwin Schrödinger formalizaron independientemente la mecánica cuántica (MC). [85] [86] A pesar de las explicaciones contradictorias, [86] [87] las dos teorías hicieron predicciones idénticas. [85] El modelo del electrón de Paul Dirac de 1928 se fijó en la relatividad especial , lanzando la MC a la primera teoría cuántica de campos (QFT), la electrodinámica cuántica (QED). [88] A partir de ella, Dirac interpretó y predijo la antipartícula del electrón , pronto descubierta y denominada positrón , [89] pero la QED falló en la electrodinámica a altas energías. [90] En otros lugares y por otros motivos, se descubrieron la fuerza nuclear fuerte y la fuerza nuclear débil . [91]

En 1941, Richard Feynman introdujo el formalismo integral de trayectorias de la mecánica cuántica , que, si se toma como modelo mecánico causal, choca con el formalismo matricial de Heisenberg y con el formalismo ondulatorio de Schrödinger , [87] aunque los tres son empíricamente idénticos y comparten predicciones. [85] A continuación, trabajando en la electrodinámica cuántica, Feynman intentó modelar partículas sin campos y encontrar el vacío verdaderamente vacío. [92] Como cada fuerza fundamental conocida [93] es aparentemente un efecto de un campo, Feynman fracasó. [92] La dualidad onda-partícula de Louis de Broglie había hecho insostenible el atomismo (partículas indivisibles en un vacío) y había puesto de relieve la noción misma de partículas discontinuas como autocontradictoria. [94]

En 1947, Freeman Dyson , Richard Feynman , Julian Schwinger y Sin-Itiro Tomonaga, que se reunieron , pronto introdujeron la renormalización , un procedimiento que convertía la QED en la teoría más predictivamente precisa de la física, [90] [95] incorporando la química , la óptica y la mecánica estadística . [63] [96] La QED ganó así la aceptación general de los físicos. [97] Paul Dirac criticó su necesidad de renormalización por demostrar su falta de naturalidad, [97] y pidió un éter. [98] En 1947, Willis Lamb había descubierto un movimiento inesperado de los orbitales de los electrones , desplazados ya que el vacío no está verdaderamente vacío. [99] Sin embargo, el vacío era pegadizo, aboliendo conceptualmente el éter, y la física procedió ostensiblemente sin él, [92] incluso suprimiéndolo. [98] Mientras tanto, "asqueados por las matemáticas desordenadas, la mayoría de los filósofos de la física tienden a descuidar la QED". [97]

Los físicos han temido incluso mencionar el éter , [100] rebautizado como vacío , [98] [101] que, como tal, es inexistente. [98] [102] Los filósofos generales de la ciencia creen comúnmente que el éter, más bien, es ficticio, [103] "relegado al basurero de la historia científica desde que" 1905 trajo la relatividad especial . [104] Einstein no se comprometió con la no existencia del éter, [77] simplemente dijo que era superfluo. [79] Sin embargo, al abolir el movimiento newtoniano para la primacía electrodinámica, Einstein inadvertidamente reforzó el éter, [105] y para explicar el movimiento fue llevado de nuevo al éter en la relatividad general . [106] [107] [108] Sin embargo, la resistencia a la teoría de la relatividad [109] se asoció con teorías anteriores del éter, cuya palabra y concepto se volvieron tabú. [110] Einstein explicó la compatibilidad de la relatividad especial con un éter, [107] pero también se opuso al éter de Einstein. [100] Los objetos comenzaron a concebirse como fijados directamente al espacio y al tiempo [111] mediante relaciones geométricas abstractas que carecían de un medio fantasmal o fluido. [100] [112]

En 1970, la QED junto con el campo nuclear débil se redujo a la teoría electrodébil (EWT), y el campo nuclear fuerte se modeló como cromodinámica cuántica (QCD). [90] Compuesto por EWT, QCD y el campo de Higgs , este Modelo Estándar de física de partículas es una "teoría efectiva", [113] no verdaderamente fundamental. [114] [115] Como las partículas de QCD se consideran inexistentes en el mundo cotidiano, [92] la QCD sugiere especialmente un éter, [116] que los experimentos de física encuentran rutinariamente que existe y exhibe simetría relativista. [110] La confirmación de la partícula de Higgs , modelada como una condensación dentro del campo de Higgs , corrobora el éter, [100] [115] aunque la física no necesita afirmar o incluso incluir el éter. [100] Al organizar las regularidades de las observaciones —como en el modelo de la ley de cobertura— los físicos consideran superflua la búsqueda del descubrimiento del éter . [64]

En 1905, a partir de la relatividad especial , Einstein dedujo la equivalencia masa-energía , [117] siendo las partículas formas variantes de energía distribuida, [118] cómo las partículas que chocan a gran velocidad experimentan la transformación de esa energía en masa, produciendo partículas más pesadas, [119] aunque el discurso de los físicos promueve la confusión. [120] Como "el lugar contemporáneo de la investigación metafísica ", las QFT plantean las partículas no como existentes individualmente, sino como modos de excitación de campos, [114] [121] siendo las partículas y sus masas estados del éter, [92] aparentemente unificando todos los fenómenos físicos como la realidad causal más fundamental, [101] [115] [116] como se había previsto hace mucho tiempo. [73] Sin embargo, un campo cuántico es una abstracción intrincada -un campo matemático- virtualmente inconcebible como propiedades físicas de un campo clásico . [121] Los aspectos más profundos de la naturaleza, aún desconocidos, podrían eludir cualquier posible teoría de campos. [114] [121]

Aunque el descubrimiento de la causalidad se considera popularmente el objetivo de la ciencia, su búsqueda fue rechazada por el programa de investigación newtoniano , [14] incluso más newtoniano que Isaac Newton . [92] [122] A estas alturas, la mayoría de los físicos teóricos infieren que las cuatro interacciones fundamentales conocidas se reducirían a la teoría de supercuerdas , por la cual los átomos y las moléculas, después de todo, son vibraciones de energía que tienen formas matemáticas y geométricas. [63] Dadas las incertidumbres del realismo científico , [18] algunos concluyen que el concepto de causalidad aumenta la comprensibilidad de la explicación científica y, por lo tanto, es clave en la ciencia popular , pero compromete la precisión de la explicación científica y se abandona a medida que la ciencia madura. [123] Incluso la epidemiología está madurando para prestar atención a las graves dificultades con las presunciones sobre la causalidad. [14] [57] [59] El modelo de ley de cobertura es una de las contribuciones admiradas de Carl G Hempel a la filosofía de la ciencia . [124]

Véase también

Tipos de inferencia

Temas relacionados

Notas

  1. ^ ab Woodward, "Explicación científica", §2 "El modelo DN", en SEP , 2011.
  2. ^ ab James Fetzer, cap. 3 "Las paradojas de la explicación hempelia", en Fetzer, ed., Science, Explanation, and Rationality (Oxford UP, 2000), pág. 113.
  3. ^ Montuschi, Objetos en las ciencias sociales (Continuum, 2003), págs. 61–62.
  4. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 2, subcap. "Modelo DN de explicación y modelo HD de desarrollo de teoría", págs. 25-26.
  5. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 2, subcap. "Explicación axiomática de las teorías", págs. 27-29.
  6. ^ abcdefgh Suppe, "Epílogo—1977", "Introducción", §1 "Canto del cisne para el positivismo", §1A "Explicación y reducción interteórica", págs. 619–24, en Suppe, ed, Structure of Scientific Theories, 2.ª ed. (U Illinois P, 1977).
  7. ^ abcde Kenneth F Schaffner, "Explicación y causalidad en las ciencias biomédicas", págs. 79-125, en Laudan, ed, Mind and Medicine (U California P, 1983), pág. 81.
  8. ^ ab G Montalenti, cap. 2 "De Aristóteles a Demócrito pasando por Darwin", en Ayala y Dobzhansky, eds, Estudios en la filosofía de la biología (U California P, 1974).
  9. ^ En el siglo XVII, Descartes e Isaac Newton creían firmemente en Dios como diseñador de la naturaleza y, por lo tanto, creían firmemente en la intencionalidad natural, pero consideraban que la teleología estaba fuera de la investigación de la ciencia (Bolotin, Approach to Aristotle's Physics , pp. 31-33). En 1650, al formalizar el heliocentrismo y lanzar la filosofía mecanicista , la física cartesiana derrocó al geocentrismo y a la física aristotélica. En la década de 1660, Robert Boyle intentó elevar la química como una nueva disciplina a partir de la alquimia. Newton buscó más especialmente las leyes de la naturaleza (simplemente las regularidades de los fenómenos), por lo que la física newtoniana , al reducir la ciencia celestial a la ciencia terrestre, expulsó de la física el vestigio de la metafísica aristotélica, desconectando así la física y la alquimia/química, que luego siguió su propio curso, dando lugar a la química alrededor de 1800.
  10. ^ Los apodos para los principios atribuidos a Hume ( el tenedor de Hume , el problema de la inducción , la ley de Hume ) no fueron creados por Hume sino por filósofos posteriores que los etiquetaron para facilitar su referencia.
  11. ^ Según la bifurcación de Hume, las verdades de las matemáticas y la lógica como ciencias formales son universales a través de "relaciones de ideas" (verdades simplemente abstractas), por lo tanto cognoscibles sin experiencia . Por otra parte, las verdades que se afirman en las ciencias empíricas dependen de "hechos y existencia real", cognoscibles sólo mediante la experiencia . Según la bifurcación de Hume, las dos categorías nunca se cruzan. Cualquier tratado que no contenga ninguna de ellas puede contener sólo "sofisma e ilusión". (Flew, Dictionary , "Hume's fork", p. 156).
  12. ^ Sin conocer las necesidades o imposibilidades del mundo, pero por fuerza de hábito o naturaleza mental, los humanos experimentan una secuencia de eventos sensoriales, encuentran una conjunción aparentemente constante , hacen la generalización irrestricta de una inducción enumerativa y la justifican presumiendo la uniformidad de la naturaleza . Los humanos intentan así justificar una inducción menor añadiendo una inducción mayor, ambas lógicamente inválidas y no verificadas por la experiencia: el problema de la inducción ; cómo los humanos presuponen irracionalmente el descubrimiento de la causalidad. (Chakraborti, Logic , p. 381; Flew, Dictionary , "Hume", p. 156.
  13. ^ Para discusiones más discursivas sobre los tipos de causalidad (necesaria, suficiente, necesaria y suficiente, componente, componente suficiente, contrafáctica) , véase Rothman y Greenland, Parascandola y Weed, así como Kundi. A continuación se ofrece una explicación más directa:

    una causa necesaria es una condición causal requerida para que ocurra un evento. Una causa suficiente es una condición causal completa para producir un evento. Sin embargo, necesario no siempre es suficiente, ya que otros factores causales (es decir, otras causas componentes ) pueden ser necesarios para producir el evento. A la inversa, una causa suficiente no siempre es una causa necesaria, ya que diferentes causas suficientes también pueden producir el evento. Estrictamente hablando, una causa suficiente no puede ser un solo factor, ya que cualquier factor causal debe actuar casualmente a través de muchos otros factores. Y aunque puede existir una causa necesaria, los humanos no pueden verificarla, ya que los humanos no pueden verificar todos los estados de cosas posibles. (El lenguaje puede enunciar la causalidad necesaria como una tautología —una afirmación cuyos términos y significados la hacen lógicamente verdadera por mera definición— que, como afirmación analítica , no es informativa acerca del mundo real. Una afirmación que se refiere a las realidades del mundo y depende de ellas es, más bien, una afirmación sintética .)

    La causalidad suficiente es, en realidad, una causalidad componente suficiente —un conjunto completo de causas componentes que interactúan dentro de una constelación causal— que, sin embargo, está más allá de la capacidad de los humanos para descubrirla por completo. Sin embargo, los humanos tienden intuitivamente a concebir la causalidad como necesaria y suficiente —un único factor requerido y completo—, la única causa, la causa. Uno puede ver así el encender un interruptor de luz. Sin embargo, el cambio de interruptor no fue una causa suficiente, sino que dependió de innumerables factores (bombilla intacta, cableado intacto, caja de circuitos, pago de facturas, empresa de servicios públicos, infraestructura del vecindario, ingeniería de tecnología por parte de Thomas Edison y Nikola Tesla , explicación de la electricidad por parte de James Clerk Maxwell , aprovechamiento de la electricidad por parte de Benjamin Franklin , refinación de metales, minería de metales, y así sucesivamente), mientras que, sea cual sea el recuento de eventos, la estructura mecánica causal de la

    naturaleza sigue siendo un misterio. Desde esta perspectiva, la supuesta incapacidad de la luz para encenderse sin accionar el interruptor no es ni una necesidad lógica ni un hallazgo empírico, ya que ninguna experiencia revela jamás que el mundo sea o vaya a permanecer universalmente uniforme en cuanto a los aspectos que parecen vincular el accionar del interruptor como el acontecimiento necesario para que se encienda la luz. Si la luz se enciende sin accionar el interruptor, la sorpresa afectará a la mente , pero la mente no puede saber que el acontecimiento violó la naturaleza . Como una mera posibilidad mundana, una actividad dentro de la pared podría haber conectado los cables y completado el circuito sin accionar el interruptor.

    Aunque aparentemente disfrutaba de los escándalos que seguían a sus propias explicaciones, Hume era muy práctico y su escepticismo era bastante desigual (Flew p. 156). Aunque Hume rechazó el teísmo ortodoxo y trató de rechazar la metafísica , supuestamente extendió el método newtoniano a la mente humana, que Hume, en una especie de movimiento anticopernicano, colocó como el eje del conocimiento humano (Flew p. 154). Hume puso así su propia teoría del conocimiento a la par de la teoría del movimiento de Newton (Buckle pp. 70-71, Redman pp. 182-83, Schliesser § resumen). Hume encontró que la inducción enumerativa era una costumbre inevitable requerida para que uno pueda vivir (Gattei pp. 28-29). Hume encontró que la conjunción constante revelaba un tipo modesto de causalidad: la causalidad contrafáctica . Silenciosa en cuanto al papel causal —ya sea necesidad, suficiencia, fuerza del componente o mecanismo— la causalidad contrafáctica es simplemente que la alteración de un factor previene o produce el evento de interés.
  14. ^ abcde Kundi M (2006). "Causalidad e interpretación de la evidencia epidemiológica". Environmental Health Perspectives . 114 (7): 969–974. doi :10.1289/ehp.8297. PMC 1513293 . PMID  16835045. 
  15. ^ Hume observó que los autores continúan durante algún tiempo enunciando hechos y luego de repente pasan a enunciar normas —supuestamente lo que debería ser— sin apenas explicación. Sin embargo, tales valores, como en la ética , la estética o la filosofía política , no se encuentran verdaderos simplemente por enunciar hechos: es no revela en sí mismo deber . La ley de Hume es el principio de que la brecha entre hechos y valores es insalvable —que ninguna declaración de hechos puede justificar normas— aunque el propio Hume no lo afirmó. Más bien, algunos filósofos posteriores encontraron que Hume simplemente no llegó a enunciarla, sino que la comunicó. De todos modos, Hume descubrió que los humanos adquirían moralidad a través de la experiencia por refuerzo comunitario . (Flew, Dictionary , "Hume's law", p. 157 y "Naturalistic falacy", pp. 240-41; Wootton, Modern Political Thought , p. 306.)
  16. ^ Kant dedujo que las constantes de la mente organizan el espacio que sostiene la geometría euclidiana —como el espacio absoluto de Newton— mientras que los objetos interactúan temporalmente como lo modela la teoría del movimiento de Newton , cuya ley de gravitación universal es una verdad sintética a priori , es decir, contingente a la experiencia, de hecho, pero conocida universalmente como verdadera sin la experiencia universal. Así, las constantes innatas de la mente cruzan las tenazas del tenedor de Hume y establecen la gravitación universal de Newton como una verdad a priori.
  17. ^ ab Chakravartty, "Realismo científico", §1.2 "Las tres dimensiones del compromiso realista", en SEP , 2013: "Semánticamente, el realismo está comprometido con una interpretación literal de las afirmaciones científicas sobre el mundo. En el lenguaje común, los realistas toman las declaraciones teóricas al 'valor nominal'. Según el realismo, las afirmaciones sobre entidades, procesos, propiedades y relaciones científicas, ya sean observables o no observables, deben interpretarse literalmente como si tuvieran valores de verdad, ya sean verdaderos o falsos. Este compromiso semántico contrasta principalmente con las llamadas epistemologías instrumentalistas de la ciencia, que interpretan las descripciones de los no observables simplemente como instrumentos para la predicción de fenómenos observables o para sistematizar informes de observación. Tradicionalmente, el instrumentalismo sostiene que las afirmaciones sobre cosas no observables no tienen ningún significado literal (aunque el término a menudo se usa de manera más liberal en relación con algunas posiciones antirrealistas en la actualidad). Algunos antirrealistas sostienen que las afirmaciones que involucran cosas no observables no deben interpretarse literalmente, sino como elípticas para las afirmaciones correspondientes sobre "observables".
  18. ^ ab Los desafíos al realismo científico están capturados sucintamente por Bolotin, Approach to Aristotle's Physics (SUNY P, 1998), pp. 33-34, comentando sobre la ciencia moderna: "Pero no ha tenido éxito, por supuesto, en abarcar todos los fenómenos, al menos no todavía. Porque sus leyes son idealizaciones matemáticas, idealizaciones, además, sin base inmediata en la experiencia y sin conexión evidente con las causas últimas del mundo natural. Por ejemplo, la primera ley del movimiento de Newton (la ley de la inercia) requiere que imaginemos un cuerpo que siempre está en reposo o que se mueve sin rumbo en línea recta a una velocidad constante, aunque nunca veamos tal cuerpo, y aunque de acuerdo con su propia teoría de la gravitación universal, es imposible que pueda haber uno. Esta ley fundamental, entonces, que comienza con una afirmación sobre lo que sucedería en una situación que nunca existe, no conlleva ninguna convicción excepto en la medida en que ayuda a predecir eventos observables. Así, a pesar del asombroso éxito de las leyes de Newton en En su libro La evolución de la física , Einstein e Infeld tienen razón al afirmar que «podemos imaginar que otro sistema, basado en supuestos diferentes, podría funcionar igual de bien». Einstein e Infeld continúan afirmando que «los conceptos físicos son creaciones libres de la mente humana y no están, por más que parezca, determinados únicamente por el mundo exterior». Para ilustrar lo que quieren decir con esta afirmación, comparan al científico moderno con un hombre que intenta comprender el mecanismo de un reloj cerrado. Si es ingenioso, reconocen, este hombre «puede formarse una imagen de un mecanismo que sería responsable de todas las cosas que observa», pero añaden que «nunca puede estar completamente seguro de que su imagen sea la única que pueda explicar sus observaciones. Nunca podrá comparar su imagen con el mecanismo real y ni siquiera puede imaginar la posibilidad o el significado de tal comparación». En otras palabras, la ciencia moderna no puede afirmar, y nunca podrá afirmar, que tiene la comprensión definitiva de ningún fenómeno natural».
  19. ^ Mientras que un imperativo hipotético es práctico, simplemente lo que uno debería hacer si busca un resultado particular, el imperativo categórico es moralmente universal, lo que todos deberían hacer siempre.
  20. ^ ab Bourdeau, "Auguste Comte", §§ "Resumen" e "Introducción", en Zalta, ed, SEP , 2013.
  21. Comte, Una visión general del positivismo (Trübner, 1865), pp. 49-50, incluyendo el siguiente pasaje: "Mientras los hombres persistan en intentar responder a las preguntas insolubles que ocuparon la atención de la infancia de nuestra raza, el plan mucho más racional es hacer lo que se hizo entonces, es decir, simplemente dar rienda suelta a la imaginación. Estas creencias espontáneas han caído gradualmente en desuso, no porque hayan sido refutadas, sino porque la humanidad se ha vuelto más ilustrada en cuanto a sus necesidades y el alcance de sus poderes, y gradualmente ha dado una dirección completamente nueva a sus esfuerzos especulativos".
  22. ^ Flew, Diccionario (St Martin's, 1984), "Positivismo", pág. 283.
  23. ^ abc Woodward, "Explicación científica", §1 "Antecedentes e introducción", en SEP , 2011.
  24. ^ ab Friedman, Reconsiderando el positivismo lógico (Cambridge UP, 1999), pág. xii.
  25. ^ Cualquier positivismo ubicado en el siglo XX es generalmente neo , aunque estuvo el positivismo de Ernst Mach cerca de 1900, y un enfoque positivista general de la ciencia (rastreable hasta la tendencia inductivista de Bacon en 1620, el programa de investigación newtoniano en 1687 y el positivismo comtiano en 1830) que continúa en un sentido vago pero usualmente desautorizado dentro de la cultura popular y algunas ciencias.
  26. ^ A los neopositivistas a veces se les llama "verificacionistas".
  27. ^ Chakravartty, "Realismo científico", §4 "Antirrealismo: Contrastes para el realismo científico", §4.1 "Empirismo", en SEP , 2013: "Tradicionalmente, los instrumentalistas sostienen que los términos para inobservables, por sí mismos, no tienen significado; interpretados literalmente, las afirmaciones que los involucran ni siquiera son candidatos para la verdad o falsedad. Los defensores más influyentes del instrumentalismo fueron los empiristas lógicos (o positivistas lógicos), incluidos Rudolf Carnap y Carl Hempel , asociados con el grupo de filósofos y científicos del Círculo de Viena , así como importantes contribuyentes en otros lugares. Para racionalizar el uso ubicuo de términos que de otro modo podrían tomarse para referirse a inobservables en el discurso científico, adoptaron una semántica no literal según la cual estos términos adquieren significado al estar asociados con términos para observables (por ejemplo, ' electrón ' podría significar 'raya blanca en una cámara de nubes '), o con procedimientos de laboratorio demostrables (una visión llamada ' operacionalismo '). Dificultades insuperables Con esta semántica se llegó finalmente (en gran medida) a la desaparición del empirismo lógico y al crecimiento del realismo . El contraste aquí no se da meramente en la semántica y la epistemología : varios empiristas lógicos también sostenían la visión neokantiana de que las cuestiones ontológicas "externas" a los marcos de conocimiento representados por las teorías también carecen de sentido (la elección de un marco se hace únicamente sobre bases pragmáticas ), rechazando así la dimensión metafísica del realismo (como en Carnap 1950)".
    • Okasha, Filosofía de la ciencia (Oxford UP, 2002), pág. 62: "En sentido estricto, debemos distinguir dos tipos de antirrealismo. Según el primero, hablar de entidades inobservables no debe entenderse en absoluto de manera literal. Por lo tanto, cuando un científico propone una teoría sobre los electrones, por ejemplo, no debemos tomarlo como si estuviera afirmando la existencia de entidades llamadas 'electrones'. Más bien, su discurso sobre los electrones es metafórico. Esta forma de antirrealismo fue popular en la primera mitad del siglo XX, pero pocas personas la defienden hoy. Fue motivada en gran medida por una doctrina de la filosofía del lenguaje según la cual no es posible hacer afirmaciones significativas sobre cosas que en principio no pueden observarse, una doctrina que pocos filósofos contemporáneos aceptan. El segundo tipo de antirrealismo acepta que hablar de entidades inobservables debe tomarse al pie de la letra: si una teoría dice que los electrones tienen carga negativa, es verdadera si los electrones existen y tienen carga negativa, pero falsa en caso contrario. Pero nunca sabremos cuál de las dos cosas, dice el antirrealista. "Así pues, la actitud correcta ante las afirmaciones que hacen los científicos sobre la realidad inobservable es la del agnosticismo absoluto. Son verdaderas o falsas, pero somos incapaces de averiguar cuál de ellas es. La mayor parte del antirrealismo moderno es de este segundo tipo".
  28. ^ ab Woodward, "Explicación científica", en Zalta, ed, SEP , 2011, resumen.
  29. ^ Hempel, Carl G; Oppenheim, Paul (abril de 1948). "Estudios sobre la lógica de la explicación". Filosofía de la ciencia . 15 (2): 135–175. doi :10.1086/286983. JSTOR  185169. S2CID  16924146.
  30. ^ abcd Bechtel, Descubriendo los mecanismos celulares (Cambridge UP, 2006), esp págs. 24-25.
  31. ^ ab Woodward, "Explicación científica", §2 "El modelo DN", §2.3 "Explicación estadística inductiva", en Zalta, ed, SEP , 2011.
  32. ^ von Wright, Explicación y comprensión (Cornell UP, 1971), pág. 11.
  33. ^ ab Stuart Glennan, "Explicación", § "Modelo de explicación de ley de cobertura", en Sarkar & Pfeifer, eds, Philosophy of Science (Routledge, 2006), pág. 276.
  34. ^ Manfred Riedel, "Explicación causal e histórica", en Manninen y Tuomela, eds, Ensayos sobre explicación y comprensión (D Reidel, 1976), págs. 3-4.
  35. ^ Los postulados fundamentales del neopositivismo fueron el criterio de verificabilidad de la significatividad cognitiva , la brecha analítico-sintética y la brecha observación-teoría. De 1950 a 1951, Carl Gustav Hempel renunció al criterio de verificabilidad. En 1951, Willard Van Orman Quine atacó la brecha analítico-sintética. En 1958, Norwood Russell Hanson desdibujó la brecha observación-teórica. En 1959, Karl Raimund Popper atacó todo el verificacionismo —atacó, en realidad, cualquier tipo de positivismo— al afirmar el falsacionismo. En 1962, Thomas Samuel Kuhn derrocó el fundacionalismo , que se presumía erróneamente como un postulado fundamental del neopositivismo.
  36. ^ Fetzer, "Carl Hempel", §3 "Razonamiento científico", en SEP , 2013: "La necesidad de desmantelar el criterio de verificabilidad de la significatividad junto con la desaparición de la distinción observacional/teórica significó que el positivismo lógico ya no representaba una posición racionalmente defendible. Se había demostrado que al menos dos de sus principios definitorios carecían de mérito. Además, dado que la mayoría de los filósofos creían que Quine había demostrado que la distinción analítico/sintético también era insostenible, muchos concluyeron que la empresa había sido un fracaso total. Sin embargo, entre los beneficios importantes de la crítica de Hempel estaba la producción de criterios más generales y flexibles de significación cognitiva en Hempel (1965b), incluidos en una colección de sus estudios, Aspectos de la explicación científica (1965d). Allí propuso que la significación cognitiva no podía capturarse adecuadamente por medio de principios de verificación o falsificación, cuyos defectos eran paralelos, sino que requerían un enfoque mucho más sutil y matizado. Hempel sugirió múltiples criterios para evaluar la significación cognitiva de diferentes sistemas teóricos, donde la significación no es categórica sino más bien una cuestión de grado: “Los sistemas significativos van desde aquellos cuyo vocabulario extralógico completo consiste en términos de observación, pasando por teorías cuya formulación se basa en gran medida en constructos teóricos, hasta sistemas que apenas tienen relación con posibles hallazgos empíricos” (Hempel 1965b: 117). Los criterios que Hempel ofreció para evaluar los “grados de significación” de los sistemas teóricos (como conjunciones de hipótesis, definiciones y afirmaciones auxiliares) fueron (a) la claridad y precisión con la que se formulan, incluidas las conexiones explícitas con el lenguaje observacional; (b) el poder sistemático (explicativo y predictivo) de tal sistema, en relación con los fenómenos observables; (c) la simplicidad formal de los sistemas con los que se alcanza un cierto grado de poder sistemático; y (d) el grado en que esos sistemas han sido confirmados por evidencia experimental (Hempel 1965b). "La elegancia del estudio de Hempel acabó con cualquier aspiración persistente a unos criterios simples de "significado cognitivo" y señaló la desaparición del positivismo lógico como movimiento filosófico".
  37. ^ Popper, "Contra las grandes palabras", En busca de un mundo mejor (Routledge, 1996), págs. 89-90.
  38. ^ Hacohen, Karl Popper: Los años de formación (Cambridge UP, 2000), págs. 212-13.
  39. ^ Logik der Forschung , publicada en Austria en 1934, fue traducida por Popper del alemán al inglés, The Logic of Scientific Discovery , y llegó al mundo de habla inglesa en 1959.
  40. ^ abcd Reutlinger, Schurz & Hüttemann, "Ceteris paribus", § 1.1 "Introducción sistemática", en Zalta, ed, SEP , 2011.
  41. ^ Como estudio científico de las células, la citología surgió en el siglo XIX, pero su tecnología y métodos eran insuficientes para visualizar y establecer claramente la existencia de cualquier organelo celular más allá del núcleo .
  42. ^ El primer experimento bioquímico famoso fue el de Edward Buchner en 1897 (Morange, A History , p. 11). Pronto surgió la disciplina bioquímica, que inicialmente investigaba los coloides en sistemas biológicos, una "biocoloidología" (Morange, p. 12; Bechtel, Discovering , p. 94). Esto dio lugar a la teoría macromolecular, el término macromolécula introducido por el químico alemán Hermann Staudinger en 1922 (Morange, p. 12).
  43. ^ La biología celular surgió principalmente en el Instituto Rockefeller a través de nueva tecnología ( microscopio electrónico y ultracentrífuga ) y nuevas técnicas ( fraccionamiento celular y avances en tinción y fijación).
  44. ^ James Fetzer, cap. 3 "Las paradojas de la explicación hempeliana", en Fetzer J, ed, Science, Explanation, and Rationality (Oxford UP, 2000), págs. 121-122.
  45. ^ Fetzer, cap. 3 en Fetzer, ed., Ciencia, explicación y racionalidad (Oxford UP, 2000), pág. 129.
  46. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 1, subcap. "Áreas de la filosofía que inciden en la filosofía de la ciencia", § "Metafísica", págs. 8-9, § "Epistemología", pág. 11.
  47. ^ H Atmanspacher, RC Bishop y A Amann, "Irreversibilidad extrínseca e intrínseca en leyes dinámicas probabilísticas", en Khrennikov, ed, Actas (World Scientific, 2001), págs. 51-52.
  48. ^ Fetzer, cap. 3, en Fetzer, ed., Science, Explanation, and Rationality (Oxford UP, 2000), p. 118, plantea algunas posibles formas en que las llamadas leyes naturales, cuando son epistémicas , pueden fallar como ónticas : "La concepción subyacente es la de poner orden en nuestro conocimiento del universo. Sin embargo, hay al menos tres razones por las que incluso el conocimiento completo de cada regularidad empírica que se obtiene durante la historia del mundo podría no proporcionar una base inferencial adecuada para el descubrimiento de las leyes del mundo. Primero, algunas leyes podrían permanecer sin instanciar y, por lo tanto, no ser mostradas por ninguna regularidad. Segundo, algunas regularidades pueden ser accidentales y, por lo tanto, no mostrar ninguna ley de la naturaleza. Y, tercero, en el caso de las leyes probabilísticas, algunas frecuencias podrían desviarse de sus probabilidades nómicas generadoras 'por casualidad' y, por lo tanto, mostrar leyes naturales en formas que no son representativas o están sesgadas".
  49. ^ Esta reducción de la teoría ocurre si, y aparentemente sólo si, el Sol y un planeta se modelan como un sistema de dos cuerpos, excluyendo todos los demás planetas (Torretti, Philosophy of Physics , pp. 60-62).
  50. ^ Spohn, Leyes de la creencia (Oxford UP, 2012), pág. 305.
  51. ^ Mientras que la física fundamental ha buscado leyes de regularidad universal , las ciencias especiales normalmente incluyen leyes ceteris paribus , que son predictivamente precisas con alta probabilidad en "condiciones normales" o con "todo lo demás igual", pero tienen excepciones [Reutlinger et al § 1.1]. Las leyes de la química parecen no tener excepciones en sus dominios, pero en principio fueron reducidas a la física fundamental [Feynman p. 5, Schwarz Fig 1, y lo mismo ocurre con las ciencias especiales.
  52. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 5, subcap. "Introducción: Relacionar disciplinas relacionando teorías", págs. 71-72.
  53. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 5, subcap. "Modelo de reducción de teoría y el programa de unidad de la ciencia ", pp. 72-76.
  54. ^ ab Bem y de Jong, Cuestiones teóricas (Sage, 2006), págs. 45-47.
  55. ^ abc O'Shaughnessy, Explicando el comportamiento del comprador (Oxford UP, 1992), págs. 17-19.
  56. ^ ab Spohn, Leyes de la creencia (Oxford UP, 2012), pág. 306.
  57. ^ ab Karhausen, LR (2000). "Causalidad: el elusivo Santo Grial de la epidemiología". Medicina, atención sanitaria y filosofía . 3 (1): 59–67. doi :10.1023/A:1009970730507. PMID  11080970. S2CID  24260908.
  58. ^ Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), cap. 3, subcap. "Repudio del modelo DN de explicación", págs. 38-39.
  59. ^ abc Rothman, KJ; Greenland, S. (2005). "Causalidad e inferencia causal en epidemiología". Revista estadounidense de salud pública . 95 : S144–S150. doi :10.2105/AJPH.2004.059204. hdl : 10.2105/AJPH.2004.059204 . PMID  16030331.
  60. ^ Boffetta, "Causalidad en presencia de asociaciones débiles", Crit Rev Food Sci Nutr , 2010; 50 (S1):13–16.
  61. ^ Sin hacer ningún compromiso en cuanto al papel causal particular —tal como la necesidad, o la suficiencia, o la fuerza del componente, o el mecanismo— la causalidad contrafáctica es simplemente que la alteración de un factor de su estado fáctico previene o produce de cualquier manera el evento de interés.
  62. ^ En epidemiología, la causalidad contrafactual no es determinista , sino probabilística Parascandola; Weed (2001). "Causación en epidemiología". J Epidemiol Community Health . 55 (12): 905–12. doi :10.1136/jech.55.12.905. PMC 1731812 . PMID  11707485. 
  63. ^ abcd Schwarz, "Desarrollos recientes en la teoría de cuerdas", Proc Natl Acad Sci USA , 1998; 95 :2750–7, esp Fig. 1.
  64. ^ ab Ben-Menahem, Convencionalismo (Cambridge UP, 2006), pág. 71.
  65. ^ Los casos de falsedad limitaron la ley de Boyle a casos especiales, de ahí la ley de los gases ideales .
  66. ^ abcd Newburgh et al , "Einstein, Perrin y la realidad de los átomos" Archivado el 3 de agosto de 2017 en Wayback Machine , Am J Phys , 2006, pág. 478.
  67. ^ Para una breve revisión de la visión de Boltzmann, véase el capítulo 3 "Philipp Frank", § 1 " Entrevista a TS Kuhn ", en Blackmore et al , eds, Ernst Mach's Vienna 1895–1930 (Kluwer, 2001), p. 63, ya que Frank fue alumno de Boltzmann poco después de la jubilación de Mach. Véanse las "Notas", págs. 79-80, n.° 12 para las opiniones de Mach y de Ostwald, n.° 13 para las opiniones de los físicos contemporáneos en general y n.° 14 para las opiniones de Einstein . El punto más relevante aquí es el número 12: "Mach parece haber tenido varias opiniones estrechamente relacionadas sobre el atomismo . En primer lugar, a menudo pensaba que la teoría podría ser útil en física siempre que uno no creyera en la realidad de los átomos. En segundo lugar, creía que era difícil aplicar la teoría atómica tanto a la psicología como a la física. En tercer lugar, su propia teoría de los elementos a menudo se llama una "teoría atomista" en psicología en contraste con la teoría de la gestalt y una teoría del continuo de la experiencia. En cuarto lugar, cuando criticaba la realidad de los átomos, normalmente se refería al sentido griego de "sustancia indivisible" y pensaba que Boltzmann estaba siendo evasivo al defender átomos divisibles o "corpúsculos" como los que se volverían normales después de JJ Thomson y la distinción entre electrones y núcleos . En quinto lugar, normalmente llamaba a los átomos físicos "cosas del pensamiento" y estaba muy feliz cuando Ostwald pareció refutar la realidad de los átomos en 1905. Y sexto, después de que Ostwald regresara al atomismo en 1908, Mach continuó "defender la alternativa "energetista" de Ostwald al atomismo".
  68. ^ Los físicos habían explicado la energía del campo electromagnético como energía mecánica , como el impacto corporal de una ola del océano, no como gotas de agua arrojadas individualmente (Grandy, Everyday Quantum Reality , pp. 22-23). ​​En la década de 1890, el problema de la radiación del cuerpo negro era paradójico hasta que Max Planck teorizó que los cuantos exhibían la constante de Planck , una unidad mínima de energía. Los cuantos eran misteriosos, no se los veía como partículas , sino simplemente como unidades de energía . Otra paradoja, sin embargo, era el efecto fotoeléctrico . Como una longitud de onda más corta produce más ondas por unidad de distancia, una longitud de onda más baja es una frecuencia de onda más alta. Dentro de la porción visible del espectro electromagnético , la frecuencia establece el color. La intensidad de la luz, sin embargo, es la amplitud de la onda como la altura de la onda. En una explicación estrictamente ondulatoria, una mayor intensidad (mayor amplitud de onda) aumenta la energía mecánica entregada, es decir, el impacto de la onda, y por lo tanto produce un mayor efecto físico. Y, sin embargo, en el efecto fotoeléctrico, sólo un cierto color y más allá (una cierta frecuencia y más alta) era capaz de despegar electrones de una superficie metálica. Por debajo de esa frecuencia o color, aumentar la intensidad de la luz seguía sin despegar electrones. Einstein modeló los cuantos de Planck como cada una de las partículas cuya energía individual era la constante de Planck multiplicada por la frecuencia de onda de la luz: sólo a una cierta frecuencia y más allá cada partícula sería lo suficientemente energética como para expulsar un electrón de su órbita. Aunque aumentar la intensidad de la luz proporcionaría más energía (más partículas en total), cada partícula individual seguiría careciendo de energía suficiente para desalojar un electrón. El modelo de Einstein, mucho más intrincado, utilizaba la teoría de la probabilidad para explicar las tasas de expulsión de electrones como tasas de colisiones con partículas electromagnéticas. Este resurgimiento de la hipótesis de la partícula de la luz (generalmente atribuida a Newton) fue ampliamente puesto en duda. Sin embargo, en 1920, la explicación ayudó a resolver problemas de la teoría atómica , y así surgió la mecánica cuántica . En 1926, Gilbert N. Lewis denominó a las partículas fotones . La QED los modela como partículas mensajeras del campo electromagnético o portadoras de fuerza, emitidas y absorbidas por los electrones y por otras partículas en transición.
  69. ^ Wolfson, Simplemente Einstein (WW Norton & Co, 2003), pág. 67.
  70. ^ La teoría gravitacional de Newton en 1687 había postulado un espacio absoluto y un tiempo absoluto . Para ajustarse a la teoría de ondas transversales de la luz de Young en 1804, el espacio se llenó teóricamente con el éter luminífero de Fresnel en 1814. Según la teoría del campo electromagnético de Maxwell de 1865, la luz siempre mantiene una velocidad constante, que, sin embargo, debe ser relativa a algo, aparentemente al éter. Sin embargo, si la velocidad de la luz es constante en relación con el éter, entonces el movimiento de un cuerpo a través del éter sería relativo a la velocidad de la luz (y, por lo tanto, variaría en relación con ella). Incluso la enorme velocidad de la Tierra, multiplicada por el ingenio experimental con un interferómetro por Michelson y Morley en 1887 , no reveló ninguna deriva aparente del éter : la velocidad de la luz aparentemente constante, absoluta. Por lo tanto, tanto la teoría gravitacional de Newton como la teoría electromagnética de Maxwell tenían cada una su propio principio de relatividad, pero las dos eran incompatibles. Para un breve resumen, véase Wilczek, Lightness of Being (Basic Books, 2008), págs. 78-80.
  71. ^ Cordero, EPSA Filosofía de la ciencia (Springer, 2012), págs. 26-28.
  72. ^ Hooper, Éter y gravitación (Chapman & Hall, 1903), págs. 122-23.
  73. ^ ab Lodge (1909). "El éter del espacio". Sci Am Suppl . 67 (1734supp): 202–03. doi :10.1038/scientificamerican03271909-202supp.
  74. ^ Incluso Mach, que rechazaba todas las hipótesis más allá de la experiencia sensorial directa, presumía de la existencia del éter, necesario para que el movimiento no violara el principio fundador de la filosofía mecanicista : No hay interacción instantánea a distancia (Einstein, "Éter", Sidelights (Methuen, 1922), pp. 15-18).
  75. ^ Rowlands, Oliver Lodge (Liverpool UP, 1990), pp. 159-60: " Los experimentos de Lodge con el éter se han convertido en parte del contexto histórico que condujo al establecimiento de la relatividad especial y su importancia se ve generalmente en este contexto. Se afirma que la relatividad especial eliminó tanto el éter como el concepto de movimiento absoluto de la física. Se trataba de dos experimentos: el de Michelson y Morley, que demostró que los cuerpos no se mueven con respecto a un éter estacionario, y el de Lodge, que demostró que los cuerpos en movimiento no arrastran al éter con ellos. Con el énfasis en la relatividad, el experimento de Michelson-Morley ha llegado a ser visto como el más significativo de los dos, y el experimento de Lodge se convierte en algo así como un detalle, una cuestión de eliminar la posibilidad final, y menos probable, de un medio no estacionario, viscoso y omnipresente. Podría argumentarse que puede haber ocurrido casi exactamente lo contrario. El experimento de Michelson-Morley no demostró que no hubiera movimiento absoluto, y no demostró que hubiera movimiento absoluto. "No había ningún éter estacionario. Sus resultados -y la contracción de FitzGerald-Lorentz- se podrían haber predicho con la teoría de Heaviside , o incluso de Maxwell , incluso si nunca se hubiera realizado ningún experimento. La importancia del experimento, aunque considerable, es puramente histórica y de ninguna manera factual. El experimento de Lodge, por otro lado, mostró que, si existía un éter, sus propiedades debían ser bastante diferentes de las imaginadas por los teóricos mecanicistas. El éter que él siempre creyó que existía tuvo que adquirir propiedades completamente nuevas como resultado de este trabajo".
  76. ^ Principalmente Hendrik Lorentz y Henri Poincaré modificaron la teoría electrodinámica y, más o menos, desarrollaron la teoría especial de la relatividad antes que Einstein (Ohanian, Einstein's Mistakes , pp. 281-85). Sin embargo, Einstein, un pensador libre, dio el siguiente paso y la formuló, de manera más elegante, sin éter (Torretti, Philosophy of Physics , p. 180).
  77. ^ ab Tavel, Física contemporánea (Rutgers UP, 2001), págs. [1], 66.
  78. ^ Introducida poco después de que Einstein explicara el movimiento browniano, la relatividad especial se aplica solo en casos de movimiento inercial , es decir, movimiento no acelerado. La inercia es el estado de un cuerpo que no experimenta aceleración, ya sea por cambio de velocidad (ya sea acelerando o desacelerando) o por cambio de dirección, y por lo tanto exhibe velocidad constante , que es velocidad más dirección.
  79. ^ abc Cordero, EPSA Filosofía de la ciencia (Springer, 2012), págs. 29–30.
  80. ^ Para explicar la velocidad absoluta de la luz sin éter, Einstein modeló que un cuerpo en movimiento en un campo electromagnético experimenta contracción de longitud y dilatación del tiempo , que Lorentz y Poincaré ya habían modelado como contracción de Lorentz-FitzGerald y transformación de Lorentz pero hipotetizando estados dinámicos del éter, mientras que la relatividad especial de Einstein era simplemente cinemática , es decir, no postulaba ninguna explicación mecánica causal, simplemente describía posiciones, mostrando así cómo alinear dispositivos de medición, a saber, relojes y varillas. (Ohanian, Einstein's Mistakes , pp. 281-85).
  81. ^ Ohanian, Los errores de Einstein (WW Norton, 2008), págs. 281–85.
  82. ^ La teoría de Newton requería espacio y tiempo absolutos .
  83. ^ Buchen, "29 de mayo de 1919", Wired , 2009.
    Moyer, "Revolución", en Estudios en las Ciencias Naturales (Springer, 1979), pág. 55.
    Melia, Agujero Negro (Princeton UP, 2003), págs. 83–87.
  84. ^ Crelinsten, El jurado de Einstein (Princeton UP, 2006), pág. 28.
  85. ^ abc De 1925 a 1926, independientemente pero casi simultáneamente, Werner Heisenberg así como Erwin Schrödinger desarrollaron la mecánica cuántica (Zee en Feynman, QED , p. xiv). Schrödinger introdujo la mecánica ondulatoria , cuya función de onda se discierne mediante una ecuación diferencial parcial , ahora denominada ecuación de Schrödinger (p. xiv). Heisenberg, quien también enunció el principio de incertidumbre , junto con Max Born y Pascual Jordan introdujeron la mecánica matricial , que hablaba de manera bastante confusa de operadores que actuaban sobre estados cuánticos (p. xiv). Si se toman como explicativos mecánicamente causales , los dos formalismos difieren vivamente, y sin embargo son indiscernibles empíricamente , es decir, cuando no se usan para interpretación , y se toman simplemente como formalismo (p. xv).

    En 1941, en una fiesta en una taberna de Princeton, Nueva Jersey , el físico visitante Herbert Jehle mencionó a Richard Feynman un formalismo diferente sugerido por Paul Dirac , quien desarrolló la notación bra-ket en 1932 (p. xv). Al día siguiente, Feynman completó el enfoque sugerido por Dirac como suma sobre historias o suma sobre caminos o integrales de caminos (p. xv). Feynman bromeaba diciendo que este enfoque, que suma todos los caminos posibles que una partícula podría tomar, como si la partícula en realidad los tomara todos, anulándose a sí mismos excepto por un camino, el más eficiente de la partícula, elimina el principio de incertidumbre (p. xvi). Todos empíricamente equivalentes, el formalismo ondulatorio de Schrödinger, el formalismo matricial de Heisenberg y el formalismo integral de caminos de Feynman incorporan el principio de incertidumbre (p. xvi).

    No hay ninguna barrera particular para formalismos adicionales, que podrían ser, pero simplemente no han sido, desarrollados y ampliamente difundidos (p. xvii). Sin embargo, en una disciplina física particular y en un problema particular, uno de los tres formalismos podría ser más fácil de operar que otros (pp. xvi-xvii). En la década de 1960, el formalismo de la integral de trayectorias prácticamente desapareció de uso, mientras que el formalismo matricial era el "canónico" (p. xvii). En la década de 1970, el formalismo de la integral de trayectorias hizo un "regreso rugiente", se convirtió en el medio predominante para hacer predicciones a partir de la QFT e impulsó a Feynman a un aura de misticismo (p. xviii).
  86. ^ ab Cushing, Mecánica cuántica (U Chicago P, 1994), págs. 113-18.
  87. ^ ab La mecánica ondulatoria de Schrödinger planteó la carga de un electrón esparcida a través del espacio como una forma de onda , posteriormente reinterpretada como el electrón manifestándose a través del espacio de manera probabilística pero en ninguna parte definitivamente mientras que eventualmente construía esa forma de onda determinista. La mecánica matricial de Heisenberg hablaba confusamente de operadores que actuaban sobre estados cuánticos . Richard Feynman introdujo el formalismo de la integral de trayectorias de la mecánica cuántica —interpretable como una partícula que recorre todos los caminos imaginables, se cancela a sí misma, dejando solo uno, el más eficiente— predictivamente idéntico al formalismo matricial de Heisenberg y al formalismo ondulatorio de Schrödinger .
  88. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), págs. 393–95.
  89. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), pág. 394.
  90. ^ abc Torretti, Filosofía de la física (Cambridge UP, 1999), pág. 395.
  91. ^ El reconocimiento de la fuerza fuerte permitió al Proyecto Manhattan diseñar Little Boy y Fat Man , lanzados sobre Japón, mientras que los efectos de la fuerza débil se vieron en sus secuelas —lluvia radiactiva— con diversas consecuencias para la salud.
  92. ^ abcdef Wilczek, "La persistencia del éter", Phys Today , 1999; 52 :11,13, pág. 13.
  93. ^ Las cuatro interacciones fundamentales conocidas son la gravitacional, la electromagnética, la nuclear débil y la nuclear fuerte.
  94. ^ Grandy, Realidad cuántica cotidiana (Indiana UP, 2010), págs. 24-25.
  95. ^ Schweber, QED y los hombres que lo lograron (Princeton UP, 1994).
  96. ^ Feynman, QED (Princeton UP, 2006), pág. 5.
  97. ^ abc Torretti, Filosofía de la física , (Cambridge UP, 1999), págs. 395–96.
  98. ^ abcd Cushing, Mecánica cuántica (U Chicago P, 1994), págs. 158-59.
  99. ^ Close, "Mucho ruido y pocas nueces", Nova , PBS/WGBH, 2012: "Esta nueva visión de la nada desde la mecánica cuántica comenzó a surgir en 1947, cuando Willis Lamb midió el espectro del hidrógeno. El electrón en un átomo de hidrógeno no puede moverse a donde quiera, sino que está restringido a caminos específicos. Esto es análogo a subir una escalera: no se puede terminar en alturas arbitrarias sobre el suelo, solo aquellas en las que hay peldaños para pararse. La mecánica cuántica explica el espaciamiento de los peldaños en la escalera atómica y predice las frecuencias de radiación que se emiten o absorben cuando un electrón cambia de uno a otro. Según el estado del arte en 1947, que suponía que el átomo de hidrógeno consistía solo en un electrón, un protón y un campo eléctrico, dos de estos peldaños tienen energía idéntica. Sin embargo, las mediciones de Lamb mostraron que estos dos peldaños difieren en energía en aproximadamente una parte en un millón. ¿Qué podría estar causando esta pequeña pero significativa diferencia? "Cuando los físicos dibujaron su simple imagen del átomo, habían olvidado Algo: Nada. Lamb se había convertido en la primera persona en observar experimentalmente que el vacío no está vacío, sino que está lleno de electrones efímeros y sus análogos de antimateria, los positrones. Estos electrones y positrones desaparecen casi instantáneamente, pero en su breve efímero momento de existencia alteran ligeramente la forma del campo electromagnético del átomo. Esta interacción momentánea con el electrón dentro del átomo de hidrógeno eleva un peldaño de la escalera un poco más de lo que sería de otra manera.
    "Todo esto es posible porque, en mecánica cuántica, la energía no se conserva en escalas de tiempo muy cortas, o para distancias muy cortas. Más extraño aún, cuanto más precisamente intentas mirar algo -o nada- más dramáticas se vuelven estas fluctuaciones de energía. Combine eso con la E=mc2 de Einstein , que implica que la energía puede solidificarse en forma material, y tiene una receta para partículas que burbujean dentro y fuera de la existencia incluso en el vacío. Este efecto le permitió a Lamb medir literalmente algo a partir de la nada".
  100. ^ abcde
    • Vongehr "El descubrimiento del Higgs rehabilita el despreciado éter de Einstein", Science 2.0 , 2011.
    • Vongehr, Sascha (2009). "Apoyando el espacio-tiempo relacional abstracto como fundamental sin doctrina contraria a la emergencia". arXiv : 0912.3069 [physics.hist-ph].
  101. ^ ab Riesselmann "El concepto de éter en la explicación de las fuerzas", Inquiring Minds , Fermilab , 2008.
  102. ^ Cerrar, "Mucho ruido y pocas nueces", Nova , PBS/WGBH, 2012.
  103. ^ Sobre "ejemplos históricos de teorías empíricamente exitosas que luego resultan ser falsas", Okasha, Philosophy of Science (Oxford UP, 2002), pág. 65, concluye: "Una de las teorías que aún se mantienen es la teoría ondulatoria de la luz, propuesta por primera vez por Christiaan Huygens en 1690. Según esta teoría, la luz consiste en vibraciones ondulatorias en un medio invisible llamado éter, que se suponía que permeaba todo el universo. (La rival de la teoría ondulatoria era la teoría de partículas de la luz, defendida por Newton, que sostenía que la luz consiste en partículas muy pequeñas emitidas por la fuente de luz). La teoría ondulatoria no fue ampliamente aceptada hasta que el físico francés Auguste Fresnel formuló una versión matemática de la teoría en 1815, y la utilizó para predecir algunos fenómenos ópticos nuevos y sorprendentes. Los experimentos ópticos confirmaron las predicciones de Fresnel, convenciendo a muchos científicos del siglo XIX de que la teoría ondulatoria de la luz debía ser cierta. Pero la física moderna nos dice que la teoría no es cierta: no existe nada parecido al éter, por lo que la luz no consiste en vibraciones en él. De nuevo, tenemos un ejemplo de una teoría falsa pero empíricamente exitosa".
  104. ^ Pigliucci, Respuestas para Aristóteles (Basic Books, 2012), pág. 119: "Pero el antirrealista señalará rápidamente que muchas veces en el pasado los científicos han postulado la existencia de inobservables que eran aparentemente necesarios para explicar un fenómeno, sólo para descubrir más tarde que tales inobservables en realidad no existían. Un caso clásico es el éter, una sustancia que los físicos del siglo XIX supusieron que permeaba todo el espacio y hacía posible que la radiación electromagnética (como la luz) se propagara. Fue la teoría especial de la relatividad de Einstein, propuesta en 1905, la que eliminó la necesidad del éter, y el concepto ha sido relegado al basurero de la historia científica desde entonces. Los antirrealistas disfrutarán señalando que la física moderna presenta una serie de entidades igualmente inobservables, desde la "espuma" de la mecánica cuántica hasta la energía oscura , y que la generación actual de científicos parece tan confiada en las dos últimas como lo estaban sus homólogos del siglo XIX en el éter".
  105. ^ Wilczek, Levedad del ser (Basic Books, 2008), págs. 78-80.
  106. ^ Laughlin, Un universo diferente (Basic Books, 2005), págs. 120-21.
  107. ^ desde Einstein, "Éter", Sidelights (Methuen, 1922), págs. 14-18.
  108. ^ El éter de Lorentz estaba en reposo absoluto, actuando sobre la materia, pero no siendo afectado por ella. En su lugar y de forma similar al éter de Ernst Mach , el éter de Einstein es el espacio-tiempo mismo, que es el campo gravitatorio , que recibe movimiento de un cuerpo y lo transmite a otros cuerpos mientras se propaga a la velocidad de la luz, ondulando . Sin embargo, el éter de Einstein no es un sistema de referencia privilegiado , no se le debe asignar un estado de movimiento absoluto o reposo absoluto.
  109. ^ La teoría de la relatividad comprende tanto la relatividad especial (RE) como la relatividad general (RG). La RE, que se aplica a los sistemas de referencia inerciales, es un caso limitado de la RG, que se aplica a todos los sistemas de referencia, tanto inerciales como acelerados. En la RG, todo movimiento (inercial, acelerado o gravitacional) es consecuencia de la geometría del espacio tridimensional estirado sobre el eje unidimensional del tiempo. En la RG, ninguna fuerza distingue la aceleración de la inercia. El movimiento inercial es consecuencia simplemente de la geometría uniforme del espacio-tiempo, la aceleración es consecuencia simplemente de la geometría no uniforme del espacio-tiempo y la gravitación es simplemente aceleración.
  110. ^ ab Laughlin, A Different Universe (Basic Books, 2005), pp. 120-21: "La palabra 'éter' tiene connotaciones extremadamente negativas en la física teórica debido a su asociación pasada con la oposición a la relatividad. Esto es desafortunado porque, despojado de estas connotaciones, captura bastante bien la forma en que la mayoría de los físicos realmente piensan sobre el vacío. ... La relatividad en realidad no dice nada sobre la existencia o no existencia de materia que impregna el universo, solo que cualquier materia de ese tipo debe tener simetría relativista. Resulta que esa materia existe. Aproximadamente en la época en que la relatividad estaba siendo aceptada, los estudios de radiactividad comenzaron a mostrar que el vacío vacío del espacio tenía una estructura espectroscópica similar a la de los sólidos y fluidos cuánticos ordinarios. Estudios posteriores con grandes aceleradores de partículas ahora nos han llevado a comprender que el espacio se parece más a un trozo de vidrio de ventana que al vacío newtoniano ideal. Está lleno de 'cosas' que normalmente son transparentes pero que se pueden hacer visibles al golpearlas lo suficientemente fuerte como para dejar sin aliento a un niño. Parte. El concepto moderno del vacío del espacio, confirmado cada día por la experimentación, es un éter relativista. Pero no lo llamamos así porque es un tabú".
  111. ^ En el espacio-tiempo 4D de Einstein, el espacio 3D se estira sobre el eje 1D del flujo del tiempo, que se desacelera mientras el espacio se contrae adicionalmente en la proximidad de la masa o la energía.
  112. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), pág. 180.
  113. ^ Como teoría de campo efectiva, una vez ajustada a dominios particulares, el Modelo Estándar es predictivamente preciso hasta una cierta y vasta escala de energía que es un punto de corte, a partir de la cual emergerían fenómenos más fundamentales que regulan los fenómenos modelados de la teoría efectiva. (Burgess y Moore, Standard Model , pág. xi; Wells, Effective Theories , págs. 55-56).
  114. ^ abc Torretti, Filosofía de la física (Cambridge UP, 1999), pág. 396.
  115. ^ abc Jegerlehner, F. (2014). "El modelo estándar como una teoría efectiva de baja energía: ¿qué está desencadenando el mecanismo de Higgs?". Acta Physica Polonica B . 45 (6): 1167. arXiv : 1304.7813 . Bibcode :2014AcPPB..45.1167J. doi :10.5506/APhysPolB.45.1167. S2CID  53137906. Entendemos el SM como una emergencia efectiva de baja energía de algún sistema físico desconocido —podemos llamarlo 'éter'— que se encuentra en la escala de Planck con la longitud de Planck como una escala de longitud 'microscópica'. Nótese que el límite de corte, aunque muy grande, en cualquier caso es finito.
  116. ^ ab Wilczek, Lightness of Being (Basic Books, 2008), cap. 8 "The grid (persisence of ether)", p. 73: "Para la filosofía natural, la lección más importante que aprendemos de la QCD es que lo que percibimos como espacio vacío es en realidad un medio poderoso cuya actividad moldea el mundo. Otros desarrollos en la física moderna refuerzan y enriquecen esa lección. Más adelante, a medida que exploremos las fronteras actuales, veremos cómo el concepto de espacio 'vacío' como un medio rico y dinámico potencia nuestro mejor pensamiento sobre cómo lograr la unificación de fuerzas".
  117. ^ La equivalencia masa-energía se formaliza en la ecuación E=mc 2 .
  118. ^ Einstein, "Éter", Sidelights (Methuen, 1922), pág. 13: "[S]egún la teoría especial de la relatividad, tanto la materia como la radiación no son más que formas especiales de energía distribuida, en las que la masa ponderable pierde su aislamiento y aparece como una forma especial de energía".
  119. ^ Braibant, Giacomelli & Spurio, Partículas e interacciones fundamentales (Springer, 2012), p. 2: "Cualquier partícula puede crearse en colisiones entre dos partículas de alta energía gracias a un proceso de transformación de energía en masa".
  120. ^ Brian Greene explicó: "La gente a menudo tiene una imagen equivocada de lo que sucede dentro del LHC , y yo soy tan culpable como cualquiera de perpetuarla. La máquina no hace chocar partículas para pulverizarlas y ver qué hay dentro. Más bien, las hace colisionar a una energía extremadamente alta. Dado que, en virtud de la famosa ecuación de Einstein, E=mc2 , la energía y la masa son una y la misma, la energía combinada de la colisión se puede convertir en una masa, en otras palabras, una partícula, que es más pesada que cualquiera de los protones en colisión . Cuanto más energía esté involucrada en la colisión, más pesadas serán las partículas que podrían surgir" [Avent, "The Q&A", Economist , 2012].
  121. ^ abc Kuhlmann, "Los físicos debaten", Sci Am , 2013.
  122. ^ Mientras que los Principia de Newton inferían el espacio absoluto y el tiempo absoluto, omitieron un éter y, por la ley de gravitación universal de Newton , formalizaron la acción a distancia —una supuesta fuerza de gravitación que abarcaba todo el universo instantáneamente—, el trabajo posterior de Newton, Optiks, introdujo un éter que unía la materia de los cuerpos, pero más denso fuera de los cuerpos y, no distribuido uniformemente en todo el espacio, en algunos lugares condensado, por lo que los "espíritus etéreos" mediaban la electricidad, el magnetismo y la gravitación. (Whittaker, A History of Theories of Aether and Electricity [Una historia de las teorías del éter y la electricidad] (Longmans, Green & Co: 1910), pp. 17-18)
  123. ^ Norton, "La causalidad como ciencia popular", en Price y Corry, eds., Causación madura, física y la constitución de la realidad (Oxford UP, 2007), esp. p. 12.
  124. ^ Fetzer, cap. 3, en Fetzer, ed., Ciencia, explicación y racionalidad (Oxford UP, 2000), pág. 111.

Fuentes

Lectura adicional