stringtranslate.com

Modelo deductivo-nomológico

El modelo deductivo- nomológico ( modelo DN ) de explicación científica, también conocido como modelo de Hempel , modelo de Hempel- Oppenheim , modelo de Popper -Hempel o modelo de ley de cobertura , es una visión formal de responder científicamente preguntas como "¿Por qué?". ..?". El modelo DN plantea la explicación científica como una estructura deductiva , en la que la verdad de sus premisas implica la verdad de su conclusión, basada en una predicción o posdicción precisa del fenómeno que se va a explicar.

Debido a problemas relacionados con la capacidad de los humanos para definir, descubrir y conocer la causalidad , esto se omitió en las formulaciones iniciales del modelo DN. Se pensaba que la causalidad se aproximaba incidentalmente mediante una selección realista de premisas que derivan el fenómeno de interés a partir de las condiciones iniciales observadas más las leyes generales . Aun así, el modelo DN permitía formalmente factores causalmente irrelevantes. Además, la derivabilidad a partir de observaciones y leyes a veces arrojaba respuestas absurdas.

Cuando el empirismo lógico cayó en desgracia en la década de 1960, el modelo DN fue ampliamente visto como un modelo de explicación científica defectuoso o muy incompleto. No obstante, siguió siendo una versión idealizada de la explicación científica y bastante precisa cuando se aplicaba a la física moderna . A principios de la década de 1980, una revisión del modelo DN enfatizó la máxima especificidad para la relevancia de las condiciones y axiomas establecidos. Junto con el modelo estadístico inductivo de Hempel , el modelo DN forma el modelo legal que cubre la explicación científica , que también se denomina, desde un punto de vista crítico, teoría de la subsunción .

Forma

El término deductivo distingue el determinismo pretendido del modelo DN del probabilismo de las inferencias inductivas . [1] El término nomológico se deriva de la palabra griega νόμος o nomos , que significa "ley". [1] El modelo DN sostiene una visión de la explicación científica cuyas condiciones de adecuación (CA), semiformales pero expresadas de manera clásica, son derivabilidad (CA1), legalidad (CA2), contenido empírico (CA3) y verdad (CA4). [2]

En el modelo DN, una ley axiomatiza una generalización irrestricta del antecedente A al consecuente B mediante una proposición condicional ( Si A, entonces B ) y tiene contenido empírico comprobable. [3] Una ley se diferencia de la mera regularidad verdadera (por ejemplo, George siempre lleva sólo billetes de 1 dólar en su billetera ) al respaldar afirmaciones contrafactuales y, por lo tanto, sugerir lo que debe ser cierto, [4] mientras se sigue de la estructura axiomática de una teoría científica. [5]

El fenómeno a explicar es el explanandum —un acontecimiento, ley o teoría— , mientras que las premisas para explicarlo son explanans , verdaderos o altamente confirmados, que contienen al menos una ley universal e implican el explanandum. [6] [7] Así, dados los explanans como condiciones iniciales, específicas C 1 , C 2 . . . C n más leyes generales L 1 , L 2 . . . L n , el fenómeno E como explanandum es una consecuencia deductiva, por lo que se explica científicamente. [6]

Raíces

La explicación científica de Aristóteles en Física se asemeja al modelo DN, una forma idealizada de explicación científica. [7] El marco de la física aristotélica –la metafísica aristotélica– reflejaba la perspectiva de este biólogo principalmente, quien, en medio de la innegable finalidad de las entidades vivientes, formalizó el vitalismo y la teleología , una moralidad intrínseca en la naturaleza. [8] Sin embargo, con el surgimiento del copernicanismo , Descartes introdujo la filosofía mecanicista , luego Newton planteó rigurosamente una explicación legal, evitando tanto Descartes como especialmente Newton la teleología dentro de la filosofía natural . [9] En 1740, David Hume [10] apostó el tenedor de Hume , [11] destacó el problema de la inducción , [12] y encontró que los humanos ignoraban la causalidad necesaria o suficiente. [13] [14] Hume también destacó la brecha entre hecho y valor , ya que lo que es no revela en sí mismo lo que debería . [15]

Cerca de 1780 , contrarrestando el empirismo ostensiblemente radical de Hume , Immanuel Kant destacó el racionalismo extremo —como el de Descartes o Spinoza— y buscó un término medio. Al inferir que la mente organiza la experiencia del mundo en sustancia , espacio y tiempo , Kant colocó la mente como parte de la constelación causal de la experiencia y, por lo tanto, encontró que la teoría del movimiento de Newton era universalmente verdadera, [16] pero el conocimiento de las cosas en sí mismas era imposible. [14] Salvaguardando la ciencia , Kant la despojó paradójicamente de realismo científico . [14] [17] [18] Abortando la misión inductivista de Francis Bacon de disolver el velo de la apariencia para descubrir los noúmenos ( visión metafísica de las verdades últimas de la naturaleza), el idealismo trascendental de Kant encargó a la ciencia simplemente modelar patrones de fenómenos . Salvaguardando también la metafísica, encontró que las constantes del espíritu contenían también verdades morales universales [ 19] y lanzó el idealismo alemán .

Auguste Comte consideró que el problema de la inducción era bastante irrelevante, ya que la inducción enumerativa se basa en el empirismo disponible, mientras que el objetivo de la ciencia no es la verdad metafísica. Comte descubrió que el conocimiento humano había evolucionado de lo teológico a lo metafísico y luego a lo científico (la etapa final), rechazando tanto la teología como la metafísica por plantear preguntas sin respuesta y plantear respuestas no verificables. En la década de 1830, Comte expuso el positivismo (la primera filosofía moderna de la ciencia y, simultáneamente, una filosofía política [20]) , rechazando las conjeturas sobre los inobservables y, por tanto, la búsqueda de causas . [21] El positivismo predice observaciones, confirma las predicciones y establece una ley , que luego se aplica en beneficio de la sociedad humana. [22] Desde finales del siglo XIX hasta principios del siglo XX, la influencia del positivismo se extendió por todo el mundo. [20] Mientras tanto, la selección natural de la teoría de la evolución llevó la Revolución Copérnica a la biología y desembocó en la primera alternativa conceptual al vitalismo y la teleología . [8]

Crecimiento

Mientras que el positivismo comteano planteaba la ciencia como descripción , el positivismo lógico surgió a finales de la década de 1920 y planteaba la ciencia como explicación , tal vez para unificar mejor las ciencias empíricas al abarcar no sólo la ciencia fundamental (es decir, la física fundamental ), sino también las ciencias especiales , como la biología. psicología, economía y antropología . [23] Después de la derrota del nacionalsocialismo con el fin de la Segunda Guerra Mundial en 1945, el positivismo lógico pasó a una variante más suave, el empirismo lógico . [24] Todas las variantes del movimiento, que duró hasta 1965, son neopositivismo, [25] compartiendo la búsqueda del verificacionismo . [26]

Los neopositivistas lideraron el surgimiento de la subdisciplina de la filosofía, la filosofía de la ciencia , investigando tales cuestiones y aspectos de la teoría y el conocimiento científicos. [24] El realismo científico toma las afirmaciones de la teoría científica al pie de la letra , concediéndoles así falsedad o verdad: probable, aproximada o real. [17] Los neopositivistas sostenían el antirrealismo científico como instrumentalismo , sosteniendo la teoría científica simplemente como un dispositivo para predecir las observaciones y su curso, mientras que las declaraciones sobre los aspectos no observables de la naturaleza son más bien elípticas o metafóricas de sus aspectos observables. [27]

El modelo DN recibió su declaración más detallada e influyente por parte de Carl G. Hempel , primero en su artículo de 1942 "La función de las leyes generales en la historia", y más explícitamente con Paul Oppenheim en su artículo de 1948 "Estudios en la lógica de la explicación". [28] [29] Hempel, destacado empirista lógico, adoptó la visión empirista humeana de que los humanos observan la secuencia de eventos sensoriales, no la causa y el efecto, [23] ya que las relaciones causales y los mecanismos casuales son inobservables. [30] El modelo DN pasa por alto la causalidad más allá de la mera conjunción constante : primero un evento como A , luego siempre un evento como B. [23]

Hempel consideraba que las leyes naturales (regularidades confirmadas empíricamente) eran satisfactorias y, si se incluían de manera realista, aproximaban la causalidad. [6] En artículos posteriores, Hempel defendió el modelo DN y propuso una explicación probabilística mediante el modelo estadístico inductivo (modelo IS). [6] El modelo DN y el modelo IS, donde la probabilidad debe ser alta, como al menos el 50% [31] , forman juntos el modelo de ley que cubre , [6] como lo nombró un crítico, William Dray . [32] La derivación de leyes estadísticas a partir de otras leyes estadísticas se realiza mediante el modelo estadístico deductivo (modelo DS). [31] [33] Georg Henrik von Wright , otro crítico, nombró a la teoría de la subsunción de la totalidad . [34]

Rechazar

En medio del fracaso de los principios fundamentales del neopositivismo , [35] Hempel abandonó en 1965 el verificacionismo, señalando la desaparición del neopositivismo. [36] A partir de 1930, Karl Popper atacó el positivismo, aunque, paradójicamente, comúnmente se confundía a Popper con un positivista. [37] [38] Incluso el libro de Popper de 1934 [39] adopta el modelo DN, [7] [28] ampliamente aceptado como modelo de explicación científica mientras la física siguió siendo el modelo de ciencia examinado por los filósofos de la ciencia. [30] [40]

En la década de 1940, llenando el vasto vacío observacional entre la citología [41] y la bioquímica , [42] surgió la biología celular [43] y estableció la existencia de orgánulos celulares además del núcleo . Lanzado a finales de la década de 1930, el programa de investigación de biología molecular descifró un código genético a principios de la década de 1960 y luego convergió con la biología celular como biología celular y molecular ; sus avances y descubrimientos desafiaron el modelo DN al llegar en busca no de una explicación legal sino de mecanismos causales. . [30] La biología se convirtió en un nuevo modelo de ciencia, mientras que las ciencias especiales ya no se consideraban defectuosas por carecer de leyes universales, como las que sostiene la física. [40]

En 1948, al explicar el modelo DN y establecer las condiciones semiformales de adecuación de la explicación científica , Hempel y Oppenheim reconocieron la redundancia del tercer contenido empírico , implícito en los otros tres: derivabilidad , legalidad y verdad . [2] A principios de la década de 1980, ante la opinión generalizada de que la causalidad garantiza la relevancia de los explanans, Wesley Salmon pidió devolver la causa a porque , [44] y junto con James Fetzer ayudó a reemplazar el contenido empírico de CA3 con la estricta especificidad máxima de CA3 . [45]

Salmon introdujo la explicación mecánica causal , sin aclarar nunca cómo procede, pero reviviendo el interés de los filósofos por ella. [30] A través de las deficiencias del modelo estadístico inductivo de Hempel (modelo IS), Salmon introdujo el modelo de relevancia estadística (modelo SR). [7] Aunque el modelo DN siguió siendo una forma idealizada de explicación científica, especialmente en las ciencias aplicadas , [7] la mayoría de los filósofos de la ciencia consideran que el modelo DN es defectuoso al excluir muchos tipos de explicaciones generalmente aceptadas como científicas. [33]

Fortalezas

Como teoría del conocimiento, la epistemología se diferencia de la ontología , que es una subrama de la metafísica , teoría de la realidad. [46] La ontología propone categorías de ser (qué tipo de cosas existen) y, por tanto, aunque el compromiso ontológico de una teoría científica puede modificarse a la luz de la experiencia, un compromiso ontológico precede inevitablemente a la investigación empírica. [46]

Las leyes naturales , así llamadas, son declaraciones de observaciones humanas, por lo que son epistemológicas (relativas al conocimiento humano), epistémicas . Los mecanismos y estructuras causales que existen supuestamente independientemente de las mentes existen, o existirían, en la estructura misma del mundo natural y, por lo tanto, son ontológicos, lo óntico . Confundir lo epistémico con lo óntico –como suponer incautamente que una ley natural se refiere a un mecanismo causal, o rastrear estructuras de manera realista durante transiciones no observadas, o ser regularidades verdaderas y siempre invariables– tiende a generar un error de categoría . [47] [48]

Al descartar los compromisos ónticos, incluida la causalidad per se , el modelo DN permite que las leyes de una teoría se reduzcan a (es decir, se subsuman) a las leyes de una teoría más fundamental. Las leyes de la teoría superior se explican en el modelo DN por las leyes de la teoría inferior. [5] [6] Por lo tanto, el éxito epistémico de la ley de la gravitación universal de la teoría newtoniana se reduce a (así explicada por) la teoría general de la relatividad de Albert Einstein , aunque Einstein descarta la afirmación óntica de Newton de que el éxito epistémico de la gravitación universal al predecir las leyes de Kepler El movimiento planetario [49] se produce a través de un mecanismo causal de una fuerza directamente atractiva que atraviesa instantáneamente el espacio absoluto a pesar del tiempo absoluto .

El modelo de ley que lo cubre refleja la visión del neopositivismo de la ciencia empírica , una visión que interpreta o presupone la unidad de la ciencia , según la cual todas las ciencias empíricas son ciencias fundamentales (es decir, física fundamental ) o ciencias especiales , ya sea astrofísica , química, biología, geología , etc. psicología, economía, etc. [40] [50] [51] Todas las ciencias especiales se conectarían a través del modelo de ley de cobertura. [52] Y al establecer condiciones límite mientras se proporcionan leyes puente , cualquier ley especial se reduciría a una ley especial inferior, reduciéndose en última instancia (teóricamente aunque generalmente no en la práctica) a ciencia fundamental. [53] [54] ( Las condiciones de contorno son condiciones específicas mediante las cuales ocurren los fenómenos de interés. Las leyes puente traducen términos de una ciencia en términos de otra ciencia). [53] [54]

Debilidades

Según el modelo DN, si uno pregunta: "¿Por qué esa sombra mide 20 pies de largo?", otro puede responder: "Porque el asta de la bandera mide 15 pies de alto, el Sol está en el ángulo x y las leyes del electromagnetismo ". [6] Sin embargo, por problema de simetría, si uno preguntara: "¿Por qué el asta de la bandera mide 15 pies de alto?", otro podría responder: "Debido a que esa sombra mide 20 pies de largo, el Sol está en un ángulo x y las leyes del electromagnetismo". , también una deducción de condiciones observadas y leyes científicas, pero una respuesta claramente incorrecta. [6] Ante el problema de la irrelevancia, si uno pregunta: "¿Por qué ese hombre no quedó embarazada?", uno podría responder en parte, entre los explicantes, "Porque tomó píldoras anticonceptivas", si de hecho las tomó, y la ley que previene el embarazo, como modelo de ley que cubre, no plantea ninguna restricción que impida esa observación a los explanans.

Muchos filósofos han llegado a la conclusión de que la causalidad es parte integral de la explicación científica. [55] El modelo DN ofrece una condición necesaria para una explicación causal (predicción exitosa), pero no condiciones suficientes para una explicación causal, ya que una regularidad universal puede incluir relaciones espurias o correlaciones simples, por ejemplo, Z siempre sigue a Y , pero no Z debido a Y. , en lugar de Y y luego Z como efecto de X . [55] Al relacionar la temperatura, la presión y el volumen de gas dentro de un recipiente, la ley de Boyle permite la predicción de una variable desconocida (volumen, presión o temperatura), pero no explica por qué esperar eso a menos que se agregue, tal vez, la teoría cinética. de gases . [55] [56]

Las explicaciones científicas plantean cada vez más no las leyes universales del determinismo , sino las leyes del azar del probabilismo , [57] ceteris paribus . [40] La contribución del tabaquismo al cáncer de pulmón falla incluso en el modelo estadístico inductivo (modelo IS), que requiere una probabilidad superior a 0,5 (50%). [58] (La probabilidad varía de 0 (0%) a 1 (100%).) La epidemiología , una ciencia aplicada que utiliza estadísticas en busca de asociaciones entre eventos, no puede mostrar causalidad, pero encontró consistentemente una mayor incidencia de cáncer de pulmón en fumadores. versus no fumadores similares, aunque la proporción de fumadores que desarrollan cáncer de pulmón es modesta. [59] Sin embargo, frente a los no fumadores, los fumadores como grupo mostraron más de 20 veces más riesgo de cáncer de pulmón y, junto con la investigación básica , se llegó al consenso de que el tabaquismo había sido explicado científicamente como una causa de cáncer de pulmón, [60] responsable de algunos casos que sin fumar no habrían ocurrido, [59] una causalidad contrafactual probabilística. [61] [62]

Acción de cobertura

A través de una explicación similar a una ley, la física fundamental , a menudo percibida como una ciencia fundamental , ha procedido a través de la relación entre teorías y la reducción de teorías, resolviendo así paradojas experimentales con gran éxito histórico, [63] asemejándose al modelo de ley de cobertura. [64] A principios del siglo XX, Ernst Mach y Wilhelm Ostwald se habían resistido a la reducción de la termodinámica por parte de Ludwig Boltzmann (y por tanto a la ley de Boyle [65] ) a la mecánica estadística, en parte porque se basaba en la teoría cinética de los gases , [56] sobre la teoría atómica/molecular de la materia . [66] Tanto Mach como Ostwald veían la materia como una variante de la energía y las moléculas como ilusiones matemáticas, [66] como incluso Boltzmann creía posible. [67]

En 1905, mediante la mecánica estadística, Albert Einstein predijo el fenómeno del movimiento browniano , inexplicable desde que lo informó en 1827 el botánico Robert Brown . [66] Pronto, la mayoría de los físicos aceptaron que los átomos y las moléculas eran inobservables pero reales. [66] También en 1905, Einstein explicó la energía del campo electromagnético distribuida en partículas , algo que se puso en duda hasta que esto ayudó a resolver la teoría atómica en las décadas de 1910 y 1920. [68] Mientras tanto, todos los fenómenos físicos conocidos eran gravitacionales o electromagnéticos , [69] cuyas dos teorías estaban desalineadas. [70] Sin embargo, la creencia en el éter como fuente de todos los fenómenos físicos era prácticamente unánime. [71] [72] [73] [74] En paradojas experimentales, [75] los físicos modificaron las propiedades hipotéticas del éter. [76]

Al considerar que el éter luminífero era una hipótesis inútil, [77] Einstein en 1905 unificó a priori todos los sistemas de referencia inerciales para enunciar el principio especial de la relatividad, [78] que, al omitir el éter, [79] convertía el espacio y el tiempo en fenómenos relativos cuya relatividad alineaba Electrodinámica con el principio newtoniano Relatividad o invariancia galileana . [63] [80] Originalmente epistémico o instrumental , esto se interpretó como óntico o realista —es decir, una explicación mecánica causal— y el principio se convirtió en una teoría , [81] refutando la gravitación newtoniana. [79] [82] Gracias al éxito predictivo en 1919 , la relatividad general aparentemente derrocó la teoría de Newton , una revolución en la ciencia [83] resistida por muchos pero que se cumplió alrededor de 1930. [84]

En 1925, Werner Heisenberg y Erwin Schrödinger formalizaron de forma independiente la mecánica cuántica (QM). [85] [86] A pesar de las explicaciones contradictorias, [86] [87] las dos teorías hicieron predicciones idénticas. [85] El modelo del electrón de Paul Dirac de 1928 se ajustó a la relatividad especial , lanzando la QM a la primera teoría cuántica de campos (QFT), la electrodinámica cuántica (QED). [88] A partir de él, Dirac interpretó y predijo la antipartícula del electrón , pronto descubierta y denominada positrón , [89] pero el QED falló en la electrodinámica a altas energías. [90] En otros lugares y en otros lugares, se descubrieron la fuerza nuclear fuerte y la fuerza nuclear débil . [91]

En 1941, Richard Feynman introdujo el formalismo integral de trayectoria de QM , que si se interpreta como un modelo mecánico causal choca con el formalismo matricial de Heisenberg y con el formalismo ondulatorio de Schrödinger , [87] aunque los tres son empíricamente idénticos y comparten predicciones. [85] A continuación, trabajando en QED, Feynman buscó modelar partículas sin campos y encontrar el vacío verdaderamente vacío. [92] Como cada fuerza fundamental conocida [93] es aparentemente un efecto de un campo, Feynman fracasó. [92] La dualidad onda-partícula de Louis de Broglie había hecho insostenible el atomismo (partículas indivisibles en un vacío) y resaltaba la noción misma de partículas discontinuas como contradictoria en sí misma. [94]

Reunidos en 1947, Freeman Dyson , Richard Feynman , Julian Schwinger y Sin-Itiro Tomonaga pronto introdujeron la renormalización , un procedimiento que convierte la QED en la teoría de la física más predictivamente precisa, [90] [95] subsumiendo la química , la óptica y la mecánica estadística . [63] [96] La QED ganó así la aceptación general de los físicos. [97] Paul Dirac criticó su necesidad de renormalización por mostrar su falta de naturalidad, [97] y pidió un éter. [98] En 1947, Willis Lamb había descubierto un movimiento inesperado de los orbitales de los electrones , desplazados ya que el vacío no está realmente vacío. [99] Sin embargo, el vacío era pegadizo, aboliendo el éter conceptualmente, y la física procedió ostensiblemente sin él, [92] incluso suprimiéndolo. [98] Mientras tanto, "asqueados por las matemáticas desordenadas, la mayoría de los filósofos de la física tienden a descuidar la QED". [97]

Los físicos han temido incluso mencionar el éter , [100] rebautizado como vacío , [98] [101] que, como tal, es inexistente. [98] [102] Los filósofos generales de la ciencia comúnmente creen que el éter, más bien, es ficticio, [103] "relegado al basurero de la historia científica desde que" 1905 trajo la relatividad especial . [104] Einstein no se comprometió con la inexistencia del éter, [77] simplemente dijo que era superfluo. [79] Sin embargo, al abolir el movimiento newtoniano por la primacía electrodinámica, Einstein inadvertidamente reforzó el éter, [105] y para explicar el movimiento se remitió al éter en la relatividad general . [106] [107] [108] Sin embargo, la resistencia a la teoría de la relatividad [109] se asoció con teorías anteriores del éter, cuya palabra y concepto se convirtieron en tabú. [110] Einstein explicó la compatibilidad de la relatividad especial con un éter, [107] pero el éter de Einstein también se opuso. [100] Los objetos pasaron a ser concebidos como fijados directamente en el espacio y el tiempo [111] mediante relaciones geométricas abstractas que carecían de un medio fantasmal o fluido. [100] [112]

En 1970, la QED junto con el campo nuclear débil se redujo a la teoría electrodébil (EWT), y el campo nuclear fuerte se modeló como cromodinámica cuántica (QCD). [90] Compuesto por EWT, QCD y el campo de Higgs , este modelo estándar de física de partículas es una "teoría efectiva", [113] no verdaderamente fundamental. [114] [115] Como las partículas de QCD se consideran inexistentes en el mundo cotidiano, [92] QCD sugiere especialmente un éter, [116] que los experimentos de física rutinariamente encuentran que existe y exhibe simetría relativista. [110] La confirmación de la partícula de Higgs , modelada como una condensación dentro del campo de Higgs , corrobora el éter, [100] [115] aunque la física no necesita declarar ni incluir el éter. [100] Al organizar las regularidades de las observaciones , como en el modelo de ley de cobertura, los físicos consideran superflua la búsqueda de descubrir el éter . [64]

En 1905, de la relatividad especial , Einstein dedujo la equivalencia masa-energía , [117] las partículas son formas variantes de energía distribuida, [118] cómo las partículas que chocan a gran velocidad experimentan la transformación de esa energía en masa, produciendo partículas más pesadas, [119] aunque los físicos 'La conversación promueve la confusión. [120] Como "el lugar contemporáneo de la investigación metafísica ", las QFT plantean que las partículas no existen individualmente, sino como modos de excitación de campos, [114] [121] las partículas y sus masas son estados de éter, [92] aparentemente unificando todos los fenómenos físicos como la realidad causal más fundamental, [101] [115] [116] como se previó hace mucho tiempo. [73] Sin embargo, un campo cuántico es una abstracción intrincada, un campo matemático , prácticamente inconcebible como las propiedades físicas de un campo clásico . [121] Los aspectos más profundos de la naturaleza, aún desconocidos, podrían eludir cualquier posible teoría de campo. [114] [121]

Aunque el descubrimiento de la causalidad es popularmente el objetivo de la ciencia, su búsqueda fue rechazada por el programa de investigación newtoniano , [14] incluso más newtoniano que Isaac Newton . [92] [122] A estas alturas, la mayoría de los físicos teóricos infieren que las cuatro interacciones fundamentales conocidas se reducirían a la teoría de supercuerdas , según la cual los átomos y las moléculas, después de todo, son vibraciones de energía que mantienen formas matemáticas y geométricas. [63] Dadas las incertidumbres del realismo científico , [18] algunos concluyen que el concepto de causalidad aumenta la comprensibilidad de la explicación científica y, por lo tanto, es ciencia popular clave , pero compromete la precisión de la explicación científica y se abandona a medida que la ciencia madura. [123] Incluso la epidemiología está madurando para prestar atención a las graves dificultades que plantean las presunciones sobre la causalidad. [14] [57] [59] La cobertura del modelo de derecho se encuentra entre las contribuciones admiradas de Carl G Hempel a la filosofía de la ciencia . [124]

Ver también

Tipos de inferencia

Temas relacionados

Notas

  1. ^ ab Woodward, "Explicación científica", §2 "El modelo DN", en SEP , 2011.
  2. ^ ab James Fetzer, capítulo 3 "Las paradojas de la explicación hempeliana", en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p.113.
  3. ^ Montuschi, Objetos en las ciencias sociales (Continuum, 2003), págs.
  4. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 2, subcap "Modelo de explicación DN y modelo HD de desarrollo teórico", págs.
  5. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 2, subcap "Relación axiomática de las teorías", págs.
  6. ^ abcdefgh Suppe, "Epílogo — 1977", "Introducción", §1 "Canto del cisne para el positivismo", §1A "Explicación y reducción interteórica", págs. 619-24, en Suppe, ed, Estructura de las teorías científicas, 2ª ed. ( U Illinois P, 1977).
  7. ^ abcde Kenneth F Schaffner, "Explicación y causalidad en las ciencias biomédicas", págs. 79-125, en Laudan, ed, Mind and Medicine (U California P, 1983), pág.81.
  8. ^ ab G Montalenti, capítulo 2 "De Aristóteles a Demócrito vía Darwin", en Ayala & Dobzhansky, eds, Estudios de Filosofía de la Biología (U California P, 1974).
  9. ^ En el siglo XVII, Descartes e Isaac Newton creían firmemente en Dios como diseñador de la naturaleza y, por lo tanto, creían firmemente en la finalidad natural, pero descubrieron que la teleología estaba fuera de la investigación científica (Bolotin, Approach to Aristotle's Physics , págs. 31-33). . Hacia 1650, al formalizar el heliocentrismo y lanzar la filosofía mecanicista , la física cartesiana derrocó al geocentrismo y a la física aristotélica. En la década de 1660, Robert Boyle buscó elevar la química como una nueva disciplina a partir de la alquimia. Newton buscó más especialmente las leyes de la naturaleza -simplemente las regularidades de los fenómenos- mediante las cuales la física newtoniana , reduciendo la ciencia celestial a ciencia terrestre, expulsó de la física el vestigio de la metafísica aristotélica, desconectando así la física y la alquimia/química, que luego siguió su propio curso. produciendo química alrededor de 1800.
  10. ^ Los apodos para los principios atribuidos a Hume ( tenedor de Hume , problema de inducción , ley de Hume ) no fueron creados por Hume, sino por filósofos posteriores que los etiquetaron para facilitar la referencia.
  11. ^ Según el tenedor de Hume, las verdades de las matemáticas y la lógica como ciencias formales son universales a través de "relaciones de ideas", verdades simplemente abstractas, por lo que se pueden conocer sin experiencia . Por otro lado, las verdades proclamadas por las ciencias empíricas dependen de "los hechos y la existencia real", cognoscibles sólo mediante la experiencia . En la bifurcación de Hume, las dos categorías nunca se cruzan. Cualquier tratado que no contenga ninguno de los dos puede contener sólo "sofística e ilusión". (Voló, Diccionario , "El tenedor de Hume", p. 156).
  12. ^ Sin estar al tanto de las necesidades o imposibilidades del mundo, sino por la fuerza del hábito o la naturaleza mental, los humanos experimentan una secuencia de eventos sensoriales, encuentran una conjunción aparentemente constante , hacen la generalización ilimitada de una inducción enumerativa y la justifican presumiendo uniformidad de la naturaleza . Así, los humanos intentan justificar una inducción menor añadiendo una inducción mayor, lógicamente inválida y no verificada por la experiencia: el problema de la inducción : cómo los humanos suponen irracionalmente el descubrimiento de la causalidad. (Chakraborti, Lógica , p. 381; Flew, Diccionario , "Hume", p. 156.
  13. ^ Para discusiones más discursivas sobre tipos de causalidad (necesaria, suficiente, necesaria y suficiente, componente, componente suficiente, contrafactual ), consulte Rothman & Greenland, Parascandola & Weed, así como Kundi. Lo siguiente es una aclaración más directa:

    una causa necesaria es una condición causal requerida para que ocurra un evento. Una causa suficiente es una condición causal completa para producir un evento. Sin embargo, lo necesario no siempre es suficiente, ya que podrían ser necesarios otros factores casuales (es decir, otras causas componentes ) para producir el evento. Por el contrario, una causa suficiente no siempre es una causa necesaria, ya que diferentes causas suficientes también podrían producir el evento. En sentido estricto, una causa suficiente no puede ser un solo factor, ya que cualquier factor causal debe actuar casualmente a través de muchos otros factores. Y aunque pueda existir una causa necesaria, los humanos no pueden verificarla, ya que no pueden verificar todos los estados posibles de las cosas. (El lenguaje puede enunciar la causalidad necesaria como una tautología —un enunciado cuya disposición de los términos y significados hacen que sea lógicamente verdadero por mera definición— que, como enunciado analítico , no es informativo sobre el mundo real. Un enunciado que se refiere al mundo real y es contingente a él. realidades es más bien una afirmación sintética .)

    Causalidad suficiente es más bien una causalidad componente suficiente —un conjunto completo de causas componentes que interactúan dentro de una constelación causal— que, sin embargo, está más allá de la capacidad de los humanos para descubrirla plenamente. Sin embargo, los humanos tienden intuitivamente a concebir la causalidad como necesaria y suficiente (un factor único a la vez requerido y completo), la única causa, la causa. Así se puede ver cómo se acciona un interruptor de luz. Sin embargo, el movimiento del interruptor no fue causa suficiente, sino que dependió de innumerables factores: bombilla intacta, cableado intacto, caja de circuitos, pago de facturas, compañía de servicios públicos, infraestructura del vecindario, ingeniería de tecnología de Thomas Edison y Nikola Tesla , explicación de la electricidad de James Clerk. Maxwell , el aprovechamiento de la electricidad por Benjamin Franklin , el refinado de metales, la minería de metales, etc., mientras que, cualquiera que sea el recuento de los acontecimientos, la estructura mecánica causal de la naturaleza sigue siendo un misterio.

    De un humianoDesde esta perspectiva, la supuesta incapacidad de la luz para encenderse sin que se accione el interruptor no es ni una necesidad lógica ni un hallazgo empírico, ya que ninguna experiencia revela jamás que el mundo es o seguirá siendo universalmente uniforme en cuanto a los aspectos que parecen vincular el accionamiento del interruptor como el Evento necesario para que se encienda la luz. Si la luz se enciende sin accionar el interruptor, la sorpresa afectará la mente , pero la mente no puede saber que el evento violó la naturaleza . Como una posibilidad mundana, una actividad dentro de la pared podría haber conectado los cables y completado el circuito sin necesidad de accionar el interruptor.

    Aunque aparentemente disfrutaba de los escándalos que siguieron a sus propias explicaciones, Hume era muy práctico y su escepticismo bastante desigual (Flew p. 156). Aunque Hume rechazó el teísmo ortodoxo y buscó rechazar la metafísica , Hume supuestamente extendió el método newtoniano a la mente humana, que Hume, en una especie de movimiento anticopernicano, colocó como el eje del conocimiento humano (Flew p. 154). Hume colocó así su propia teoría del conocimiento a la par de la teoría del movimiento de Newton (Buckle págs. 70–71, Redman págs. 182–83, Schliesser § resumen). Hume encontró que la inducción enumerativa era una costumbre inevitable necesaria para vivir (Gattei págs. 28-29). Hume encontró conjunción constante para revelar un tipo de causalidad modesta: la causalidad contrafactual . Silencio en cuanto al papel causal (ya sea necesidad, suficiencia, fuerza del componente o mecanismo), la causalidad contrafactual es simplemente la alteración de un factor que previene o produce el evento de interés.
  14. ^ abcde Kundi M (2006). "Causalidad e interpretación de la evidencia epidemiológica". Perspectivas de salud ambiental . 114 (7): 969–974. doi :10.1289/ehp.8297. PMC  1513293 . PMID  16835045.
  15. ^ Hume señaló que los autores continúan de manera ubicua durante algún tiempo exponiendo hechos y luego, de repente, pasan a enunciar normas (supuestamente lo que debería ser) sin apenas explicación. Sin embargo, tales valores, como en la ética , la estética o la filosofía política , no se consideran verdaderos simplemente afirmando hechos: no revelan en sí mismos el deber . La ley de Hume es el principio de que la brecha entre hecho y valor es insalvable (que ninguna declaración de hechos puede jamás justificar normas), aunque el propio Hume no lo afirmó. Más bien, algunos filósofos posteriores encontraron que Hume simplemente no llegó a afirmarlo, sino que lo comunicó. De todos modos, Hume descubrió que los humanos adquirían la moralidad a través de la experiencia mediante el refuerzo comunitario . (Flew, Diccionario , "Ley de Hume", p. 157 y "Falacia naturalista", págs. 240–41; Wootton, Modern Political Thought , p. 306.)
  16. ^ Kant infirió que las constantes de la mente organizan el espacio manteniendo la geometría euclidiana , como el espacio absoluto de Newton , mientras que los objetos interactúan temporalmente como lo modela la teoría del movimiento de Newton , cuya ley de gravitación universal es una verdad sintética a priori , es decir, dependiente de la experiencia, de hecho. , pero conocido universalmente cierto sin experiencia universal. Así, las constantes innatas de la mente cruzan las tenazas del tenedor de Hume y establecen la gravitación universal de Newton como una verdad a priori .
  17. ^ ab Chakravartty, "Realismo científico", §1.2 "Las tres dimensiones del compromiso realista", en SEP , 2013: "Semánticamente, el realismo está comprometido con una interpretación literal de las afirmaciones científicas sobre el mundo. En el lenguaje común, los realistas toman declaraciones teóricas al 'valor nominal' Según el realismo, las afirmaciones sobre entidades, procesos, propiedades y relaciones científicas, ya sean observables o no observables, deben interpretarse literalmente como si tuvieran valores de verdad, ya sean verdaderos o falsos. Este compromiso semántico contrasta principalmente con aquellos. de las llamadas epistemologías instrumentalistas de la ciencia, que interpretan las descripciones de cosas no observables simplemente como instrumentos para la predicción de fenómenos observables o para sistematizar informes de observación. Tradicionalmente, el instrumentalismo sostiene que las afirmaciones sobre cosas no observables no tienen ningún significado literal (aunque el término sí lo es). (a menudo se usa más liberalmente en conexión con algunas posiciones antirrealistas actuales). Algunos antirrealistas sostienen que las afirmaciones que involucran no observables no deben interpretarse literalmente, sino como elípticas para las afirmaciones correspondientes sobre observables".
  18. ^ ab Los desafíos al realismo científico son capturados sucintamente por Bolotin, Approach to Aristotle's Physics (SUNY P, 1998), págs. 33-34, comentando sobre la ciencia moderna: "Pero, por supuesto, no ha logrado abarcar todos los fenómenos, al menos todavía no, porque sus leyes son idealizaciones matemáticas, idealizaciones, además, sin base inmediata en la experiencia y sin conexión evidente con las causas últimas del mundo natural. Por ejemplo, la primera ley del movimiento de Newton (la ley de la inercia) nos lo exige. imaginar un cuerpo que está siempre en reposo o moviéndose sin rumbo en línea recta y a velocidad constante, aunque nunca veamos tal cuerpo, y aunque según su propia teoría de la gravitación universal, es imposible que pueda haber Esta ley fundamental, entonces, que comienza con una afirmación sobre lo que sucedería en una situación que nunca existe, no conlleva ninguna convicción excepto en la medida en que ayuda a predecir eventos observables, a pesar del sorprendente éxito de las leyes de Newton en la predicción de lo observado. posiciones de los planetas y otros cuerpos, Einstein e Infeld tienen razón al decir, en La evolución de la física , que "podemos imaginar que otro sistema, basado en suposiciones diferentes, podría funcionar igual de bien". Einstein e Infeld continúan afirmando que "los conceptos físicos son creaciones libres de la mente humana y, aunque parezca, no están determinados únicamente por el mundo externo". Para ilustrar lo que quieren decir con esta afirmación, comparan al científico moderno con un hombre que intenta comprender el mecanismo de un reloj cerrado. Si es ingenioso, reconocen, este hombre "puede formarse una imagen de un mecanismo que sería responsable de todas las cosas que observa". Pero añaden que "tal vez nunca esté seguro de que su imagen sea la única que pueda explicar sus observaciones". Nunca podrá comparar su imagen con el mecanismo real y ni siquiera puede imaginar la posibilidad o el significado de tal comparación”. En otras palabras, la ciencia moderna no puede pretender, y nunca podrá pretender, que tiene una comprensión definitiva de cualquier fenómeno natural".
  19. ^ Mientras que un imperativo hipotético es práctico, simplemente lo que uno debería hacer si busca un resultado particular, el imperativo categórico es moralmente universal, lo que todos deberían hacer siempre.
  20. ^ ab Bourdeau, "Auguste Comte", §§ "Resumen" e "Introducción", en Zalta, ed, SEP , 2013.
  21. ^ Comte, A General View of Positivism (Trübner, 1865), págs. 49-50, que incluye el siguiente pasaje: "Mientras los hombres persistan en intentar responder las preguntas insolubles que ocuparon la atención de la infancia de nuestra raza, con diferencia el plan más racional es hacer lo que se hizo entonces, es decir, simplemente dar rienda suelta a la imaginación. Estas creencias espontáneas han ido cayendo gradualmente en desuso, no porque hayan sido refutadas, sino porque la humanidad se ha vuelto más ilustrada en cuanto a sus principios. necesidades y el alcance de sus poderes, y ha ido dando gradualmente una dirección enteramente nueva a sus esfuerzos especulativos".
  22. ^ Voló, Diccionario (St Martin's, 1984), "Positivismo", p.283.
  23. ^ abc Woodward, "Explicación científica", §1 "Antecedentes e introducción", en SEP , 2011.
  24. ^ ab Friedman, Reconsiderando el positivismo lógico (Cambridge UP, 1999), p xii.
  25. Cualquier positivismo situado en el siglo XX es generalmente neo , aunque existió el positivismo de Ernst Mach hacia 1900 y un enfoque positivista general de la ciencia, rastreable hasta la tendencia inductivista de Bacon en 1620, el programa de investigación newtoniano de 1687 y Comtean. positivismo en 1830—que continúa en un sentido vago pero generalmente rechazado dentro de la cultura popular y algunas ciencias.
  26. ^ A los neopositivistas a veces se les llama "verificacionistas".
  27. ^ Chakravartty, "Realismo científico", §4 "Antirrealismo: contrastes para el realismo científico", §4.1 "Empirismo", en SEP , 2013: "Tradicionalmente, los instrumentistas mantienen que los términos para no observables, por sí mismos, no tienen significado; interpretados literalmente, Las declaraciones que los involucran ni siquiera son candidatas a ser verdad o falsedad. Los defensores más influyentes del instrumentalismo fueron los empiristas lógicos (o positivistas lógicos), incluidos Carnap y Hempel , famosos asociados con el grupo de filósofos y científicos del Círculo de Viena , así como importantes contribuyentes en otros lugares. Para racionalizar el uso ubicuo de términos que de otro modo podrían considerarse que se refieren a no observables en el discurso científico, adoptaron una semántica no literal según la cual estos términos adquieren significado al asociarse con términos para observables (por ejemplo, ' electrón '). ' podría significar 'raya blanca en una cámara de niebla '), o con procedimientos de laboratorio demostrables (una visión llamada ' operacionalismo '). Las dificultades insuperables con esta semántica condujeron en última instancia (en gran medida) a la desaparición del empirismo lógico y al crecimiento del realismo) . . El contraste aquí no se da simplemente en la semántica y la epistemología : varios empiristas lógicos también sostuvieron la visión neokantiana de que las cuestiones ontológicas "externas" a los marcos de conocimiento representados por las teorías tampoco tienen sentido (la elección de un marco se hace únicamente en base a fundamentos pragmáticos ), rechazando así la dimensión metafísica del realismo (como en Carnap 1950)".
    • Okasha, Philosophy of Science (Oxford UP, 2002), p. 62: "Estrictamente deberíamos distinguir dos tipos de antirrealismo. Según el primer tipo, hablar de entidades no observables no debe entenderse literalmente en absoluto. Así que cuando un científico Por ejemplo, si propone una teoría sobre los electrones, no deberíamos considerar que afirma la existencia de entidades llamadas "electrones". Más bien, su discurso sobre los electrones es metafórico. Esta forma de antirrealismo fue popular en la primera mitad del siglo XIX. siglo XX, pero pocas personas la defienden hoy en día. Fue motivada en gran medida por una doctrina de la filosofía del lenguaje, según la cual no es posible hacer afirmaciones significativas sobre cosas que en principio no pueden observarse, una doctrina que pocos filósofos contemporáneos aceptan. El segundo tipo de antirrealismo acepta que hablar de entidades no observables debe tomarse al pie de la letra: si una teoría dice que los electrones están cargados negativamente, es cierta si los electrones existen y están cargados negativamente, pero es falsa en caso contrario. Pero nunca sabremos cuál, dice el antirrealista. De modo que la actitud correcta hacia las afirmaciones que hacen los científicos sobre la realidad no observable es la de un agnosticismo total. Son verdaderas o falsas, pero somos incapaces de descubrir cuál. La mayor parte del antirrealismo moderno es de este segundo tipo".
  28. ^ ab Woodward, "Explicación científica", en Zalta, ed, SEP , 2011, resumen.
  29. ^ Hempel, Carl G; Oppenheim, Paul (abril de 1948). "Estudios de la lógica de la explicación". Filosofía de la Ciencia . 15 (2): 135-175. doi :10.1086/286983. JSTOR  185169. S2CID  16924146.
  30. ^ abcd Bechtel, Descubriendo los mecanismos celulares (Cambridge UP, 2006), especialmente págs. 24-25.
  31. ^ ab Woodward, "Explicación científica", §2 "El modelo DN", §2.3 "Explicación estadística inductiva", en Zalta, ed, SEP , 2011.
  32. ^ von Wright, Explicación y comprensión (Cornell UP, 1971), p.11.
  33. ^ ab Stuart Glennan, "Explicación", § "Modelo de explicación de la ley de cobertura", en Sarkar & Pfeifer, eds, Filosofía de la ciencia (Routledge, 2006), p.276.
  34. ^ Manfred Riedel, "Explicación causal e histórica", en Manninen & Tuomela, eds, Ensayos sobre explicación y comprensión (D Reidel, 1976), págs.
  35. Los principios fundamentales del neopositivismo eran el criterio de verificabilidad de la significación cognitiva , la brecha analítica/sintética y la brecha observación/teoría. De 1950 a 1951, Carl Gustav Hempel renunció al criterio de verificabilidad. En 1951, Willard Van Orman Quine atacó la brecha analítico/sintético. En 1958, Norwood Russell Hanson desdibujó la brecha entre observación y teoría. En 1959, Karl Raimund Popper atacó todo el verificacionismo (en realidad, atacó cualquier tipo de positivismo) afirmando el falsacionismo. En 1962, Thomas Samuel Kuhn derrocó el fundacionalismo , que se presumía erróneamente como un principio fundamental del neopositivismo.
  36. ^ Fetzer, "Carl Hempel", §3 "Razonamiento científico", en SEP , 2013: "La necesidad de desmantelar el criterio de verificabilidad del significado junto con la desaparición de la distinción observacional/teórica significó que el positivismo lógico ya no representaba una opción racionalmente defendible". Se había demostrado que al menos dos de sus principios definitorios carecían de mérito. Dado que la mayoría de los filósofos creían que Quine había demostrado que la distinción analítico/sintético también era insostenible, muchos concluyeron que la empresa había sido un fracaso total. Sin embargo, los beneficios de la crítica de Hempel fueron la producción de criterios más generales y flexibles de importancia cognitiva en Hempel (1965b), incluidos en una famosa colección de sus estudios, Aspects of Scientific Explanation (1965d) . capturarse adecuadamente mediante principios de verificación o falsificación, cuyos defectos eran paralelos, pero que en cambio requerían un enfoque mucho más sutil y matizado. Hempel sugirió múltiples criterios para evaluar la importancia cognitiva de diferentes sistemas teóricos, donde la importancia no es categórica sino más bien una cuestión de grado: "Los sistemas significativos van desde aquellos cuyo vocabulario extralógico completo consiste en términos de observación, hasta teorías cuya formulación se basa en gran medida en constructos teóricos". , pasando a sistemas que apenas tienen relación con posibles hallazgos empíricos» (Hempel 1965b: 117). Los criterios que ofreció Hempel para evaluar los "grados de significación" de los sistemas teóricos (como conjunciones de hipótesis, definiciones y afirmaciones auxiliares) fueron (a) la claridad y precisión con la que se formulan, incluidas conexiones explícitas con el lenguaje observacional; (b) el poder sistemático (explicativo y predictivo) de tal sistema, en relación con los fenómenos observables; (c) la simplicidad formal de los sistemas con los que se alcanza un cierto grado de poder sistemático; y (d) el grado en que esos sistemas han sido confirmados por evidencia experimental (Hempel 1965b). La elegancia del estudio de Hempel acabó con cualquier aspiración persistente de criterios simples de "importancia cognitiva" y marcó la desaparición del positivismo lógico como movimiento filosófico".
  37. ^ Popper, "Contra las grandes palabras", En busca de un mundo mejor (Routledge, 1996), págs. 89-90.
  38. ^ Hacohen, Karl Popper: Los años de formación (Cambridge UP, 2000), págs. 212-13.
  39. Logik der Forschung , publicado en Austria en 1934, fue traducido por Popper del alemán al inglés, The Logic of Scientific Discovery , y llegó al mundo de habla inglesa en 1959.
  40. ^ abcd Reutlinger, Schurz & Hüttemann, "Ceteris paribus", § 1.1 "Introducción sistemática", en Zalta, ed, SEP , 2011.
  41. ^ Como estudio científico de las células, la citología surgió en el siglo XIX, pero su tecnología y métodos fueron insuficientes para visualizar y establecer claramente la existencia de orgánulos celulares más allá del núcleo .
  42. ^ El primer experimento de bioquímica famoso fue el de Edward Buchner en 1897 (Morange, A History , p. 11). Pronto surgió la disciplina de la bioquímica, inicialmente investigando los coloides en sistemas biológicos, una "biocoloidología" (Morange p 12; Bechtel, Discovering , p 94). Esto dio paso a la teoría macromolecular, el término macromolécula introducido por el químico alemán Hermann Staudinger en 1922 (Morange p. 12).
  43. ^ La biología celular surgió principalmente en el Instituto Rockefeller a través de nuevas tecnologías ( microscopio electrónico y ultracentrífuga ) y nuevas técnicas ( fraccionamiento celular y avances en tinción y fijación).
  44. ^ James Fetzer, capítulo 3 "Las paradojas de la explicación hempeliana", en Fetzer J, ed, Science, Explanation, and Rationality (Oxford UP, 2000), págs.
  45. ^ Fetzer, capítulo 3 en Fetzer, ed, Ciencia, explicación y racionalidad (Oxford UP, 2000), p.129.
  46. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 1, subcap "Áreas de la filosofía relacionadas con la filosofía de la ciencia", § "Metafísica", págs. 8-9, § "Epistemología", pág.11.
  47. ^ H Atmanspacher, RC Bishop & A Amann, "Irreversibilidad extrínseca e intrínseca en leyes dinámicas probabilísticas", en Khrennikov, ed, Proceedings (World Scientific, 2001), págs.
  48. ^ Fetzer, capítulo 3, en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p. 118, plantea algunas formas posibles en que las leyes naturales, así llamadas, cuando son epistémicas pueden fallar como ónticas : "La concepción subyacente es el de poner orden en nuestro conocimiento del universo. Sin embargo, hay al menos tres razones por las que incluso el conocimiento completo de cada regularidad empírica que se obtiene durante la historia del mundo podría no proporcionar una base inferencial adecuada para el descubrimiento de las leyes del mundo. podrían permanecer sin instancias y, por lo tanto, no mostrarse mediante ninguna regularidad. En segundo lugar, algunas regularidades pueden ser accidentales y, por lo tanto, no mostrar ninguna ley de la naturaleza y, en tercer lugar, en el caso de leyes probabilísticas, algunas frecuencias podrían desviarse de sus probabilidades nómicas generadoras. azar" y por lo tanto muestran las leyes naturales de manera no representativa o sesgada".
  49. ^ Esta reducción de la teoría ocurre si, y aparentemente solo si, el Sol y un planeta se modelan como un sistema de dos cuerpos, excluyendo todos los demás planetas (Torretti, Filosofía de la Física , págs. 60-62).
  50. ^ Spohn, Leyes de creencia (Oxford UP, 2012), p.305.
  51. ^ Mientras que la física fundamental ha buscado leyes de regularidad universal , las ciencias especiales normalmente incluyen leyes ceteris paribus , que son predictivamente precisas con una alta probabilidad en "condiciones normales" o con "todo lo demás igual", pero tienen excepciones [Reutlinger et al § 1.1]. Las leyes de la química parecen perfectas en sus ámbitos, pero en principio se redujeron a la física fundamental [Feynman p 5, Schwarz Fig 1, y también lo son las ciencias especiales.
  52. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 5, subcap "Introducción: Relacionar disciplinas relacionando teorías" págs.
  53. ^ ab Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 5, subcap "Modelo de reducción de la teoría y programa de unidad de la ciencia " págs.
  54. ^ ab Bem & de Jong, Cuestiones teóricas (Sage, 2006), págs. 45–47.
  55. ^ abc O'Shaughnessy, Explicación del comportamiento del comprador (Oxford UP, 1992), págs. 17-19.
  56. ^ ab Spohn, Leyes de creencia (Oxford UP, 2012), p.306.
  57. ^ ab Karhausen, LR (2000). "Causalidad: el escurridizo grial de la epidemiología". Medicina, Salud y Filosofía . 3 (1): 59–67. doi :10.1023/A:1009970730507. PMID  11080970. S2CID  24260908.
  58. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), capítulo 3, subcap "Repudio del modelo de explicación DN", págs. 38-39.
  59. ^ abc Rothman, KJ; Groenlandia, S. (2005). "Causalidad e inferencia causal en epidemiología". Revista Estadounidense de Salud Pública . 95 : S144-S150. doi :10.2105/AJPH.2004.059204. hdl : 10.2105/AJPH.2004.059204 . PMID  16030331.
  60. ^ Boffetta, "Causalidad en presencia de asociaciones débiles", Crit Rev Food Sci Nutr , 2010; 50 (T1): 13-16.
  61. ^ Sin comprometerse en cuanto al papel causal particular , como necesidad, suficiencia, fuerza o mecanismo del componente, la causalidad contrafáctica es simplemente esa alteración de un factor desde su estado fáctico previene o produce de cualquier manera el evento de interés.
  62. ^ En epidemiología, la causalidad contrafáctica no es determinista , sino probabilística Parascandola; Hierba (2001). "Causalidad en epidemiología". J Epidemiol Salud Comunitaria . 55 (12): 905–12. doi :10.1136/jech.55.12.905. PMC 1731812 . PMID  11707485. 
  63. ^ abcd Schwarz, "Desarrollos recientes en la teoría de cuerdas", Proc Natl Acad Sci USA , 1998; 95 : 2750–7, especialmente Fig. 1.
  64. ^ ab Ben-Menahem, Convencionalismo (Cambridge UP, 2006), p 71.
  65. ^ Los casos de falsedad limitaron la ley de Boyle a casos especiales, por lo tanto, la ley de los gases ideales .
  66. ^ abcd Newburgh et al , "Einstein, Perrin y la realidad de los átomos" Archivado el 3 de agosto de 2017 en Wayback Machine , Am J Phys , 2006, p.478.
  67. ^ Para una breve reseña de la opinión de Boltmann, consulte el capítulo 3 "Philipp Frank", § 1 " Entrevista a TS Kuhn ", en Blackmore et al , eds, Ernst Mach's Vienna 1895-1930 (Kluwer, 2001), p 63, como Frank Fue alumno de Boltzmann poco después de la jubilación de Mach. Consulte "Notas", págs. 79–80, n.° 12 para conocer las opiniones de Mach y Ostwald, n.° 13 para conocer las opiniones de los físicos contemporáneos en general y n.° 14 para conocer las opiniones de Einstein . La más relevante aquí es la número 12: "Mach parece haber tenido varias opiniones estrechamente relacionadas con respecto al atomismo . En primer lugar, a menudo pensaba que la teoría podría ser útil en física siempre y cuando uno no creyera en la realidad de los átomos. En segundo lugar, creía Era difícil aplicar la teoría atómica tanto a la psicología como a la física. En tercer lugar, su propia teoría de los elementos a menudo se denomina "teoría atomista" en psicología en contraste con la teoría de la Gestalt y la teoría del continuo de la experiencia. realidad de los átomos, normalmente se refería al sentido griego de "sustancia indivisible" y pensó que Boltzmann estaba siendo evasivo al defender átomos o "corpúsculos" divisibles, como los que se volverían normales después de JJ Thomson y la distinción entre electrones y núcleos , que normalmente llamaba Quinto. los átomos físicos eran "cosas de pensamiento" y se alegró mucho cuando Ostwald pareció refutar la realidad de los átomos en 1905. Y sexto, después de que Ostwald regresó al atomismo en 1908, Mach continuó defendiendo la alternativa "energeticista" de Ostwald al atomismo".
  68. ^ Los físicos habían explicado la energía del campo electromagnético como energía mecánica , como el impacto corporal de una ola del océano, no como gotas de agua caídas individualmente (Grandy, Everyday Quantum Reality , págs. 22-23). En la década de 1890, el problema de la radiación del cuerpo negro era paradójico hasta que Max Planck teorizó la cuántica que exhibía la constante de Planck , una unidad mínima de energía. Los cuantos eran misteriosos, no se los consideraba partículas , sino simplemente unidades de energía . Sin embargo, otra paradoja fue el efecto fotoeléctrico . Como una longitud de onda más corta produce más ondas por unidad de distancia, una longitud de onda más baja es una frecuencia de onda más alta. Dentro de la porción visible del espectro electromagnético , la frecuencia establece el color. La intensidad de la luz, sin embargo, es la amplitud de la onda como altura de la onda. En una explicación estrictamente ondulatoria, una mayor intensidad (mayor amplitud de onda) aumenta la energía mecánica entregada, es decir, el impacto de la onda, y por lo tanto produce un mayor efecto físico. Y, sin embargo, en el efecto fotoeléctrico, sólo se encontró que un cierto color y más allá (una cierta frecuencia y más) eliminaba electrones de una superficie metálica. Por debajo de esa frecuencia o color, aumentar la intensidad de la luz aún no eliminaba electrones. Einstein modeló los cuantos de Planck como cada una de ellas una partícula cuya energía individual era la constante de Planck multiplicada por la frecuencia de la onda de luz: sólo a una cierta frecuencia y más allá, cada partícula tendría suficiente energía para expulsar un electrón de su orbital. Aunque elevar la intensidad de la luz produciría más energía (más partículas en total), cada partícula individual aún carecería de energía suficiente para desalojar un electrón. El modelo de Einstein, mucho más complejo, utilizó la teoría de la probabilidad para explicar las tasas de expulsiones electorales como tasas de colisiones con partículas electromagnéticas. Este resurgimiento de la hipótesis de las partículas de la luz , generalmente atribuida a Newton, fue ampliamente cuestionado. En 1920, sin embargo, la explicación ayudó a resolver problemas de la teoría atómica y así surgió la mecánica cuántica . En 1926, Gilbert N. Lewis denominó fotones a las partículas . QED los modela como partículas mensajeras o portadoras de fuerza del campo electromagnético , emitidas y absorbidas por electrones y otras partículas en transición.
  69. ^ Wolfson, Simplemente Einstein (WW Norton & Co, 2003), pág.67.
  70. ^ La teoría gravitacional de Newton en 1687 había postulado el espacio y el tiempo absolutos . Para adaptarse a la teoría de la luz de ondas transversales de Young en 1804, el espacio estaba teóricamente lleno con el éter luminífero de Fresnel en 1814. Según la teoría del campo electromagnético de Maxwell de 1865, la luz siempre mantiene una velocidad constante, que, sin embargo, debe ser relativa. a algo, aparentemente al éter. Sin embargo, si la velocidad de la luz es constante en relación con el éter, entonces el movimiento de un cuerpo a través del éter sería relativo y, por tanto, variaría en relación con la velocidad de la luz. Incluso la enorme velocidad de la Tierra, multiplicada por el ingenio experimental con un interferómetro de Michelson y Morley en 1887 , no reveló ninguna deriva aparente del éter : la velocidad de la luz aparentemente es constante, absoluta. Así, tanto la teoría gravitacional de Newton como la teoría electromagnética de Maxwell tenían cada una su propio principio de relatividad, aunque ambas eran incompatibles. Para un breve resumen, consulte Wilczek, Lightness of Being (Basic Books, 2008), págs. 78–80.
  71. ^ Cordero, Filosofía de la Ciencia EPSA (Springer, 2012), págs.
  72. ^ Hooper, Éter y gravitación (Chapman & Hall, 1903), págs. 122-23.
  73. ^ ab Logia (1909). "El éter del espacio". Suplemento de ciencia ficción . 67 (1734 apoyo): 202–03. doi :10.1038/scientificamerican03271909-202supp.
  74. ^ Incluso Mach, que rechazó todas las hipótesis más allá de la experiencia sensorial directa, supuso un éter, necesario para que el movimiento no viole el principio fundamental de la filosofía mecánica , No hay interacción instantánea a distancia (Einstein, "Ether", Sidelights (Methuen, 1922) , págs. 15-18).
  75. ^ Rowlands, Oliver Lodge (Liverpool UP, 1990), págs. 159–60: " Los experimentos con éter de Lodge se han convertido en parte del trasfondo histórico que condujo al establecimiento de la relatividad especial y su importancia generalmente se ve en este contexto. Relatividad especial , se afirma, eliminó de la física tanto el éter como el concepto de movimiento absoluto. Se trataba de dos experimentos: el de Michelson y Morley, que demostró que los cuerpos no se mueven con respecto a un éter estacionario, y el de Lodge, que demostró que los cuerpos no se mueven con respecto a un éter estacionario. que los cuerpos en movimiento no arrastran el éter con ellos. Con el énfasis en la relatividad, el experimento de Michelson-Morley ha llegado a ser visto como el más significativo de los dos, y el experimento de Lodge se convierte en una especie de detalle, una cuestión de eliminar el final. y, menos probable, la posibilidad de un medio no estacionario, viscoso y omnipresente. Se podría argumentar que pudo haber ocurrido exactamente lo contrario. El experimento de Michelson-Morley no demostró que no hubiera movimiento absoluto, y no fue así. demostrar que no existía el éter estacionario. Sus resultados (y la contracción de FitzGerald-Lorentz) podrían haberse predicho basándose en la teoría de Heaviside , o incluso en la de Maxwell , incluso si nunca se hubiera llevado a cabo ningún experimento. La importancia del experimento, aunque considerable, es puramente histórica y de ningún modo fáctica. El experimento de Lodge, por otra parte, demostró que, si existía un éter, entonces sus propiedades debían ser bastante diferentes de las imaginadas por los teóricos mecanicistas. El éter que siempre creyó que existía tuvo que adquirir propiedades completamente nuevas como resultado de este trabajo".
  76. ^ Principalmente Hendrik Lorentz y Henri Poincaré modificaron la teoría electrodinámica y, más o menos, desarrollaron la teoría especial de la relatividad antes que Einstein (Ohanian, Einstein's Mistakes , págs. 281–85). Sin embargo, Einstein, un pensador libre, dio el siguiente paso y lo expresó, de manera más elegante, sin éter (Torretti, Philosophy of Physics , p. 180).
  77. ^ ab Tavel, Física contemporánea (Rutgers UP, 2001), págs. [1], 66.
  78. ^ Introducida poco después de que Einstein explicara el movimiento browniano, la relatividad especial se cumple sólo en casos de movimiento inercial , es decir, movimiento no acelerado. La inercia es el estado de un cuerpo que no experimenta aceleración, ya sea por un cambio de velocidad (ya sea acelerando o desacelerando) o por un cambio de dirección, y por lo tanto exhibe una velocidad constante , que es velocidad más dirección.
  79. ^ abc Cordero, Filosofía de la ciencia EPSA (Springer, 2012), págs.
  80. ^ Para explicar la velocidad absoluta de la luz sin éter, Einstein modeló que un cuerpo en movimiento en un campo electromagnético experimenta contracción de longitud y dilatación del tiempo , que Lorentz y Poincaré ya habían modelado como contracción de Lorentz-FitzGerald y transformación de Lorentz , pero planteando hipótesis sobre estados dinámicos del éter. , mientras que la relatividad especial de Einstein era simplemente cinemática , es decir, no postulaba ninguna explicación mecánica causal, sino que simplemente describía posiciones, mostrando así cómo alinear los dispositivos de medición, es decir, relojes y varillas. (Ohanian, Los errores de Einstein , págs. 281–85).
  81. ^ Ohanian, Los errores de Einstein (WW Norton, 2008), págs. 281–85.
  82. La teoría de Newton requería espacio y tiempo absolutos .
  83. ^ Buchen, "29 de mayo de 1919", Wired , 2009.
    Moyer, "Revolution", en Studies in the Natural Sciences (Springer, 1979), pág. 55.
    Melia, Black Hole (Princeton UP, 2003), págs. 83–87 .
  84. ^ Crelinsten, Jurado de Einstein (Princeton UP, 2006), p.28.
  85. ^ abc De 1925 a 1926, de forma independiente pero casi simultánea, Werner Heisenberg y Erwin Schrödinger desarrollaron la mecánica cuántica (Zee en Feynman, QED , p xiv). Schrödinger introdujo la mecánica ondulatoria , cuya función de onda se determina mediante una ecuación diferencial parcial , ahora denominada ecuación de Schrödinger (p. xiv). Heisenberg, quien también estableció el principio de incertidumbre , junto con Max Born y Pascual Jordan, introdujo la mecánica matricial , que hablaba de manera bastante confusa de operadores que actúan sobre estados cuánticos (p. xiv). Si se los toma como causales mecánicamente explicativos , los dos formalismos discrepan vívidamente y, sin embargo, son indiscernibles empíricamente , es decir, cuando no se usan para interpretación y se toman simplemente como formalismo (p. xv).

    En 1941, en una fiesta en una taberna de Princeton, Nueva Jersey , el físico visitante Herbert Jehle mencionó a Richard Feynman un formalismo diferente sugerido por Paul Dirac , quien desarrolló la notación bracket , en 1932 (p. xv). Al día siguiente, Feynman completó el enfoque sugerido por Dirac como suma de historias o suma de caminos o integrales de caminos (p xv). Feynman bromearía diciendo que este enfoque, que suma todos los caminos posibles que una partícula podría tomar, como si la partícula en realidad los tomara todos, anulándose excepto uno, el más eficiente de la partícula, suprime el principio de incertidumbre (p xvi). Todos empíricamente equivalentes, el formalismo ondulatorio de Schrödinger, el formalismo matricial de Heisenberg y el formalismo integral de trayectoria de Feynman incorporan el principio incierto (p. xvi).

    No existe ninguna barrera particular para formalismos adicionales, que podrían desarrollarse y difundirse ampliamente, pero simplemente no lo han sido (p. xvii). Sin embargo, en una disciplina física particular, y en un problema particular, uno de los tres formalismos podría ser más fácil de operar que otros (pp xvi-xvii). En la década de 1960, el formalismo integral de trayectoria prácticamente desapareció del uso, mientras que el formalismo matricial era el "canónico" (p. xvii). En la década de 1970, el formalismo integral de trayectoria hizo un "regreso rugiente", se convirtió en el medio predominante para hacer predicciones a partir de QFT e impulsó a Feynman a un aura de mística (p. xviii).
  86. ^ ab Cushing, Mecánica cuántica (U Chicago P, 1994), págs. 113-18.
  87. ^ ab La mecánica ondulatoria de Schrödinger planteó la carga de un electrón esparcida por el espacio como una forma de onda , luego reinterpretada como el electrón que se manifiesta a través del espacio de manera probabilística pero en ningún lugar definitivamente mientras finalmente construye esa forma de onda determinista. La mecánica matricial de Heisenberg hablaba confusamente de operadores que actúan sobre estados cuánticos . Richard Feynman introdujo el formalismo integral de trayectorias de QM , interpretable como una partícula que recorre todos los caminos imaginables, cancelándose y dejando solo uno, el más eficiente, predictivamente idéntico al formalismo matricial de Heisenberg y al formalismo ondulatorio de Schrödinger .
  88. ^ Torretti, Filosofía de la Física (Cambridge UP, 1999), págs. 393–95.
  89. ^ Torretti, Filosofía de la Física (Cambridge UP, 1999), p 394.
  90. ^ abc Torretti, Filosofía de la Física (Cambridge UP, 1999), p.395.
  91. ^ El reconocimiento de la fuerza fuerte permitió que el Proyecto Manhattan diseñara Little Boy y Fat Man , lanzados sobre Japón, mientras que los efectos de la fuerza débil se observaron después ( lluvia radioactiva ) con diversas consecuencias para la salud.
  92. ^ abcdef Wilczek, "La persistencia del éter", Phys Today , 1999; 52 :11,13, pág.13.
  93. ^ Las cuatro interacciones fundamentales conocidas son gravitacional, electromagnética, nuclear débil y nuclear fuerte.
  94. ^ Grandy, Realidad cuántica cotidiana (Indiana UP, 2010), págs.
  95. ^ Schweber, QED y los hombres que lo lograron (Princeton UP, 1994).
  96. ^ Feynman, QED (Princeton UP, 2006), pág.5.
  97. ^ abc Torretti, Filosofía de la Física , (Cambridge UP, 1999), págs. 395–96.
  98. ^ abcd Cushing, Mecánica cuántica (U Chicago P, 1994), págs.
  99. ^ Cerrar, "Mucho ruido y pocas nueces", Nova , PBS/WGBH, 2012: "Esta nueva visión de la mecánica cuántica de la nada comenzó a surgir en 1947, cuando Willis Lamb midió el espectro del hidrógeno. El electrón de un átomo de hidrógeno no puede moverse a dondequiera que esté. agrada, sino que se limita a caminos específicos. Esto es análogo a subir una escalera: no se puede llegar a alturas arbitrarias sobre el suelo, sólo aquellas en las que hay peldaños en los que pararse. La mecánica cuántica explica la separación de los peldaños en la escalera atómica y. predice las frecuencias de radiación que se emiten o absorben cuando un electrón cambia de uno a otro según el estado de la técnica de 1947, que suponía que el átomo de hidrógeno estaba formado únicamente por un electrón, un protón y un campo eléctrico, dos. de estos peldaños tienen energía idéntica. Sin embargo, las mediciones de Lamb mostraron que estos dos peldaños difieren en energía en aproximadamente una parte en un millón. ¿Qué podría estar causando esta pequeña pero significativa diferencia? Había olvidado algo: nada. Lamb se había convertido en la primera persona en observar experimentalmente que el vacío no está vacío, sino que está hirviendo con electrones efímeros y sus análogos de antimateria, los positrones. Estos electrones y positrones desaparecen casi instantáneamente, pero en su breve momento de existencia alteran ligeramente la forma del campo electromagnético del átomo. Esta interacción momentánea con el electrón dentro del átomo de hidrógeno eleva uno de los peldaños de la escalera un poco más alto de lo que estaría de otra manera.
    "Todo esto es posible porque, en la mecánica cuántica, la energía no se conserva en escalas de tiempo muy cortas ni en distancias muy cortas. Más extraño aún, cuanto más precisamente se intenta observar algo, o nada, más dramáticas se vuelven estas fluctuaciones de energía. Combine eso con E=mc 2 de Einstein , lo que implica que la energía puede congelarse en forma material, y tendrá una receta para que las partículas aparezcan y desaparezcan incluso en el vacío. Este efecto permitió a Lamb medir literalmente algo a partir de la nada. .
  100. ^ abcde
    • Vongehr "El descubrimiento de Higgs rehabilita el despreciado éter de Einstein", Ciencia 2.0 , 2011.
    • Vongehr, Sascha (2009). "Apoyar el espacio-tiempo relacional abstracto como fundamental sin doctrinarismo contra la emergencia". arXiv : 0912.3069 [física.hist-ph].
  101. ^ ab Riesselmann "Concepto de éter para explicar las fuerzas", Inquiring Minds , Fermilab , 2008.
  102. ^ Cerrar, "Mucho ruido y pocas nueces", Nova , PBS/WGBH, 2012.
  103. ^ Sobre "ejemplos históricos de teorías empíricamente exitosas que luego resultan falsas", Okasha, Philosophy of Science (Oxford UP, 2002), p. 65, concluye: "Una que permanece es la teoría ondulatoria de la luz, propuesta por primera vez por Christiaan Huygens en 1690. Según esta teoría, la luz consiste en vibraciones ondulatorias en un medio invisible llamado éter, que se suponía que impregnaba todo el universo (el rival de la teoría ondulatoria era la teoría de las partículas de la luz, favorecida por. Newton, que sostenía que la luz consta de partículas muy pequeñas emitidas por la fuente de luz.) La teoría ondulatoria no fue ampliamente aceptada hasta que el físico francés Auguste Fresnel formuló una versión matemática de la teoría en 1815 y la utilizó para predecir algunas nuevas y sorprendentes soluciones ópticas. Los experimentos ópticos confirmaron las predicciones de Fresnel, convenciendo a muchos científicos del siglo XIX de que la teoría ondulatoria de la luz debe ser cierta, pero la física moderna nos dice que la teoría no es cierta: no existe el éter, por lo que la luz no existe. consisten en vibraciones en él. De nuevo, tenemos un ejemplo de una teoría falsa pero empíricamente exitosa".
  104. ^ Pigliucci, Respuestas para Aristóteles (Basic Books, 2012), p. 119: "Pero el antirrealista rápidamente señalará que muchas veces en el pasado los científicos han postulado la existencia de elementos no observables que aparentemente eran necesarios para explicar un fenómeno, solo para descubrir más tarde, que tales inobservables en realidad no existían. Un caso clásico es el del éter, una sustancia que los físicos del siglo XIX suponían que impregnaba todo el espacio y hacía posible que la radiación electromagnética (como la luz) se propagara. Fue el caso especial de Einstein. Teoría de la relatividad, propuesta en 1905, que eliminó la necesidad del éter, y desde entonces el concepto ha sido relegado al basurero de la historia científica. A los antirrealistas les encantará señalar que la física moderna presenta una serie de entidades igualmente no observables, desde "espuma" de la mecánica cuántica hasta la energía oscura , y que la generación actual de científicos parece tan confiada en las dos últimas como lo estaban sus homólogos del siglo XIX en el éter".
  105. ^ Wilczek, La levedad del ser (Basic Books, 2008), págs. 78–80.
  106. ^ Laughlin, Un universo diferente (Basic Books, 2005), págs. 120-21.
  107. ^ ab Einstein, "Ether", Sidelights (Methuen, 1922), págs. 14-18.
  108. ^ El éter de Lorentz estaba en reposo absoluto: actuaba sobre la materia pero no actuaba sobre ella . Reemplazándolo y asemejándose al éter de Ernst Mach , el éter de Einstein es el espacio-tiempo mismo (que es el campo gravitacional ) que recibe movimiento de un cuerpo y lo transmite a otros cuerpos mientras se propaga a la velocidad de la luz, ondeando . Sin embargo, un éter inobservable no es un marco de referencia privilegiado : no se le debe asignar un estado de movimiento absoluto o de reposo absoluto.
  109. ^ La teoría de la relatividad comprende tanto la relatividad especial (SR) como la relatividad general (GR). Si se aplica a sistemas de referencia inerciales, SR es un caso limitado de GR, que se aplica a todos los sistemas de referencia, tanto inerciales como acelerados. En GR, todo movimiento (inercial, acelerado o gravitacional) es consecuencia de la geometría del espacio tridimensional estirado sobre el eje unidimensional del tiempo. Según GR, ninguna fuerza distingue la aceleración de la inercia. El movimiento inercial es simplemente consecuencia de la geometría uniforme del espacio-tiempo, la aceleración es simplemente consecuencia de la geometría no uniforme del espacio-tiempo y la gravitación es simplemente aceleración.
  110. ^ ab Laughlin, A Different Universe , (Basic Books, 2005), págs. 120-21: "La palabra 'éter' tiene connotaciones extremadamente negativas en la física teórica debido a su asociación pasada con la oposición a la relatividad. Esto es desafortunado porque, despojado de Con estas connotaciones, capta bastante bien la forma en que la mayoría de los físicos realmente piensan sobre el vacío... La relatividad en realidad no dice nada sobre la existencia o inexistencia de materia que impregna el universo, sólo que dicha materia debe tener simetría relativista. En la época en que se aceptaba la relatividad, los estudios sobre la radiactividad comenzaron a mostrar que el vacío vacío del espacio tenía una estructura espectroscópica similar a la de los sólidos y fluidos cuánticos ordinarios. Estudios posteriores con grandes aceleradores de partículas nos han llevado a comprender ese espacio. Se parece más a un trozo de cristal de una ventana que al vacío newtoniano ideal. Está lleno de "cosas" que normalmente son transparentes pero que pueden hacerse visibles golpeándolas con suficiente fuerza como para arrancar una parte. El concepto moderno del vacío del espacio, confirmado cada día por experimentos, es un éter relativista. Pero no lo llamamos así porque sea tabú".
  111. ^ En el espacio-tiempo 4D de Einstein, el espacio 3D se estira sobre el eje 1D del flujo de tiempo, lo que se ralentiza mientras que el espacio se contrae adicionalmente en las proximidades de la masa o la energía.
  112. ^ Torretti, Filosofía de la Física (Cambridge UP, 1999), p 180.
  113. ^ Como teoría de campo eficaz, una vez ajustada a dominios particulares, el modelo estándar es predictivamente preciso hasta una cierta y vasta escala de energía que es un límite, tras lo cual emergerían fenómenos más fundamentales, que regulan los fenómenos modelados de la teoría efectiva. (Burgess y Moore, Modelo estándar , pág. xi; Wells, Teorías efectivas , págs. 55-56).
  114. ^ abc Torretti, Filosofía de la Física (Cambridge UP, 1999), p.396.
  115. ^ abc Jegerlehner, F. (2014). "El modelo estándar como teoría efectiva de baja energía: ¿Qué está desencadenando el mecanismo de Higgs?". Acta Física Polonica B. 45 (6): 1167. arXiv : 1304.7813 . Código Bib : 2014AcPPB..45.1167J. doi :10.5506/APhysPolB.45.1167. S2CID  53137906. Entendemos el SM como una emergencia efectiva de baja energía de algún sistema físico desconocido (podemos llamarlo 'éter') que se ubica en la escala de Planck con la longitud de Planck como una escala de longitud 'microscópica'. Tenga en cuenta que el límite, aunque muy grande, en cualquier caso es finito.
  116. ^ ab Wilczek, Lightness of Being (Basic Books, 2008), capítulo 8 "La rejilla (persistencia del éter)", p. 73: "Para la filosofía natural, la lección más importante que aprendemos de QCD es que lo que percibimos como espacio vacío es en realidad un medio poderoso cuya actividad moldea el mundo. Otros avances en la física moderna refuerzan y enriquecen esa lección. Más adelante, mientras exploramos las fronteras actuales, veremos cómo se utiliza el concepto de espacio "vacío" como un medio rico y dinámico. potencia nuestro mejor pensamiento sobre cómo lograr la unificación de fuerzas".
  117. ^ La equivalencia masa-energía se formaliza en la ecuación E=mc 2 .
  118. ^ Einstein, "Ether", Sidelights (Methuen, 1922), pág. 13: "[A]corde con la teoría especial de la relatividad, tanto la materia como la radiación no son más que formas especiales de energía distribuida, la masa ponderable pierde su aislamiento y aparece como una forma especial de energía".
  119. ^ Braibant, Giacomelli & Spurio, Particles and Fundamental Interactions (Springer, 2012), p 2: "Cualquier partícula puede crearse en colisiones entre dos partículas de alta energía gracias a un proceso de transformación de energía en masa".
  120. ^ Brian Greene explicó: "La gente a menudo tiene una imagen equivocada de lo que sucede dentro del LHC , y yo soy tan culpable como cualquiera de perpetuarlo. La máquina no aplasta partículas para pulverizarlas y ver qué hay dentro. Más bien, los choca con una energía extremadamente alta. Dado que, según la famosa ecuación de Einstein, E=mc 2 , la energía y la masa son la misma, la energía combinada de la colisión se puede convertir en una masa, es decir, en una partícula. que es más pesado que cualquiera de los protones en colisión . Cuanta más energía esté involucrada en la colisión, más pesadas serán las partículas que podrían surgir" [Avent, "The Q&A", Economist , 2012].
  121. ^ abc Kuhlmann, "Debate de físicos", Sci Am , 2013.
  122. ^ Mientras que los Principia de Newton infirieron el espacio y el tiempo absolutos, omitieron un éter y, mediante la ley de gravitación universal de Newton , formalizaron la acción a distancia (una supuesta fuerza de gravitación que abarca todo el universo instantáneamente), el trabajo posterior de Newton, Optiks, introdujo un éter que une los cuerpos. ' materia, cuerpos exteriores aún más densos y, no distribuidos uniformemente en todo el espacio, en algunos lugares condensados, por lo que los "espíritus etéreos" median la electricidad, el magnetismo y la gravitación. (Whittaker, Una historia de las teorías del éter y la electricidad (Longmans, Green & Co: 1910), págs. 17-18)
  123. ^ Norton, "La causalidad como ciencia popular", en Price & Corry, eds, Causación madura, física y constitución de la realidad (Oxford UP, 2007), especialmente p.12.
  124. ^ Fetzer, capítulo 3, en Fetzer, ed, Ciencia, explicación y racionalidad (Oxford UP, 2000), p.111.

Fuentes

Otras lecturas