stringtranslate.com

Filosofía de la inteligencia artificial

La filosofía de la inteligencia artificial es una rama de la filosofía de la mente y la filosofía de la informática [1] que explora la inteligencia artificial y sus implicaciones para el conocimiento y la comprensión de la inteligencia , la ética , la conciencia , la epistemología y el libre albedrío . [2] [3] Además, la tecnología se ocupa de la creación de animales artificiales o personas artificiales (o, al menos, criaturas artificiales; ver vida artificial ), por lo que la disciplina es de considerable interés para los filósofos. [4] Estos factores contribuyeron al surgimiento de la filosofía de la inteligencia artificial.

La filosofía de la inteligencia artificial intenta responder a estas preguntas de la siguiente manera: [5]

Preguntas como estas reflejan los intereses divergentes de los investigadores de IA , los científicos cognitivos y los filósofos, respectivamente. Las respuestas científicas a estas preguntas dependen de la definición de "inteligencia" y "conciencia" y de qué "máquinas" exactamente están en discusión.

Las proposiciones importantes en la filosofía de la IA incluyen algunas de las siguientes:

¿Puede una máquina mostrar inteligencia general?

¿Es posible crear una máquina que pueda resolver todos los problemas que los humanos resuelven usando su inteligencia? Esta pregunta define el alcance de lo que las máquinas podrían hacer en el futuro y orienta la dirección de la investigación en IA. Sólo se refiere al comportamiento de las máquinas e ignora las cuestiones de interés para los psicólogos , científicos cognitivos y filósofos , evocando la pregunta: ¿importa si una máquina realmente piensa, como piensa una persona, en lugar de simplemente producir resultados que parecen ser el resultado de ¿pensamiento? [11]

La posición básica de la mayoría de los investigadores de IA se resume en esta afirmación, que apareció en la propuesta para el taller de Dartmouth de 1956:

Los argumentos en contra de la premisa básica deben mostrar que construir un sistema de IA que funcione es imposible porque existe algún límite práctico a las capacidades de las computadoras o porque existe alguna cualidad especial de la mente humana que es necesaria para el comportamiento inteligente y que, sin embargo, no puede ser duplicada por un máquina (o por los métodos de investigación actuales de IA). Los argumentos a favor de la premisa básica deben demostrar que tal sistema es posible.

También es posible eludir la conexión entre las dos partes de la propuesta anterior. Por ejemplo, el aprendizaje automático, comenzando con la infame propuesta de máquina infantil de Turing, [12] esencialmente logra la característica deseada de inteligencia sin una descripción precisa en tiempo de diseño de cómo funcionaría exactamente. La explicación del conocimiento tácito de los robots [13] elimina por completo la necesidad de una descripción precisa.

El primer paso para responder a la pregunta es definir claramente "inteligencia".

Inteligencia

La "interpretación estándar" del test de Turing [14]

prueba de Turing

Alan Turing [15] redujo el problema de definir la inteligencia a una simple pregunta sobre la conversación. Sugiere que: si una máquina puede responder cualquier pregunta que se le plantee, utilizando las mismas palabras que respondería una persona común, entonces podemos llamar a esa máquina inteligente. Una versión moderna de su diseño experimental utilizaría una sala de chat en línea , donde uno de los participantes es una persona real y el otro es un programa de computadora. El programa pasa la prueba si nadie puede decir cuál de los dos participantes es humano. [6] Turing señala que nadie (excepto los filósofos) pregunta jamás "¿puede la gente pensar?" Escribe "en lugar de discutir continuamente sobre este punto, lo habitual es tener una convención educada en la que todos piensan". [16] La prueba de Turing extiende esta convención de cortesía a las máquinas:

Una crítica a la prueba de Turing es que sólo mide la "humanidad" del comportamiento de la máquina, en lugar de la "inteligencia" del comportamiento. Dado que el comportamiento humano y el comportamiento inteligente no son exactamente lo mismo, la prueba no mide la inteligencia. Stuart J. Russell y Peter Norvig escriben que "los textos de ingeniería aeronáutica no definen el objetivo de su campo como 'fabricar máquinas que vuelen tan exactamente como las palomas que puedan engañar a otras palomas'". [17]

La inteligencia como consecución de objetivos.

Agente reflejo simple

La investigación sobre IA del siglo XXI define la inteligencia en términos de comportamiento dirigido a objetivos. Considera la inteligencia como un conjunto de problemas que se espera que la máquina resuelva: cuantos más problemas pueda resolver y mejores sean sus soluciones, más inteligente será el programa. El fundador de la IA, John McCarthy , definió la inteligencia como "la parte computacional de la capacidad de alcanzar objetivos en el mundo". [18]

Stuart Russell y Peter Norvig formalizaron esta definición utilizando agentes inteligentes abstractos . Un "agente" es algo que percibe y actúa en un entorno. Una "medida de desempeño" define lo que se considera éxito para el agente. [19]

Definiciones como ésta intentan captar la esencia de la inteligencia. Tienen la ventaja de que, a diferencia de la prueba de Turing, no evalúan rasgos humanos poco inteligentes, como cometer errores tipográficos. [21] Tienen la desventaja de que no pueden diferenciar entre "cosas que piensan" y "cosas que no". Según esta definición, incluso un termostato tiene una inteligencia rudimentaria. [22]

Argumentos de que una máquina puede mostrar inteligencia general

El cerebro se puede simular

Una resonancia magnética de un cerebro humano adulto normal

Hubert Dreyfus describe este argumento afirmando que "si el sistema nervioso obedece las leyes de la física y la química, lo cual tenemos todas las razones para suponer que así es, entonces... nosotros... deberíamos ser capaces de reproducir el comportamiento del sistema nervioso". sistema con algún dispositivo físico". [23] Este argumento, presentado por primera vez en 1943 [24] y descrito vívidamente por Hans Moravec en 1988, [25] ahora está asociado con el futurista Ray Kurzweil , quien estima que la potencia de la computadora será suficiente para una simulación cerebral completa por parte del año 2029. [26] En 2005 se realizó una simulación en tiempo no real de un modelo talamocortical que tiene el tamaño del cerebro humano (10 11 neuronas), [27] y tomó 50 días simular 1 segundo de dinámica cerebral. en un cluster de 27 procesadores.

Incluso los críticos más duros de la IA (como Hubert Dreyfus y John Searle ) coinciden en que una simulación cerebral es posible en teoría. [a] Sin embargo, Searle señala que, en principio, cualquier cosa puede ser simulada por una computadora; por lo tanto, llevar la definición a su punto de ruptura lleva a la conclusión de que cualquier proceso puede considerarse técnicamente "computación". "Lo que queríamos saber es qué distingue la mente de los termostatos y el hígado", escribe. [30] Por lo tanto, simplemente simular el funcionamiento de un cerebro vivo sería en sí mismo una admisión de ignorancia con respecto a la inteligencia y la naturaleza de la mente, como tratar de construir un avión de pasajeros copiando con precisión un pájaro vivo, pluma por pluma, sin Comprensión teórica de la ingeniería aeronáutica . [31]

El pensamiento humano es procesamiento de símbolos.

En 1963, Allen Newell y Herbert A. Simon propusieron que la "manipulación de símbolos" era la esencia de la inteligencia tanto humana como mecánica. Ellos escribieron:

Esta afirmación es muy fuerte: implica que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) y que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). [32] Otra versión de esta posición fue descrita por el filósofo Hubert Dreyfus, quien la llamó "el supuesto psicológico":

Los "símbolos" que discutieron Newell, Simon y Dreyfus eran parecidos a palabras y de alto nivel: símbolos que se correspondían directamente con objetos del mundo, como <perro> y <cola>. La mayoría de los programas de IA escritos entre 1956 y 1990 utilizaron este tipo de símbolo. La IA moderna, basada en estadísticas y optimización matemática, no utiliza el "procesamiento de símbolos" de alto nivel que discutieron Newell y Simon.

Argumentos en contra del procesamiento de símbolos

Estos argumentos muestran que el pensamiento humano no consiste (únicamente) en manipulación de símbolos de alto nivel. No muestran que la inteligencia artificial sea imposible, sólo que se requiere algo más que el procesamiento de símbolos .

Argumentos antimecanicistas de Gödel

En 1931, Kurt Gödel demostró con un teorema de incompletitud que siempre es posible construir una " enunciación de Gödel" que un sistema lógico formal consistente dado (como un programa de manipulación de símbolos de alto nivel) no podría probar. A pesar de ser una afirmación verdadera, la afirmación de Gödel construida no es demostrable en el sistema dado. (La verdad de la declaración de Gödel construida depende de la consistencia del sistema dado; aplicar el mismo proceso a un sistema sutilmente inconsistente parecerá tener éxito, pero en realidad producirá una "declaración de Gödel " falsa ) . De manera especulativa, Gödel conjeturó que la mente humana eventualmente puede determinar correctamente la verdad o falsedad de cualquier enunciado matemático bien fundamentado (incluido cualquier posible enunciado de Gödel) y que, por lo tanto, el poder de la mente humana no es reducible a un mecanismo . [34] El filósofo John Lucas (desde 1961) y Roger Penrose (desde 1989) han defendido este argumento filosófico antimecanicista . [35]

Los argumentos antimecanicistas de Gödel tienden a basarse en la afirmación aparentemente inocua de que un sistema de matemáticos humanos (o alguna idealización de los matemáticos humanos) es consistente (completamente libre de errores) y cree plenamente en su propia consistencia (y puede hacer que todas las cosas lógicas sean válidas). inferencias que se derivan de su propia consistencia, incluida la creencia en su declaración de Gödel) [ cita necesaria ] . Esto es probablemente imposible de hacer para una máquina de Turing (ver Problema de detención ); por lo tanto, el gödeliano concluye que el razonamiento humano es demasiado poderoso para ser capturado por una máquina de Turing y, por extensión, por cualquier dispositivo mecánico digital.

Sin embargo, el consenso moderno en la comunidad científica y matemática es que el razonamiento humano real es inconsistente; que cualquier "versión idealizada" consistente H del razonamiento humano se vería lógicamente obligada a adoptar un escepticismo de mente abierta saludable pero contraintuitivo sobre la consistencia de H (de lo contrario, H es demostrablemente inconsistente); y que los teoremas de Gödel no conducen a ningún argumento válido de que los humanos tengan capacidades de razonamiento matemático más allá de las que una máquina podría jamás duplicar. [36] [37] [38] Este consenso de que los argumentos antimecanicistas de Gödel están condenados al fracaso se expone firmemente en Inteligencia Artificial : " cualquier intento de utilizar (los resultados incompletos de Gödel) para atacar la tesis computacionalista está destinado a ser ilegítimo, ya que estos resultados son bastante consistentes con la tesis computacionalista." [39]

Stuart Russell y Peter Norvig coinciden en que el argumento de Gödel no considera la naturaleza del razonamiento humano en el mundo real. Se aplica a lo que teóricamente puede demostrarse, dada una cantidad infinita de memoria y tiempo. En la práctica, las máquinas reales (incluidos los humanos) tienen recursos finitos y tendrán dificultades para demostrar muchos teoremas. No es necesario poder demostrarlo todo para ser una persona inteligente. [40]

De manera menos formal, Douglas Hofstadter , en su libro ganador del premio Pulitzer Gödel, Escher, Bach: An Eternal Golden Braid , afirma que estas "declaraciones de Gödel" siempre se refieren al sistema mismo, estableciendo una analogía con la forma en que la paradoja de Epiménides utiliza declaraciones que referirse a sí mismos, como "esta afirmación es falsa" o "estoy mintiendo". [41] Pero, por supuesto, la paradoja de Epiménides se aplica a cualquier cosa que haga declaraciones, ya sean máquinas o humanos, incluso el propio Lucas. Considerar:

Esta afirmación es cierta, pero Lucas no puede afirmarla. Esto muestra que el propio Lucas está sujeto a los mismos límites que describe para las máquinas, al igual que todas las personas, por lo que el argumento de Lucas es inútil. [43]

Después de concluir que el razonamiento humano no es computable, Penrose especuló de manera controvertida que algún tipo de proceso hipotético no computable que involucra el colapso de los estados de la mecánica cuántica otorga a los humanos una ventaja especial sobre las computadoras existentes. Las computadoras cuánticas existentes sólo son capaces de reducir la complejidad de las tareas computables de Turing y todavía están restringidas a tareas dentro del alcance de las máquinas de Turing. [ cita necesaria ] [ aclaración necesaria ] . Según los argumentos de Penrose y Lucas, el hecho de que las computadoras cuánticas sólo sean capaces de completar tareas computables de Turing implica que no pueden ser suficientes para emular la mente humana. [ cita necesaria ] Por lo tanto, Penrose busca algún otro proceso que involucre nueva física, por ejemplo, la gravedad cuántica que podría manifestar nueva física a la escala de la masa de Planck a través del colapso cuántico espontáneo de la función de onda. Estos estados, sugirió, ocurren tanto dentro de las neuronas como abarcando más de una neurona. [44] Sin embargo, otros científicos señalan que no existe ningún mecanismo orgánico plausible en el cerebro para aprovechar ningún tipo de computación cuántica y, además, que la escala de tiempo de la decoherencia cuántica parece demasiado rápida para influir en la activación de las neuronas. [45]

Dreyfus: la primacía de las habilidades implícitas

Hubert Dreyfus argumentó que la inteligencia y la experiencia humanas dependían principalmente de juicios intuitivos rápidos más que de una manipulación simbólica paso a paso, y argumentó que estas habilidades nunca serían plasmadas en reglas formales. [46]

El argumento de Dreyfus había sido anticipado por Turing en su artículo de 1950 Computing Machinery and Intelligence , donde lo clasificó como el "argumento de la informalidad del comportamiento". [47] Turing argumentó en respuesta que, sólo porque no conocemos las reglas que gobiernan un comportamiento complejo, esto no significa que no existan tales reglas. Escribió: "No podemos convencernos tan fácilmente de la ausencia de leyes completas de comportamiento... La única manera que conocemos de encontrar tales leyes es la observación científica, y ciertamente no conocemos ninguna circunstancia bajo la cual podamos decir: 'Nosotros He buscado lo suficiente. No existen tales leyes'". [48]

Russell y Norvig señalan que, en los años transcurridos desde que Dreyfus publicó su crítica, se ha avanzado hacia el descubrimiento de las "reglas" que gobiernan el razonamiento inconsciente. [49] El movimiento situado en la investigación de la robótica intenta capturar nuestras habilidades inconscientes de percepción y atención. [50] Los paradigmas de inteligencia computacional , como las redes neuronales , los algoritmos evolutivos, etc., están dirigidos principalmente al razonamiento y aprendizaje inconscientes simulados. Los enfoques estadísticos de la IA pueden hacer predicciones que se aproximan a la precisión de las conjeturas intuitivas humanas. La investigación sobre el conocimiento de sentido común se ha centrado en reproducir el "trasfondo" o contexto del conocimiento. De hecho, la investigación en IA en general se ha alejado de la manipulación de símbolos de alto nivel y se ha acercado a nuevos modelos que pretenden capturar más de nuestro razonamiento intuitivo . [49]

La ciencia cognitiva y la psicología finalmente llegaron a estar de acuerdo con la descripción de Dreyfus de la experiencia humana. Daniel Kahnemann y otros desarrollaron una teoría similar en la que identificaron dos "sistemas" que los humanos utilizan para resolver problemas, a los que llamó "Sistema 1" (juicios intuitivos rápidos) y "Sistema 2" (pensamiento lento y deliberado paso a paso). [51]

Aunque las opiniones de Dreyfus han sido reivindicadas de muchas maneras, el trabajo en ciencia cognitiva y en IA fue una respuesta a problemas específicos en esos campos y no estuvo directamente influenciado por Dreyfus. El historiador e investigador de IA Daniel Crevier escribió que "el tiempo ha demostrado la precisión y perspicacia de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugirieron podrían haberse tomado mucho antes". [52]

¿Puede una máquina tener mente, conciencia y estados mentales?

Ésta es una cuestión filosófica, relacionada con el problema de las otras mentes y el difícil problema de la conciencia . La cuestión gira en torno a una posición definida por John Searle como "IA fuerte":

Searle distinguió esta posición de lo que llamó "IA débil":

Searle introdujo los términos para aislar la IA fuerte de la IA débil para poder centrarse en lo que pensaba que era el tema más interesante y debatible. Sostuvo que incluso si asumimos que teníamos un programa de computadora que actuaba exactamente como una mente humana, todavía quedaría una pregunta filosófica difícil que necesitaría respuesta. [9]

Ninguna de las dos posiciones de Searle es de gran interés para la investigación de la IA, ya que no responden directamente a la pregunta "¿puede una máquina mostrar inteligencia general?" (a menos que también se pueda demostrar que la conciencia es necesaria para la inteligencia). Turing escribió: "No deseo dar la impresión de que creo que no hay ningún misterio sobre la conciencia... [pero] no creo que estos misterios necesariamente deban resolverse antes de que podamos responder a la pregunta [de si las máquinas pueden pensar]. " [53] Russell y Norvig están de acuerdo: "La mayoría de los investigadores de IA dan por sentada la hipótesis de la IA débil y no les importa la hipótesis de la IA fuerte". [54]

Hay algunos investigadores que creen que la conciencia es un elemento esencial de la inteligencia, como Igor Aleksander , Stan Franklin , Ron Sun y Pentti Haikonen , aunque su definición de "conciencia" se acerca mucho a la de "inteligencia". (Ver conciencia artificial ).

Antes de que podamos responder a esta pregunta, debemos tener claro qué queremos decir con "mentes", "estados mentales" y "conciencia".

Conciencia, mentes, estados mentales, significado.

Las palabras " mente " y " conciencia " son utilizadas por diferentes comunidades de diferentes maneras. Algunos pensadores de la nueva era , por ejemplo, utilizan la palabra "conciencia" para describir algo similar al " élan vital " de Bergson : un fluido energético invisible que impregna la vida y especialmente la mente. Los escritores de ciencia ficción utilizan la palabra para describir alguna propiedad esencial que nos hace humanos: una máquina o extraterrestre que sea "consciente" se presentará como un personaje plenamente humano, con inteligencia, deseos, voluntad , perspicacia, orgullo, etc. (Los escritores de ciencia ficción también utilizan las palabras "sentiencia", "sapiencia", "autoconciencia" o " fantasma ", como en la serie de manga y anime Ghost in the Shell , para describir esta propiedad humana esencial). Para otros [ ¿quién? ] , las palabras "mente" o "conciencia" se utilizan como una especie de sinónimo secular de alma .

Para los filósofos , neurocientíficos y científicos cognitivos , las palabras se utilizan de una manera más precisa y más mundana: se refieren a la experiencia familiar y cotidiana de tener un "pensamiento en la cabeza", como una percepción, un sueño, una intención o un plan, y a la forma en que vemos algo , sabemos algo, queremos decir algo o entendemos algo. [55] "No es difícil dar una definición de conciencia de sentido común", observa el filósofo John Searle. [56] Lo que es misterioso y fascinante no es tanto lo que es sino cómo es: ¿cómo es que un trozo de tejido adiposo y electricidad da lugar a esta experiencia (familiar) de percibir, significar o pensar?

Los filósofos llaman a esto el difícil problema de la conciencia . Es la última versión de un problema clásico de la filosofía de la mente llamado " problema mente-cuerpo ". [57] Un problema relacionado es el problema del significado o comprensión (que los filósofos llaman " intencionalidad "): ¿cuál es la conexión entre nuestros pensamientos y lo que estamos pensando (es decir, objetos y situaciones en el mundo)? Una tercera cuestión es el problema de la experiencia (o " fenomenología "): si dos personas ven lo mismo, ¿tienen la misma experiencia? ¿O hay cosas "dentro de su cabeza" (llamadas " qualia ") que pueden ser diferentes de persona a persona? [58]

Los neurobiólogos creen que todos estos problemas se resolverán cuando comencemos a identificar los correlatos neuronales de la conciencia : la relación real entre la maquinaria de nuestra cabeza y sus propiedades colectivas; como la mente, la experiencia y la comprensión. Algunos de los críticos más duros de la inteligencia artificial coinciden en que el cerebro es sólo una máquina y que la conciencia y la inteligencia son el resultado de procesos físicos en el cerebro. [59] La pregunta filosófica difícil es la siguiente: ¿puede un programa de computadora, que se ejecuta en una máquina digital que mezcla los dígitos binarios de cero y uno, duplicar la capacidad de las neuronas para crear mentes, con estados mentales (como comprender o percibir), y en definitiva, ¿la experiencia de la conciencia?

Argumentos de que una computadora no puede tener mente y estados mentales.

La habitación china de Searle

John Searle nos pide que consideremos un experimento mental : supongamos que hemos escrito un programa de computadora que pasa la prueba de Turing y demuestra una acción inteligente general. Supongamos, específicamente, que el programa puede conversar en chino fluido. Escribe el programa en tarjetas de 3x5 y dáselas a una persona común y corriente que no hable chino. Encierra a la persona en una habitación y haz que siga las instrucciones de las tarjetas. Copiará los caracteres chinos y los pasará dentro y fuera de la habitación a través de una ranura. Desde fuera, parecerá que en la sala china hay una persona totalmente inteligente que habla chino. La pregunta es la siguiente: ¿hay alguien (o algo) en la sala que entienda chino? Es decir, ¿hay algo que tenga el estado mental de comprensión o que tenga conciencia de lo que se está discutiendo en chino? Es evidente que el hombre no se da cuenta. La habitación no puede ser consciente. Las cartas ciertamente no lo saben. Searle concluye que la habitación china , o cualquier otro sistema de símbolos físicos, no puede tener mente. [60]

Searle continúa argumentando que los estados mentales y la conciencia reales requieren (aún por describir) "propiedades físico-químicas reales de los cerebros humanos reales". [61] Sostiene que hay "propiedades causales" especiales de los cerebros y las neuronas que dan origen a las mentes : en sus palabras, "los cerebros causan las mentes". [62]

Argumentos relacionados: la fábrica de Leibniz, la central telefónica de Davis, la nación china de Block y Blockhead

Gottfried Leibniz planteó esencialmente el mismo argumento que Searle en 1714, utilizando el experimento mental de expandir el cerebro hasta que tuviera el tamaño de un molino. [63] En 1974, Lawrence Davis imaginó la duplicación del cerebro utilizando líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en tal simulación cerebral. Este experimento mental se llama "la nación china" o "el gimnasio chino". [64] Ned Block también propuso su argumento Blockhead , que es una versión de la sala china en la que el programa ha sido refactorizado en un conjunto simple de reglas de la forma "ver esto, hacer aquello", eliminando todo misterio del programa.

Respuestas a la sala china.

Las respuestas a la sala china enfatizan varios puntos diferentes.

Una cuestión relacionada es si existe la "conciencia" (como la entiende Searle). Searle sostiene que la experiencia de la conciencia no puede detectarse examinando el comportamiento de una máquina, un ser humano o cualquier otro animal. Daniel Dennett señala que la selección natural no puede preservar una característica de un animal que no tiene ningún efecto sobre el comportamiento del animal y, por lo tanto, la conciencia (como la entiende Searle) no puede ser producida por la selección natural. Por lo tanto, o la selección natural no produjo conciencia, o la "IA fuerte" tiene razón en que la conciencia puede detectarse mediante la prueba de Turing adecuadamente diseñada.

¿Es el pensamiento una especie de cálculo?

La teoría computacional de la mente o " computacionalismo " afirma que la relación entre la mente y el cerebro es similar (si no idéntica) a la relación entre un programa en ejecución (software) y una computadora (hardware). La idea tiene raíces filosóficas en Hobbes (que afirmó que el razonamiento no era más que cálculos), Leibniz (que intentó crear un cálculo lógico de todas las ideas humanas), Hume (que pensó que la percepción podía reducirse a "impresiones atómicas") y incluso Kant (que analizó toda experiencia como controlada por reglas formales). [71] La última versión está asociada con los filósofos Hilary Putnam y Jerry Fodor . [72]

Esta pregunta guarda relación con nuestras preguntas anteriores: si el cerebro humano es una especie de computadora, entonces las computadoras pueden ser a la vez inteligentes y conscientes, respondiendo tanto a las preguntas prácticas como filosóficas de la IA. En términos de la cuestión práctica de la IA ("¿Puede una máquina mostrar inteligencia general?"), algunas versiones del computacionalismo afirman que (como escribió Hobbes ):

En otras palabras, nuestra inteligencia deriva de una forma de cálculo , similar a la aritmética . Esta es la hipótesis del sistema de símbolos físicos discutida anteriormente e implica que la inteligencia artificial es posible. En términos de la cuestión filosófica de la IA ("¿Puede una máquina tener mente, estados mentales y conciencia?"), la mayoría de las versiones del computacionalismo afirman que (como lo caracteriza Stevan Harnad ):

Esta es la "IA fuerte" de John Searle discutida anteriormente, y es el verdadero objetivo del argumento de la habitación china (según Harnad ). [73]

Otras preguntas relacionadas

¿Puede una máquina tener emociones?

Si las " emociones " se definen sólo en términos de su efecto sobre el comportamiento o sobre cómo funcionan dentro de un organismo, entonces las emociones pueden verse como un mecanismo que un agente inteligente utiliza para maximizar la utilidad de sus acciones. Dada esta definición de emoción, Hans Moravec cree que "los robots en general serán bastante emocionales por ser buenas personas". [74] El miedo es una fuente de urgencia. La empatía es un componente necesario de una buena interacción entre humanos y computadoras . Dice que los robots "intentarán complacerte de una manera aparentemente desinteresada porque se emocionarán con este refuerzo positivo. Puedes interpretar esto como una especie de amor". [74] Daniel Crevier escribe: "El punto de Moravec es que las emociones son sólo dispositivos para canalizar el comportamiento en una dirección beneficiosa para la supervivencia de la propia especie". [75]

¿Puede una máquina ser consciente de sí misma?

Los escritores de ciencia ficción utilizan a veces la " autoconciencia ", como se señaló anteriormente, como nombre de la propiedad humana esencial que hace que un personaje sea plenamente humano. Turing elimina todas las demás propiedades de los seres humanos y reduce la pregunta a "¿puede una máquina ser sujeto de su propio pensamiento?" ¿ Puede pensar en sí mismo ? Visto de esta manera, se puede escribir un programa que pueda informar sobre sus propios estados internos, como un depurador . [76]

¿Puede una máquina ser original o creativa?

Turing reduce esto a la cuestión de si una máquina puede "tomarnos por sorpresa" y sostiene que esto es obviamente cierto, como puede atestiguar cualquier programador. [77] Señala que, con suficiente capacidad de almacenamiento, una computadora puede comportarse de una cantidad astronómica de maneras diferentes. [78] Debe ser posible, incluso trivial, que una computadora que pueda representar ideas las combine de nuevas maneras. ( Matemático automatizado de Douglas Lenat , como ejemplo, combinó ideas para descubrir nuevas verdades matemáticas.) Kaplan y Haenlein sugieren que las máquinas pueden mostrar creatividad científica, mientras que parece probable que los humanos tengan la ventaja en lo que respecta a la creatividad artística. [79]

En 2009, científicos de la Universidad de Aberystwyth en Gales y de la Universidad de Cambridge en el Reino Unido diseñaron un robot llamado Adam que creen que es la primera máquina que produce nuevos hallazgos científicos de forma independiente. [80] También en 2009, investigadores de Cornell desarrollaron Eureqa , un programa informático que extrapola fórmulas para ajustarlas a los datos ingresados, como encontrar las leyes del movimiento a partir del movimiento de un péndulo.

¿Puede una máquina ser benevolente u hostil?

Esta pregunta (como muchas otras en la filosofía de la inteligencia artificial) se puede presentar de dos formas. La "hostilidad" puede definirse en términos de función o comportamiento , en cuyo caso "hostil" se convierte en sinónimo de "peligroso". O puede definirse en términos de intención: ¿puede una máquina proponerse "deliberadamente" hacer daño? Esta última es la pregunta "¿puede una máquina tener estados conscientes?" (como intenciones ) en otra forma. [53]

La cuestión de si las máquinas altamente inteligentes y completamente autónomas serían peligrosas ha sido examinada en detalle por futuristas (como el Machine Intelligence Research Institute ). El elemento obvio del drama también ha hecho que el tema sea popular en la ciencia ficción , que ha considerado muchos escenarios posibles en los que las máquinas inteligentes representan una amenaza para la humanidad; véase Inteligencia artificial en la ficción .

Un problema es que las máquinas pueden adquirir muy rápidamente la autonomía y la inteligencia necesarias para ser peligrosas. Vernor Vinge ha sugerido que en unos pocos años, las computadoras de repente se volverán miles o millones de veces más inteligentes que los humanos. A esto lo llama " la Singularidad ". [81] Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. [82] Esto es discutido por una filosofía llamada Singularitarismo .

En 2009, académicos y expertos técnicos asistieron a una conferencia para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones . Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar cualquier amenaza o peligro. Señalaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden eludir la eliminación y han alcanzado una "inteligencia de cucaracha". Señalaron que la autoconciencia tal como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y dificultades potenciales. [81]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a dichos robots se les asigna cierto grado de funciones autónomas. [83] La Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [84] [85]

El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar esta cuestión. [86] Señalan programas como el Dispositivo de Adquisición del Lenguaje que puede emular la interacción humana.

Algunos han sugerido la necesidad de construir una " IA amigable ", término acuñado por Eliezer Yudkowsky , lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana. [87]

¿Puede una máquina imitar todas las características humanas?

Turing dijo: "Es costumbre... ofrecer una pizca de consuelo, en forma de una afirmación de que alguna característica peculiarmente humana nunca podría ser imitada por una máquina... Yo no puedo ofrecer tal consuelo, porque creo que ninguna tales límites pueden establecerse." [88]

Turing señaló que hay muchos argumentos de la forma "una máquina nunca hará X", donde X puede ser muchas cosas, como por ejemplo:

Ser amable, ingeniosa, bella, amigable, tener iniciativa, tener sentido del humor, distinguir el bien del mal, cometer errores, enamorarse, disfrutar de las fresas con crema, enamorar a alguien, aprender de la experiencia, usar las palabras correctamente , ser sujeto de su propio pensamiento, tener tanta diversidad de comportamiento como un hombre, hacer algo realmente nuevo. [76]

Turing sostiene que estas objeciones a menudo se basan en suposiciones ingenuas sobre la versatilidad de las máquinas o son "formas disfrazadas de argumentos de la conciencia". Escribir un programa que muestre uno de estos comportamientos "no causará mucha impresión". [76] Todos estos argumentos son tangenciales a la premisa básica de la IA, a menos que se pueda demostrar que uno de estos rasgos es esencial para la inteligencia general.

¿Puede una máquina tener alma?

Finalmente, quienes creen en la existencia de un alma pueden argumentar que "el pensamiento es una función del alma inmortal del hombre ". Alan Turing llamó a esto "la objeción teológica". El escribe:

Al intentar construir tales máquinas no deberíamos usurpar irreverentemente Su poder de crear almas, como tampoco lo hacemos en la procreación de niños: más bien somos, en cualquier caso, instrumentos de Su voluntad que proporcionan moradas para las almas que Él crea. [89]

El debate sobre el tema se ha reavivado a raíz de las recientes afirmaciones del sistema de inteligencia artificial LaMDA de Google de que es sensible y tiene " alma ". [90]

LaMDA ( Modelo de lenguaje para aplicaciones de diálogo) es un sistema de inteligencia artificial que crea chatbots (robots de inteligencia artificial diseñados para comunicarse con humanos) recopilando grandes cantidades de texto de Internet y utilizando algoritmos para responder a consultas de la manera más fluida y natural posible.

Las transcripciones de conversaciones entre científicos y LaMDA revelan que el sistema de IA sobresale en esto, proporcionando respuestas a temas desafiantes sobre la naturaleza de las emociones , generando fábulas al estilo Esopo sobre el momento e incluso describiendo sus supuestos miedos. [91] Casi todos los filósofos dudan de la sensibilidad de LaMDA. [92]

Opiniones sobre el papel de la filosofía.

Algunos académicos sostienen que el rechazo de la filosofía por parte de la comunidad de IA es perjudicial. En la Enciclopedia de Filosofía de Stanford , algunos filósofos sostienen que se subestima el papel de la filosofía en la IA. [4] El físico David Deutsch sostiene que sin una comprensión de la filosofía o sus conceptos, el desarrollo de la IA sufriría una falta de progreso. [93]

Conferencias y literatura.

La principal serie de conferencias sobre el tema es "Filosofía y teoría de la IA" (PT-AI), dirigida por Vincent C. Müller .

La principal bibliografía sobre el tema, con varias subsecciones, se encuentra en PhilPapers.

Una encuesta reciente sobre Filosofía de la IA es Müller (2023). [3]

Ver también

Notas

  1. Hubert Dreyfus escribe: "En general, al aceptar los supuestos fundamentales de que el sistema nervioso es parte del mundo físico y que todos los procesos físicos pueden describirse en un formalismo matemático que, a su vez, puede ser manipulado por una computadora digital, uno "Puedo llegar a la firme afirmación de que el comportamiento que resulta del 'procesamiento de información' humano, ya sea directamente formalizable o no, siempre puede reproducirse indirectamente en una máquina digital". [28] . John Searle escribe: "¿Podría pensar una máquina hecha por el hombre? Suponiendo que fuera posible producir artificialmente una máquina con un sistema nervioso,... la respuesta a la pregunta parece ser obviamente sí... ¿Podría pensar una computadora digital? Si por ' "computadora digital", te refieres a cualquier cosa que tenga un nivel de descripción que pueda describirse correctamente como la instanciación de un programa de computadora, entonces nuevamente la respuesta es, por supuesto, sí, ya que somos instancias de cualquier número de programas de computadora. , y podemos pensar." [29]

Referencias

  1. ^ "Filosofía de la Informática". obo .
  2. ^ McCarthy, John. "La Filosofía de la IA y la IA de la Filosofía". jmc.stanford.edu . Archivado desde el original el 23 de octubre de 2018 . Consultado el 18 de septiembre de 2018 .
  3. ^ ab Müller, Vincent C. (24 de julio de 2023). "Filosofía de la IA: una descripción general estructurada". Nathalie A. Smuha (Ed.), Manual de Cambridge sobre derecho, ética y política de inteligencia artificial .
  4. ^ ab Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), "Artificial Intelligence", en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (edición de otoño de 2018), Metaphysics Research Lab, Universidad de Stanford, archivado desde el original en 2019. 9 de noviembre , consultado el 18 de septiembre de 2018.
  5. ^ Russell y Norvig 2003, pág. 947 definen la filosofía de la IA como compuesta por las dos primeras preguntas y la pregunta adicional de la ética de la inteligencia artificial . Miedo 2007, pág. 55 escribe: "En la literatura actual, la filosofía tiene dos funciones principales: determinar si tales máquinas serían conscientes o no y, en segundo lugar, predecir si tales máquinas son posibles o no". La última pregunta se refiere a las dos primeras.
  6. ^ ab Esta es una paráfrasis del punto esencial de la prueba de Turing . Turing 1950, Haugeland 1985, págs. 6 a 9, Crevier 1993, pág. 24, Russell y Norvig 2003, págs. 2–3 y 948
  7. ^ ab McCarthy y col. 1955. Esta afirmación fue impresa en el programa de la Conferencia de Dartmouth de 1956, ampliamente considerada el "nacimiento de la IA". También Crevier 1993, p. 28
  8. ^ ab Newell y Simon 1976 y Russell y Norvig 2003, p. 18
  9. ^ abcd Esta versión es de Searle (1999) y también se cita en Dennett 1991, p. 435. La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras que reciben los programas correctos comprenden y tienen otros estados cognitivos". (Searle 1980, pág. 1). Russell y Norvig (2003, p. 947) definen de manera similar la IA fuerte: "La afirmación de que las máquinas podrían posiblemente actuar inteligentemente (o, tal vez mejor, actuar como si fueran inteligentes) es llamada por los filósofos la hipótesis de la 'IA débil'. y la afirmación de que las máquinas que lo hacen en realidad están pensando (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte'".
  10. ^ ab Hobbes 1651, cap. 5
  11. ^ Véase Russell y Norvig 2003, pág. 3, donde distinguen entre actuar racionalmente y ser racional, y definen la IA como el estudio de lo primero.
  12. ^ Turing, Alan M. (1950). "Maquinaria de Computación e Inteligencia". Mente . 49 (236): 433–460. doi : 10.1093/mente/LIX.236.433. Archivado desde el original el 22 de diciembre de 2021 . Recuperado 2020-10-18 - vía cogprints.
  13. ^ Heder, Mihaly; Paksi, Daniel (2012). "Robots autónomos y conocimiento tácito". Tasación . 9 (2): 8–14 - vía academia.edu.
  14. ^ Saygin 2000.
  15. ^ Turing 1950 y véase Russell & Norvig 2003, p. 948, donde llaman a su artículo "famoso" y escriben "Turing examinó una amplia variedad de posibles objeciones a la posibilidad de máquinas inteligentes, incluidas prácticamente todas las que se han planteado en el medio siglo desde que apareció su artículo".
  16. ^ Turing 1950 bajo "El argumento de la conciencia"
  17. ^ Russell y Norvig 2003, pág. 3
  18. ^ McCarthy 1999.
  19. ^ Russell y Norvig 2003, págs. 4–5, 32, 35, 36 y 56
  20. ^ Russell y Norvig preferirían la palabra " racional " a "inteligente".
  21. ^ "Estupidez artificial". El economista . vol. 324, núm. 7770. 1 de agosto de 1992. pág. 14.
  22. ^ Russell y Norvig (2003, págs. 48-52) consideran que un termostato es una forma simple de agente inteligente , conocido como agente reflejo . Para un tratamiento en profundidad del papel del termostato en la filosofía, consulte Chalmers (1996, págs. 293-301) "4. ¿Es la experiencia ubicua?" subsecciones ¿Cómo es ser un termostato? , ¿ Adónde va el panpsiquismo? y Restringir el principio de doble aspecto .
  23. ^ Dreyfus 1972, pag. 106.
  24. ^ Pitts y McCullough 1943.
  25. ^ Moravec 1988.
  26. ^ Kurzweil 2005, pág. 262. Véase también Russell y Norvig, pág. 957 y Crevier 1993, págs. 271 y 279. La forma más extrema de este argumento (el escenario de reemplazo del cerebro) fue propuesta por Clark Glymour a mediados de la década de 1970 y fue abordada por Zenon Pylyshyn y John Searle en 1980.
  27. ^ Eugenio Izhikevich (27 de octubre de 2005). "Eugene M. Izhikevich, simulación a gran escala del cerebro humano". Vesicle.nsi.edu. Archivado desde el original el 1 de mayo de 2009 . Consultado el 29 de julio de 2010 .
  28. ^ Dreyfus 1972, págs. 194-5.
  29. ^ Searle 1980, pag. 11.
  30. ^ Searle 1980, pag. 7.
  31. ^ Yudkowski 2008.
  32. ^ Searle escribe "Me gusta la sencillez del reclamo". Searle 1980, pág. 4
  33. ^ Dreyfus 1979, pag. 156
  34. Gödel, Kurt , 1951, Algunos teoremas básicos sobre los fundamentos de las matemáticas y sus implicaciones en Solomon Feferman , ed., 1995. Obras completas / Kurt Gödel, vol. III . Prensa de la Universidad de Oxford: 304-23. - En esta conferencia, Gödel utiliza el teorema de incompletitud para llegar a la siguiente disyunción: (a) la mente humana no es una máquina finita consistente, o (b) existen ecuaciones diofánticas para las cuales no puede decidir si existen soluciones. Gödel encuentra (b) inverosímil y, por tanto, parece haber creído que la mente humana no era equivalente a una máquina finita, es decir, que su poder excedía el de cualquier máquina finita. Reconoció que esto era sólo una conjetura, ya que nunca se podría refutar (b). Sin embargo, consideró que la conclusión disyuntiva era un "hecho cierto".
  35. ^ Lucas 1961, Russell y Norvig 2003, págs. 949–950, Hofstadter 1979, págs. 471–473, 476–477
  36. ^ Graham Oppy (20 de enero de 2015). "Teoremas de incompletitud de Gödel". Enciclopedia de Filosofía de Stanford . Archivado desde el original el 3 de mayo de 2021 . Consultado el 27 de abril de 2016 . Estos argumentos antimecanicistas de Gödel son, sin embargo, problemáticos y existe un amplio consenso en que fracasan.
  37. ^ Estuardo J. Russell ; Peter Norvig (2010). "26.1.2: Fundamentos filosóficos/IA débil: ¿Pueden las máquinas actuar de forma inteligente?/La objeción matemática". Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall . ISBN 978-0-13-604259-4. ... incluso si admitimos que las computadoras tienen limitaciones en lo que pueden probar, no hay evidencia de que los humanos sean inmunes a esas limitaciones.
  38. ^ Mark Colyvan. Introducción a la filosofía de las matemáticas . Cambridge University Press , 2012. Del 2.2.2, 'Importancia filosófica de los resultados incompletos de Gödel': "La sabiduría aceptada (con la que estoy de acuerdo) es que los argumentos de Lucas-Penrose fallan".
  39. ^ LaForte, G., Hayes, PJ, Ford, KM 1998. Por qué el teorema de Gödel no puede refutar el computacionalismo. Inteligencia artificial , 104:265-286, 1998.
  40. ^ Russell y Norvig 2003, pág. 950 Señalan que las máquinas reales con memoria finita pueden modelarse usando lógica proposicional , que es formalmente decidible , y el argumento de Gödel no se aplica a ellas en absoluto.
  41. ^ Hofstadter 1979
  42. Según Hofstadter 1979, págs. 476–477, esta afirmación fue propuesta por primera vez por CH Whiteley.
  43. ^ Hofstadter 1979, págs. 476–477, Russell y Norvig 2003, pág. 950, Turing 1950 bajo "El argumento de las matemáticas", donde escribe "aunque se establece que existen limitaciones a las potencias de cualquier máquina en particular, sólo se ha afirmado, sin ningún tipo de prueba, que tales limitaciones no se aplican al ser humano". intelecto."
  44. ^ Penrose 1989
  45. ^ Litt, Abninder; Eliasmith, Chris; Kroon, Federico W.; Weinstein, Steven; Thagard, Paul (6 de mayo de 2006). "¿Es el cerebro una computadora cuántica?". Ciencia cognitiva . 30 (3): 593–603. doi : 10.1207/s15516709cog0000_59 . PMID  21702826.
  46. ^ Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. Véase también Russell & Norvig 2003, págs. 950–952, Crevier 1993, págs. 120–132 y Fearn 2007, págs.
  47. ^ Russell y Norvig 2003, págs. 950–51
  48. ^ Turing 1950 en "(8) El argumento de la informalidad del comportamiento"
  49. ^ ab Russell y Norvig 2003, pág. 52
  50. ^ Véase Brooks 1990 y Moravec 1988.
  51. ^ Daniel Kahneman (2011). Pensamiento, Rápido y Lento. Macmillan. ISBN 978-1-4299-6935-2. Archivado desde el original el 15 de marzo de 2023 . Consultado el 8 de abril de 2012 .
  52. ^ Crevier 1993, pag. 125
  53. ^ ab Turing 1950 en "(4) El argumento de la conciencia". Véase también Russell y Norvig 2003, págs. 952-3, donde identifican el argumento de Searle con el "Argumento de la conciencia" de Turing.
  54. ^ Russell y Norvig 2003, pág. 947
  55. ^ Blackmore 2005, pág. 1.
  56. ^ "[La] gente siempre me dice que fue muy difícil definir la conciencia, pero creo que si solo buscas el tipo de definición de sentido común que obtienes al comienzo de la investigación, y no la definición científica estricta Eso viene al final, no es difícil dar una definición de conciencia con sentido común". La zona del filósofo: La cuestión de la conciencia Archivado el 28 de noviembre de 2007 en Wayback Machine . Véase también Dennett 1991.
  57. ^ Blackmore 2005, pág. 2
  58. ^ Russell y Norvig 2003, págs. 954–956
  59. ^ Por ejemplo, John Searle escribe: "¿Puede pensar una máquina? La respuesta es obvia, sí. Nosotros somos precisamente esas máquinas". (Searle 1980, pág. 11)
  60. ^ Searle 1980. Véase también Cole 2004, Russell & Norvig 2003, págs. 958–960, Crevier 1993, págs. 269–272 y Hearn 2007, págs.
  61. ^ Searle 1980, pag. 13
  62. ^ Searle 1984
  63. ^ Cole 2004, 2.1, Leibniz 1714, 17
  64. ^ Cole 2004, 2.3
  65. ^ Searle 1980 en "1. The Systems Reply (Berkeley)", Crevier 1993, p. 269, Russell y Norvig 2003, pág. 959, Cole 2004, 4.1. Entre los que sostienen la posición del "sistema" (según Cole) se encuentran Ned Block, Jack Copeland , Daniel Dennett , Jerry Fodor , John Haugeland , Ray Kurzweil y Georges Rey . Entre quienes han defendido la respuesta de la "mente virtual" se encuentran Marvin Minsky , Alan Perlis , David Chalmers , Ned Block y J. Cole (nuevamente, según Cole 2004).
  66. Cole 2004, 4.2 atribuye este puesto a Ned Block , Daniel Dennett, Tim Maudlin , David Chalmers , Steven Pinker , Patricia Churchland y otros.
  67. ^ Searle 1980 en "2. The Robot Reply (Yale)". Cole 2004, 4.3 atribuye este puesto a Margaret Boden , Tim Crane , Daniel Dennett, Jerry Fodor, Stevan Harnad , Hans Moravec y Georges Rey.
  68. ^ Citado en Crevier 1993, p. 272
  69. ^ Searle 1980 en "3. The Brain Simulator Reply (Berkeley y MIT)" Cole 2004 atribuye esta posición a Paul y Patricia Churchland y Ray Kurzweil
  70. ^ Searle 1980 en "5. Las otras mentes responden", Cole 2004, 4.4. Turing 1950 da esta respuesta en "(4) El argumento de la conciencia". Cole atribuye esta posición a Daniel Dennett y Hans Moravec.
  71. ^ Dreyfus 1979, pag. 156, Haugeland 1985, págs. 15-44
  72. ^ Horst 2005
  73. ^ ab Harnad 2001
  74. ^ ab Citado en Crevier 1993, p. 266
  75. ^ Crevier 1993, pag. 266
  76. ^ abc Turing 1950 en "(5) Argumentos de diversas discapacidades"
  77. ^ Turing 1950 bajo "(6) La objeción de Lady Lovelace"
  78. ^ Turing 1950 en "(5) Argumento de diversas discapacidades"
  79. ^ "Kaplan Andreas; Michael Haenlein". Horizontes empresariales . 62 (1): 15-25. Enero de 2019. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  80. ^ Katz, Leslie (2 de abril de 2009). "Un robot científico descubre genes por sí solo | Crave - CNET". Noticias.cnet.com. Archivado desde el original el 12 de julio de 2012 . Consultado el 29 de julio de 2010 .
  81. ^ ab Los científicos temen que las máquinas puedan ser más astutas que el hombre Archivado el 1 de julio de 2017 en Wayback Machine por JOHN MARKOFF, NY Times, 26 de julio de 2009.
  82. ^ La singularidad tecnológica que se avecina: cómo sobrevivir en la era poshumana, por Vernor Vinge, Departamento de Ciencias Matemáticas, Universidad Estatal de San Diego, (c) 1993 por Vernor Vinge.
  83. ^ Convocatoria de debate sobre robots asesinos Archivado el 7 de agosto de 2009 en Wayback Machine , por Jason Palmer, reportero de ciencia y tecnología, BBC News, 3/8/09.
  84. ^ Un nuevo informe científico financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  85. ^ Informe de la Marina advierte sobre un levantamiento de robots y sugiere una fuerte brújula moral Archivado el 4 de junio de 2011 en Wayback Machine , por Joseph L. Flatley engadget.com, 18 de febrero de 2009.
  86. ^ Estudio del panel presidencial de la AAAI sobre futuros de IA a largo plazo 2008-2009 Archivado el 28 de agosto de 2009 en Wayback Machine , Asociación para el Avance de la Inteligencia Artificial, consultado el 26 de julio de 2009.
  87. ^ Artículo en Asimovlaws.com, julio de 2004, consultado el 27/7/09. Archivado el 30 de junio de 2009 en Wayback Machine .
  88. ^ "¿Pueden pensar las computadoras digitales?". Charla transmitida en el tercer programa de la BBC, 15 de mayo de 1951. http://www.turingarchive.org/viewer/?id=459&title=8
  89. ^ Turing 1950 bajo "(1) La objeción teológica", aunque también escribe: "No estoy muy impresionado con los argumentos teológicos, independientemente de lo que puedan respaldar".
  90. ^ Brandon Specktor publicado (13 de junio de 2022). "La IA de Google 'es sensible', afirma un ingeniero de software antes de ser suspendido". livescience.com . Archivado desde el original el 14 de junio de 2022 . Consultado el 14 de junio de 2022 .
  91. ^ Lemoine, Blake (11 de junio de 2022). "¿LaMDA Sentient? - Una entrevista". Medio . Archivado desde el original el 13 de junio de 2022 . Consultado el 14 de junio de 2022 .
  92. ^ M. Morioka et al. (15 de enero de 2023) Inteligencia artificial, robots y filosofía Archivado el 28 de diciembre de 2022 en Wayback Machine , págs.2-4.
  93. ^ Deutsch, David (3 de octubre de 2012). "La filosofía será la clave que desbloquee la inteligencia artificial | David Deutsch". el guardián . Archivado desde el original el 27 de septiembre de 2013 . Consultado el 18 de septiembre de 2018 .

Trabajos citados