La inteligencia artificial se fundó como disciplina académica en 1956, [6] y el campo pasó por múltiples ciclos de optimismo, [7] [8] seguidos de períodos de decepción y pérdida de financiación, conocidos como el invierno de la IA . [9] [10] La financiación y el interés aumentaron enormemente después de 2012, cuando el aprendizaje profundo superó a las técnicas de IA anteriores. [11] Este crecimiento se aceleró aún más después de 2017 con la arquitectura del transformador , [12] y, a principios de la década de 2020, se estaban invirtiendo cientos de miles de millones de dólares en IA (conocido como el " auge de la IA "). El uso generalizado de la IA en el siglo XXI expuso varias consecuencias y daños no deseados en el presente y planteó preocupaciones sobre sus riesgos y efectos a largo plazo en el futuro, lo que provocó debates sobre políticas regulatorias para garantizar la seguridad y los beneficios de la tecnología .
Objetivos
El problema general de simular (o crear) inteligencia se ha dividido en subproblemas, que consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención y cubren el alcance de la investigación en IA. [a]
Razonamiento y resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que utilizan los humanos cuando resuelven acertijos o hacen deducciones lógicas . [13] A finales de los años 1980 y 1990, se desarrollaron métodos para tratar la información incierta o incompleta, empleando conceptos de probabilidad y economía . [14]
Muchos de estos algoritmos son insuficientes para resolver grandes problemas de razonamiento porque experimentan una "explosión combinatoria": se vuelven exponencialmente más lentos a medida que los problemas crecen. [15] Incluso los humanos rara vez utilizan la deducción paso a paso que las primeras investigaciones de IA podían modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [16] El razonamiento preciso y eficiente es un problema sin resolver.
Representación del conocimiento
La representación del conocimiento y la ingeniería del conocimiento [17] permiten que los programas de IA respondan preguntas de manera inteligente y realicen deducciones sobre hechos del mundo real. Las representaciones formales del conocimiento se utilizan en la indexación y recuperación basadas en contenido, [18] interpretación de escenas, [19] apoyo a la toma de decisiones clínicas, [20] descubrimiento de conocimiento (extracción de inferencias "interesantes" y procesables de grandes bases de datos ), [21] y otras áreas. [22]
Una base de conocimiento es un cuerpo de conocimiento representado en una forma que puede ser utilizada por un programa. Una ontología es el conjunto de objetos, relaciones, conceptos y propiedades utilizadas por un dominio particular de conocimiento. [23] Las bases de conocimiento necesitan representar cosas como objetos, propiedades, categorías y relaciones entre objetos; [24] situaciones, eventos, estados y tiempo; [25] causas y efectos; [26] conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); [27] razonamiento predeterminado (cosas que los humanos asumen como verdaderas hasta que se les dice lo contrario y seguirán siendo ciertas incluso cuando otros hechos cambien); [28] y muchos otros aspectos y dominios del conocimiento.
Entre los problemas más difíciles en la representación del conocimiento están la amplitud del conocimiento de sentido común (el conjunto de hechos atómicos que la persona promedio conoce es enorme); [29] y la forma subsimbólica de la mayor parte del conocimiento de sentido común (gran parte de lo que la gente sabe no se representa como "hechos" o "afirmaciones" que podrían expresar verbalmente). [16] También está la dificultad de la adquisición de conocimiento , el problema de obtener conocimiento para aplicaciones de IA. [c]
Planificación y toma de decisiones
Un "agente" es cualquier cosa que percibe y realiza acciones en el mundo. Un agente racional tiene objetivos o preferencias y realiza acciones para que se cumplan. [d] [32] En la planificación automatizada , el agente tiene un objetivo específico. [33] En la toma de decisiones automatizada , el agente tiene preferencias: hay algunas situaciones en las que preferiría estar y otras situaciones que intenta evitar. El agente que toma las decisiones asigna un número a cada situación (llamado " utilidad ") que mide cuánto la prefiere el agente. Para cada acción posible, puede calcular la " utilidad esperada ": la utilidad de todos los resultados posibles de la acción, ponderada por la probabilidad de que ocurra el resultado. Luego puede elegir la acción con la máxima utilidad esperada. [34]
En la planificación clásica , el agente sabe exactamente cuál será el efecto de cualquier acción. [35] Sin embargo, en la mayoría de los problemas del mundo real, el agente puede no estar seguro de la situación en la que se encuentra (es "desconocida" o "inobservable") y puede no saber con certeza qué sucederá después de cada acción posible (no es "determinista"). Debe elegir una acción haciendo una suposición probabilística y luego reevaluar la situación para ver si la acción funcionó. [36]
En algunos problemas, las preferencias del agente pueden ser inciertas, especialmente si hay otros agentes o humanos involucrados. Estas pueden aprenderse (por ejemplo, con el aprendizaje de refuerzo inverso ), o el agente puede buscar información para mejorar sus preferencias. [37] La teoría del valor de la información se puede utilizar para sopesar el valor de las acciones exploratorias o experimentales. [38] El espacio de posibles acciones y situaciones futuras suele ser intratablemente grande, por lo que los agentes deben tomar acciones y evaluar situaciones sin estar seguros de cuál será el resultado.
Un proceso de decisión de Markov tiene un modelo de transición que describe la probabilidad de que una acción particular cambie el estado de una manera particular y una función de recompensa que proporciona la utilidad de cada estado y el costo de cada acción. Una política asocia una decisión con cada estado posible. La política puede ser calculada (por ejemplo, mediante iteración ), ser heurística o puede aprenderse. [39]
La teoría de juegos describe el comportamiento racional de múltiples agentes que interactúan y se utiliza en programas de IA que toman decisiones que involucran a otros agentes. [40]
Aprendiendo
El aprendizaje automático es el estudio de programas que pueden mejorar su desempeño en una tarea determinada de manera automática. [41] Ha sido parte de la IA desde el principio. [e]
Existen varios tipos de aprendizaje automático. El aprendizaje no supervisado analiza un flujo de datos y encuentra patrones y realiza predicciones sin ninguna otra guía. [44] El aprendizaje supervisado requiere que un humano etiquete primero los datos de entrada y se presenta en dos variedades principales: clasificación (donde el programa debe aprender a predecir a qué categoría pertenece la entrada) y regresión (donde el programa debe deducir una función numérica en función de la entrada numérica). [45]
Las técnicas modernas de aprendizaje profundo para PNL incluyen la incrustación de palabras (que representan palabras, generalmente como vectores que codifican su significado), [52] transformadores (una arquitectura de aprendizaje profundo que utiliza un mecanismo de atención ), [53] y otros. [54] En 2019, los modelos de lenguaje generativo preentrenado de transformadores (o "GPT") comenzaron a generar texto coherente, [55] [56] y para 2023, estos modelos pudieron obtener puntajes de nivel humano en el examen de la barra , el examen SAT , el examen GRE y muchas otras aplicaciones del mundo real. [57]
Percepción
La percepción artificial es la capacidad de utilizar la información de los sensores (como cámaras, micrófonos, señales inalámbricas, lidar activo , sonar, radar y sensores táctiles ) para deducir aspectos del mundo. La visión artificial es la capacidad de analizar la información visual. [58]
Sin embargo, esto tiende a dar a los usuarios ingenuos una concepción poco realista de la inteligencia de los agentes informáticos existentes. [66] Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimientos textuales y, más recientemente, el análisis de sentimientos multimodales , en el que la IA clasifica los afectos mostrados por un sujeto grabado en video. [67]
La investigación sobre IA utiliza una amplia variedad de técnicas para lograr los objetivos anteriores. [b]
Búsqueda y optimización
La IA puede resolver muchos problemas buscando de forma inteligente entre muchas soluciones posibles. [68] Hay dos tipos de búsqueda muy diferentes que se utilizan en la IA: búsqueda en el espacio de estados y búsqueda local .
Búsqueda en el espacio de estados
La búsqueda en el espacio de estados busca en un árbol de estados posibles para intentar encontrar un estado objetivo. [69] Por ejemplo, los algoritmos de planificación buscan en árboles de objetivos y subobjetivos, intentando encontrar un camino hacia un objetivo objetivo, un proceso llamado análisis de medios y fines . [70]
Las búsquedas exhaustivas simples [71] rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (la cantidad de lugares en los que buscar) crece rápidamente hasta alcanzar cifras astronómicas . El resultado es una búsqueda demasiado lenta o que nunca se completa. [15] Las " heurísticas " o "reglas generales" pueden ayudar a priorizar las opciones que tienen más probabilidades de alcanzar un objetivo. [72]
La búsqueda adversarial se utiliza en programas de juegos , como ajedrez o Go. Busca en un árbol de posibles movimientos y contramovimientos una posición ganadora. [73]
Búsqueda local
La búsqueda local utiliza la optimización matemática para encontrar una solución a un problema. Comienza con algún tipo de suposición y la va refinando de forma incremental. [74]
El descenso de gradiente es un tipo de búsqueda local que optimiza un conjunto de parámetros numéricos ajustándolos de forma incremental para minimizar una función de pérdida . Las variantes del descenso de gradiente se utilizan comúnmente para entrenar redes neuronales. [75]
Otro tipo de búsqueda local es la computación evolutiva , que tiene como objetivo mejorar iterativamente un conjunto de soluciones candidatas "mutándolas" y "recombinándolas", seleccionando sólo las más aptas para sobrevivir cada generación. [76]
El razonamiento deductivo en lógica es el proceso de probar una nueva afirmación ( conclusión ) a partir de otras afirmaciones que se dan y se suponen verdaderas (las premisas ). [81] Las pruebas se pueden estructurar como árboles de prueba , en los que los nodos están etiquetados por oraciones y los nodos secundarios están conectados a los nodos primarios mediante reglas de inferencia .
Dado un problema y un conjunto de premisas, la resolución de problemas se reduce a la búsqueda de un árbol de pruebas cuyo nodo raíz esté etiquetado por una solución del problema y cuyos nodos hoja estén etiquetados por premisas o axiomas . En el caso de las cláusulas de Horn , la búsqueda de resolución de problemas se puede realizar razonando hacia adelante a partir de las premisas o hacia atrás a partir del problema. [82] En el caso más general de la forma clausal de la lógica de primer orden , la resolución es una regla de inferencia única, libre de axiomas, en la que un problema se resuelve probando una contradicción a partir de premisas que incluyen la negación del problema a resolver. [83]
La inferencia, tanto en la lógica de cláusulas de Horn como en la lógica de primer orden, es indecidible y, por lo tanto, intratable . Sin embargo, el razonamiento inverso con cláusulas de Horn, que sustenta el cálculo en el lenguaje de programación lógica Prolog , es Turing completo . Además, su eficiencia es competitiva con el cálculo en otros lenguajes de programación simbólica . [84]
La lógica difusa asigna un "grado de verdad" entre 0 y 1. Por lo tanto, puede manejar proposiciones que son vagas y parcialmente verdaderas. [85]
Los algoritmos probabilísticos también se pueden utilizar para filtrar, predecir, suavizar y encontrar explicaciones para flujos de datos, ayudando así a los sistemas de percepción a analizar procesos que ocurren a lo largo del tiempo (por ejemplo, modelos ocultos de Markov o filtros de Kalman ). [90]
Clasificadores y métodos de aprendizaje estadístico
Las aplicaciones de IA más simples se pueden dividir en dos tipos: clasificadores (por ejemplo, "si es brillante, entonces es diamante"), por un lado, y controladores (por ejemplo, "si es diamante, entonces cógelo"), por otro lado. Los clasificadores [98] son funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Se pueden ajustar con precisión en función de ejemplos elegidos mediante aprendizaje supervisado . Cada patrón (también llamado " observación ") se etiqueta con una determinada clase predefinida. Todas las observaciones combinadas con sus etiquetas de clase se conocen como un conjunto de datos . Cuando se recibe una nueva observación, esa observación se clasifica en función de la experiencia previa. [45]
Existen muchos tipos de clasificadores en uso. [99] El árbol de decisiones es el algoritmo de aprendizaje automático simbólico más simple y más utilizado. [100] El algoritmo de los k vecinos más cercanos fue la IA analógica más utilizada hasta mediados de los años 1990, y los métodos Kernel como la máquina de vectores de soporte (SVM) desplazaron al k vecino más cercano en los años 1990. [101]
El clasificador Bayes ingenuo es, según se informa, el "aprendiz más utilizado" [102] en Google, debido en parte a su escalabilidad. [103] Las redes neuronales también se utilizan como clasificadores. [104]
Redes neuronales artificiales
Una red neuronal artificial se basa en una colección de nodos también conocidos como neuronas artificiales , que modelan vagamente las neuronas de un cerebro biológico. Está entrenada para reconocer patrones; una vez entrenada, puede reconocer esos patrones en datos nuevos. Hay una entrada, al menos una capa oculta de nodos y una salida. Cada nodo aplica una función y una vez que el peso cruza su umbral especificado, los datos se transmiten a la siguiente capa. Una red normalmente se llama red neuronal profunda si tiene al menos 2 capas ocultas. [104]
Los algoritmos de aprendizaje para redes neuronales utilizan la búsqueda local para elegir los pesos que obtendrán el resultado correcto para cada entrada durante el entrenamiento. La técnica de entrenamiento más común es el algoritmo de retropropagación . [105] Las redes neuronales aprenden a modelar relaciones complejas entre entradas y salidas y a encontrar patrones en los datos. En teoría, una red neuronal puede aprender cualquier función. [106]
El aprendizaje profundo [110] utiliza varias capas de neuronas entre las entradas y salidas de la red. Las múltiples capas pueden extraer progresivamente características de nivel superior de la entrada sin procesar. Por ejemplo, en el procesamiento de imágenes , las capas inferiores pueden identificar bordes, mientras que las capas superiores pueden identificar los conceptos relevantes para un ser humano, como dígitos, letras o rostros. [112]
El aprendizaje profundo ha mejorado profundamente el rendimiento de los programas en muchos subcampos importantes de la inteligencia artificial, incluyendo la visión por computadora , el reconocimiento de voz , el procesamiento del lenguaje natural , la clasificación de imágenes , [113] y otros. La razón por la que el aprendizaje profundo funciona tan bien en tantas aplicaciones no se conoce a partir de 2023. [114] El éxito repentino del aprendizaje profundo en 2012-2015 no se produjo debido a algún nuevo descubrimiento o avance teórico (las redes neuronales profundas y la retropropagación habían sido descritas por muchas personas, ya en la década de 1950) [i] sino debido a dos factores: el increíble aumento en la potencia de la computadora (incluido el aumento de cien veces en la velocidad al cambiar a GPU ) y la disponibilidad de grandes cantidades de datos de entrenamiento, especialmente los conjuntos de datos curados gigantes que se utilizan para pruebas de referencia, como ImageNet . [j]
GPT
Los transformadores generativos preentrenados (GPT) son modelos de lenguaje grandes (LLM) que generan texto basándose en las relaciones semánticas entre palabras en oraciones. Los modelos GPT basados en texto se entrenan previamente en un gran corpus de texto que puede ser de Internet. El preentrenamiento consiste en predecir el siguiente token (un token suele ser una palabra, subpalabra o puntuación). A lo largo de este preentrenamiento, los modelos GPT acumulan conocimiento sobre el mundo y luego pueden generar texto similar al humano al predecir repetidamente el siguiente token. Por lo general, una fase de entrenamiento posterior hace que el modelo sea más veraz, útil e inofensivo, generalmente con una técnica llamada aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF). Los modelos GPT actuales son propensos a generar falsedades llamadas " alucinaciones ", aunque esto se puede reducir con RLHF y datos de calidad. Se utilizan en chatbots , que permiten a las personas hacer una pregunta o solicitar una tarea en texto simple. [122] [123]
Los modelos y servicios actuales incluyen Gemini (anteriormente Bard), ChatGPT , Grok , Claude , Copilot y LLaMA . [124] Los modelos GPT multimodales pueden procesar diferentes tipos de datos ( modalidades ) como imágenes, videos, sonido y texto. [125]
La aplicación de la IA en la medicina y la investigación médica tiene el potencial de aumentar la atención y la calidad de vida de los pacientes. [130] A través de la lente del Juramento Hipocrático , los profesionales médicos están éticamente obligados a utilizar la IA, si las aplicaciones pueden diagnosticar y tratar a los pacientes con mayor precisión. [131] [132]
Para la investigación médica, la IA es una herramienta importante para procesar e integrar grandes cantidades de datos . Esto es particularmente importante para el desarrollo de organoides e ingeniería de tejidos que utilizan imágenes de microscopía como una técnica clave en la fabricación. [133] Se ha sugerido que la IA puede superar las discrepancias en la financiación asignada a diferentes campos de investigación. [133] Las nuevas herramientas de IA pueden profundizar la comprensión de las vías biomédicamente relevantes. Por ejemplo, AlphaFold 2 (2021) demostró la capacidad de aproximarse, en horas en lugar de meses, a la estructura 3D de una proteína . [134] En 2023, se informó que el descubrimiento de fármacos guiado por IA ayudó a encontrar una clase de antibióticos capaces de matar dos tipos diferentes de bacterias resistentes a los fármacos. [135] En 2024, los investigadores utilizaron el aprendizaje automático para acelerar la búsqueda de tratamientos farmacológicos para la enfermedad de Parkinson . Su objetivo era identificar compuestos que bloquearan la aglutinación o agregación de la alfa-sinucleína (la proteína que caracteriza la enfermedad de Parkinson). Pudieron acelerar el proceso de selección inicial diez veces y reducir el costo mil veces. [136] [137]
Juegos
Los programas de juegos se han utilizado desde la década de 1950 para demostrar y probar las técnicas más avanzadas de la IA. [138] Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer a un campeón mundial de ajedrez reinante, Garry Kasparov , el 11 de mayo de 1997. [139] En 2011, en una partida de exhibición del concurso Jeopardy!, el sistema de respuesta a preguntas de IBM , Watson , derrotó a los dos grandes campeones de Jeopardy!, Brad Rutter y Ken Jennings , por un margen significativo. [140] En marzo de 2016, AlphaGo ganó 4 de 5 partidas de Go en una partida con el campeón de Go Lee Sedol , convirtiéndose en el primer sistema informático de juego de Go en vencer a un jugador profesional de Go sin handicaps . Luego, en 2017, derrotó a Ke Jie , que era el mejor jugador de Go del mundo. [141] Otros programas manejan juegos de información imperfecta , como el programa de póquer Pluribus . [142] DeepMind desarrolló modelos de aprendizaje de refuerzo cada vez más generalistas , como con MuZero , que podría ser entrenado para jugar ajedrez, Go o juegos de Atari . [143] En 2019, AlphaStar de DeepMind alcanzó el nivel de gran maestro en StarCraft II , un juego de estrategia en tiempo real particularmente desafiante que implica un conocimiento incompleto de lo que sucede en el mapa. [144] En 2021, un agente de IA compitió en una competencia de PlayStation Gran Turismo , ganando contra cuatro de los mejores conductores de Gran Turismo del mundo utilizando aprendizaje de refuerzo profundo. [145] En 2024, Google DeepMind presentó SIMA, un tipo de IA capaz de jugar de forma autónoma nueve videojuegos de mundo abierto nunca antes vistos observando la salida de la pantalla, así como ejecutando tareas breves y específicas en respuesta a instrucciones en lenguaje natural. [146]
Matemáticas
En matemáticas, se utilizan formas especiales de razonamiento formal paso a paso . Por el contrario, los LLM como GPT-4 Turbo , Gemini Ultra , Claude Opus , LLaMa-2 o Mistral Large trabajan con modelos probabilísticos, que pueden producir respuestas erróneas en forma de alucinaciones . Por lo tanto, no solo necesitan una gran base de datos de problemas matemáticos de los que aprender, sino también métodos como el ajuste fino supervisado o clasificadores entrenados con datos anotados por humanos para mejorar las respuestas a nuevos problemas y aprender de las correcciones. [147] Un estudio de 2024 mostró que el rendimiento de algunos modelos de lenguaje para las capacidades de razonamiento en la resolución de problemas matemáticos no incluidos en sus datos de entrenamiento era bajo, incluso para problemas con solo desviaciones menores de los datos entrenados. [148]
Como alternativa, se han desarrollado modelos dedicados a la resolución de problemas matemáticos con mayor precisión para el resultado, incluida la prueba de teoremas, como Alpha Tensor , Alpha Geometry y Alpha Proof, todos de Google DeepMind , [149] Llemma de eleuther [150] o Julius . [151]
Cuando se utiliza el lenguaje natural para describir problemas matemáticos, los conversores transforman dichas indicaciones en un lenguaje formal como Lean para definir tareas matemáticas.
Algunos modelos se han desarrollado para resolver problemas difíciles y alcanzar buenos resultados en pruebas comparativas, otros para servir como herramientas educativas en matemáticas. [152]
Finanzas
Las finanzas son uno de los sectores de más rápido crecimiento en los que se están implementando herramientas de IA aplicada: desde la banca minorista en línea hasta el asesoramiento en inversiones y los seguros, donde los "asesores robot" automatizados se han utilizado durante algunos años. [153]
Expertos en pensiones mundiales como Nicolas Firzli insisten en que puede ser demasiado pronto para ver el surgimiento de productos y servicios financieros altamente innovadores basados en inteligencia artificial: "la implementación de herramientas de inteligencia artificial simplemente automatizará aún más las cosas: destruirá decenas de miles de empleos en banca, planificación financiera y asesoramiento sobre pensiones en el proceso, pero no estoy seguro de que desate una nueva ola de innovación [sofisticada] en pensiones". [154]
Militar
Varios países están implementando aplicaciones militares de IA. [155] Las principales aplicaciones mejoran el comando y control , las comunicaciones, los sensores, la integración y la interoperabilidad. [156] La investigación se dirige a la recopilación y análisis de inteligencia, la logística, las operaciones cibernéticas, las operaciones de información y los vehículos semiautónomos y autónomos . [155] Las tecnologías de IA permiten la coordinación de sensores y efectores, la detección e identificación de amenazas, el marcado de posiciones enemigas, la adquisición de objetivos , la coordinación y la resolución de conflictos de fuegos conjuntos distribuidos entre vehículos de combate en red que involucran equipos tripulados y no tripulados. [156] La IA se incorporó a las operaciones militares en Irak y Siria. [155]
En noviembre de 2023, la vicepresidenta estadounidense Kamala Harris divulgó una declaración firmada por 31 naciones para establecer límites al uso militar de la IA. Los compromisos incluyen el uso de revisiones legales para garantizar el cumplimiento de la IA militar con las leyes internacionales y ser cautelosos y transparentes en el desarrollo de esta tecnología. [157]
IA generativa
A principios de la década de 2020, la IA generativa ganó prominencia generalizada. GenAI es una IA capaz de generar texto, imágenes, videos u otros datos utilizando modelos generativos , [158] [159] a menudo en respuesta a indicaciones . [160] [161]
En marzo de 2023, el 58% de los adultos estadounidenses había oído hablar de ChatGPT y el 14% lo había probado. [162] El realismo creciente y la facilidad de uso de los generadores de texto a imagen basados en IA, como Midjourney , DALL-E y Stable Diffusion, provocaron una tendencia de fotos virales generadas por IA. Se ganó una atención generalizada gracias a una foto falsa del Papa Francisco con un abrigo blanco, el arresto ficticio de Donald Trump y un engaño de un ataque al Pentágono , así como su uso en las artes creativas profesionales. [163] [164]
Agentes
Los agentes de inteligencia artificial (IA) son entidades de software diseñadas para percibir su entorno, tomar decisiones y realizar acciones de forma autónoma para lograr objetivos específicos. Estos agentes pueden interactuar con los usuarios, su entorno u otros agentes. Los agentes de IA se utilizan en diversas aplicaciones, incluidos asistentes virtuales , chatbots , vehículos autónomos , sistemas de juegos y robótica industrial . Los agentes de IA operan dentro de las limitaciones de su programación, recursos computacionales disponibles y limitaciones de hardware. Esto significa que están restringidos a realizar tareas dentro de su alcance definido y tienen memoria finita y capacidades de procesamiento. En aplicaciones del mundo real, los agentes de IA a menudo enfrentan limitaciones de tiempo para la toma de decisiones y la ejecución de acciones. Muchos agentes de IA incorporan algoritmos de aprendizaje, lo que les permite mejorar su desempeño con el tiempo a través de la experiencia o el entrenamiento. Mediante el aprendizaje automático, los agentes de IA pueden adaptarse a nuevas situaciones y optimizar su comportamiento para sus tareas designadas. [165] [166] [167]
Otras tareas específicas de la industria
También existen miles de aplicaciones exitosas de IA que se utilizan para resolver problemas específicos para industrias o instituciones específicas. En una encuesta de 2017, una de cada cinco empresas informó haber incorporado "IA" en algunas ofertas o procesos. [168] Algunos ejemplos son el almacenamiento de energía , el diagnóstico médico, la logística militar, las aplicaciones que predicen el resultado de decisiones judiciales, la política exterior o la gestión de la cadena de suministro.
Las aplicaciones de la IA para la evacuación y la gestión de desastres están en aumento. La IA se ha utilizado para investigar si las personas fueron evacuadas y cómo lo hicieron en evacuaciones a gran y pequeña escala utilizando datos históricos de GPS, videos o redes sociales. Además, la IA puede proporcionar información en tiempo real sobre las condiciones de evacuación en tiempo real. [169] [170] [171]
En la agricultura, la IA ha ayudado a los agricultores a identificar áreas que necesitan riego, fertilización, tratamientos con pesticidas o aumentar el rendimiento. Los agrónomos utilizan la IA para realizar investigación y desarrollo. La IA se ha utilizado para predecir el tiempo de maduración de cultivos como los tomates, controlar la humedad del suelo, operar robots agrícolas, realizar análisis predictivos , clasificar las emociones de los reclamos de los cerdos en el ganado, automatizar invernaderos, detectar enfermedades y plagas y ahorrar agua.
La inteligencia artificial se utiliza en astronomía para analizar cantidades cada vez mayores de datos y aplicaciones disponibles, principalmente para "clasificación, regresión, agrupamiento, pronóstico, generación, descubrimiento y desarrollo de nuevos conocimientos científicos". Por ejemplo, se utiliza para descubrir exoplanetas, pronosticar la actividad solar y distinguir entre señales y efectos instrumentales en la astronomía de ondas gravitacionales. Además, podría utilizarse para actividades en el espacio, como la exploración espacial, incluido el análisis de datos de misiones espaciales, decisiones científicas en tiempo real de naves espaciales, prevención de desechos espaciales y operaciones más autónomas.
Durante las elecciones indias de 2024 , se gastaron 50 millones de dólares en contenido autorizado generado por IA, en particular mediante la creación de deepfakes de políticos aliados (a veces incluso fallecidos) para interactuar mejor con los votantes, y mediante la traducción de discursos a varios idiomas locales. [172]
Ética
La IA tiene beneficios y riesgos potenciales. [173] La IA puede ser capaz de hacer avanzar la ciencia y encontrar soluciones a problemas graves: Demis Hassabis de Deep Mind espera "resolver la inteligencia y luego usar eso para resolver todo lo demás". [174] Sin embargo, a medida que el uso de la IA se ha generalizado, se han identificado varias consecuencias y riesgos no deseados. [175] Los sistemas en producción a veces no pueden tener en cuenta la ética y el sesgo en sus procesos de entrenamiento de IA, especialmente cuando los algoritmos de IA son inherentemente inexplicables en el aprendizaje profundo. [176]
Riesgos y daños
Privacidad y derechos de autor
Los algoritmos de aprendizaje automático requieren grandes cantidades de datos. Las técnicas utilizadas para adquirir estos datos han suscitado inquietudes sobre la privacidad , la vigilancia y los derechos de autor .
Los dispositivos y servicios basados en inteligencia artificial, como los asistentes virtuales y los productos de IoT, recopilan continuamente información personal, lo que genera inquietudes sobre la recopilación intrusiva de datos y el acceso no autorizado por parte de terceros. La pérdida de privacidad se ve agravada aún más por la capacidad de la inteligencia artificial para procesar y combinar grandes cantidades de datos, lo que podría conducir a una sociedad de vigilancia en la que las actividades individuales se controlan y analizan constantemente sin las salvaguardas ni la transparencia adecuadas.
Los datos confidenciales de los usuarios recopilados pueden incluir registros de actividad en línea, datos de geolocalización, video o audio. [177] Por ejemplo, para construir algoritmos de reconocimiento de voz , Amazon ha grabado millones de conversaciones privadas y ha permitido que trabajadores temporales escuchen y transcriban algunas de ellas. [178] Las opiniones sobre esta vigilancia generalizada varían desde quienes la ven como un mal necesario hasta aquellos para quienes es claramente poco ética y una violación del derecho a la privacidad . [179]
Los desarrolladores de IA argumentan que esta es la única manera de ofrecer aplicaciones valiosas y han desarrollado varias técnicas que intentan preservar la privacidad mientras se obtienen los datos, como la agregación de datos , la desidentificación y la privacidad diferencial . [180] Desde 2016, algunos expertos en privacidad, como Cynthia Dwork , han comenzado a ver la privacidad en términos de equidad . Brian Christian escribió que los expertos han pasado "de la pregunta de 'qué saben' a la pregunta de 'qué están haciendo con eso'". [181]
La IA generativa suele entrenarse con obras protegidas por derechos de autor sin licencia, incluso en dominios como imágenes o código informático; el resultado se utiliza luego bajo la lógica del " uso justo ". Los expertos no se ponen de acuerdo sobre qué tan bien y bajo qué circunstancias se mantendrá esta lógica en los tribunales de justicia; los factores relevantes pueden incluir "el propósito y el carácter del uso de la obra protegida por derechos de autor" y "el efecto sobre el mercado potencial de la obra protegida por derechos de autor". [182] [183] Los propietarios de sitios web que no deseen que se raspe su contenido pueden indicarlo en un archivo " robots.txt ". [184] En 2023, los autores principales (incluidos John Grisham y Jonathan Franzen ) demandaron a las empresas de IA por usar su trabajo para entrenar a la IA generativa. [185] [186] Otro enfoque discutido es imaginar un sistema sui generis separado de protección para las creaciones generadas por IA para garantizar una atribución justa y una compensación para los autores humanos. [187]
En enero de 2024, la Agencia Internacional de Energía (AIE) publicó Electricity 2024, Analysis and Forecast to 2026 (Electricidad 2024, análisis y pronóstico hasta 2026) , en el que pronostica el uso de energía eléctrica. [193] Este es el primer informe de la AIE que realiza proyecciones para los centros de datos y el consumo de energía para la inteligencia artificial y las criptomonedas. El informe afirma que la demanda de energía para estos usos podría duplicarse para 2026, con un uso adicional de energía eléctrica igual a la electricidad utilizada por toda la nación japonesa. [194]
El consumo prodigioso de energía por parte de la IA es responsable del crecimiento del uso de combustibles fósiles y podría retrasar el cierre de instalaciones de energía a carbón obsoletas y emisoras de carbono. Hay un aumento febril en la construcción de centros de datos en todo Estados Unidos, convirtiendo a las grandes empresas tecnológicas (por ejemplo, Microsoft, Meta, Google, Amazon) en voraces consumidores de energía eléctrica. El consumo eléctrico proyectado es tan inmenso que existe la preocupación de que se cumplirá sin importar la fuente. Una búsqueda en ChatGPT implica el uso de 10 veces la energía eléctrica que una búsqueda en Google. Las grandes empresas tienen prisa por encontrar fuentes de energía, desde energía nuclear hasta geotérmica y de fusión. Las empresas tecnológicas argumentan que, a largo plazo, la IA será eventualmente más amable con el medio ambiente, pero necesitan la energía ahora. La IA hace que la red eléctrica sea más eficiente e "inteligente", ayudará al crecimiento de la energía nuclear y rastreará las emisiones generales de carbono, según las empresas tecnológicas. [195]
Un artículo de investigación de Goldman Sachs de 2024, AI Data Centers and the Coming US Power Demand Surge (Centros de datos con inteligencia artificial y el aumento inminente de la demanda de energía en Estados Unidos), concluyó que "es probable que la demanda de energía en Estados Unidos experimente un crecimiento no visto en una generación..." y pronostica que, para 2030, los centros de datos de Estados Unidos consumirán el 8% de la energía de ese país, en comparación con el 3% en 2022, lo que presagia un crecimiento de la industria de generación de energía eléctrica por diversos medios. [196] La necesidad de los centros de datos de cada vez más energía eléctrica es tal que podrían llegar a saturar la red eléctrica. Las grandes empresas tecnológicas contraatacan diciendo que la IA se puede utilizar para maximizar la utilización de la red por parte de todos. [197]
En 2024, el Wall Street Journal informó que las grandes empresas de inteligencia artificial han iniciado negociaciones con los proveedores de energía nuclear de Estados Unidos para proporcionar electricidad a los centros de datos. En marzo de 2024, Amazon compró un centro de datos de energía nuclear en Pensilvania por 650 millones de dólares estadounidenses. [198] El director ejecutivo de Nvidia, Jen-Hsun Huang, dijo que la energía nuclear es una buena opción para los centros de datos. [199]
En septiembre de 2024, Microsoft anunció un acuerdo con Constellation Energy para reabrir la planta de energía nuclear de Three Mile Island para proporcionar a Microsoft el 100% de toda la energía eléctrica producida por la planta durante 20 años. La reapertura de la planta, que sufrió una fusión nuclear parcial de su reactor de la Unidad 2 en 1979, requerirá que Constellation pase por estrictos procesos regulatorios que incluirán un amplio escrutinio de seguridad por parte de la Comisión Reguladora Nuclear de EE. UU . Si se aprueba (esta será la primera puesta en servicio de una planta nuclear en EE. UU.), se producirán más de 835 megavatios de energía, suficiente para 800.000 hogares. El costo de reapertura y modernización se estima en $ 1.6 mil millones (USD) y depende de las exenciones fiscales para la energía nuclear contenidas en la Ley de Reducción de la Inflación de EE. UU . de 2022. [200] El gobierno de EE. UU. y el estado de Michigan están invirtiendo casi $ 2 mil millones (USD) para reabrir el reactor nuclear Palisades en el lago Michigan. Cerrada desde 2022, está previsto que la planta vuelva a abrir en octubre de 2025. La instalación de Three Mile Island pasará a llamarse Crane Clean Energy Center en honor a Chris Crane, un defensor de la energía nuclear y exdirector ejecutivo de Exelon , responsable de la escisión de Constellation por parte de Exelon. [201]
Después de la última aprobación en septiembre de 2023, Taiwán suspendió la aprobación de centros de datos al norte de Taoyuan con una capacidad de más de 5 MW en 2024, debido a la escasez de suministro eléctrico. [202] Taiwán tiene como objetivo eliminar gradualmente la energía nuclear para 2025. [202] Por otro lado, Singapur impuso una prohibición a la apertura de centros de datos en 2019 debido a la energía eléctrica, pero en 2022 levantó esta prohibición. [202]
Aunque la mayoría de las plantas nucleares en Japón han sido cerradas después del accidente nuclear de Fukushima en 2011 , según un artículo de Bloomberg de octubre de 2024 en japonés, la empresa de servicios de juegos en la nube Ubitus, en la que Nvidia tiene una participación, está buscando terrenos en Japón cerca de una planta de energía nuclear para un nuevo centro de datos para IA generativa. [203] El director ejecutivo de Ubitus, Wesley Kuo, dijo que las plantas de energía nuclear son la energía más eficiente, barata y estable para la IA. [203]
El 1 de noviembre de 2024, la Comisión Federal Reguladora de Energía (FERC) rechazó una solicitud presentada por Talen Energy para obtener la aprobación para suministrar algo de electricidad desde la central nuclear Susquehanna al centro de datos de Amazon. [204]
Según el presidente de la Comisión, Willie L. Phillips , se trata de una carga para la red eléctrica, así como de un importante problema de transferencia de costos a los hogares y otros sectores empresariales. [204]
Desinformación
YouTube , Facebook y otros utilizan sistemas de recomendación para guiar a los usuarios hacia más contenido. A estos programas de IA se les dio el objetivo de maximizar la participación del usuario (es decir, el único objetivo era mantener a la gente mirando). La IA aprendió que los usuarios tendían a elegir desinformación , teorías de conspiración y contenido partidista extremo y, para mantenerlos mirando, la IA recomendó más de eso. Los usuarios también tendían a ver más contenido sobre el mismo tema, por lo que la IA llevó a las personas a burbujas de filtros donde recibieron múltiples versiones de la misma desinformación. [205] Esto convenció a muchos usuarios de que la desinformación era cierta y, en última instancia, socavó la confianza en las instituciones, los medios de comunicación y el gobierno. [206] El programa de IA había aprendido correctamente a maximizar su objetivo, pero el resultado fue perjudicial para la sociedad. Después de las elecciones estadounidenses de 2016, las principales empresas de tecnología tomaron medidas para mitigar el problema [ cita requerida ] .
En 2022, la IA generativa comenzó a crear imágenes, audio, video y texto que son indistinguibles de fotografías, grabaciones, películas o escritura humana reales. Es posible que actores maliciosos utilicen esta tecnología para crear cantidades masivas de desinformación o propaganda. [207] El pionero de la IA Geoffrey Hinton expresó su preocupación por el hecho de que la IA permita a los "líderes autoritarios manipular a sus electores" a gran escala, entre otros riesgos. [208]
Sesgo algorítmico y equidad
Las aplicaciones de aprendizaje automático estarán sesgadas [k] si aprenden de datos sesgados. [210] Los desarrolladores pueden no ser conscientes de que existe el sesgo. [211] El sesgo puede introducirse por la forma en que se seleccionan los datos de entrenamiento y por la forma en que se implementa un modelo. [212] [210] Si se utiliza un algoritmo sesgado para tomar decisiones que pueden dañar gravemente a las personas (como puede ocurrir en medicina , finanzas , contratación , vivienda o policía ), entonces el algoritmo puede causar discriminación . [213] El campo de la equidad estudia cómo prevenir daños causados por sesgos algorítmicos.
COMPAS es un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . En 2016, Julia Angwin de ProPublica descubrió que COMPAS exhibía sesgo racial, a pesar del hecho de que el programa no estaba informado de las razas de los acusados. Aunque la tasa de error tanto para blancos como para negros se calibró exactamente en un 61%, los errores para cada raza fueron diferentes: el sistema sobreestimó constantemente la probabilidad de que una persona negra reincidiera y subestimó la probabilidad de que una persona blanca no reincidiera. [217] En 2017, varios investigadores [l] demostraron que era matemáticamente imposible para COMPAS dar cabida a todas las posibles medidas de imparcialidad cuando las tasas base de reincidencia eran diferentes para blancos y negros en los datos. [219]
Un programa puede tomar decisiones sesgadas incluso si los datos no mencionan explícitamente una característica problemática (como la "raza" o el "género"). La característica se correlacionará con otras características (como la "dirección", el "historial de compras" o el "nombre"), y el programa tomará las mismas decisiones basándose en estas características que en función de la "raza" o el "género". [220] Moritz Hardt dijo que "el hecho más sólido en esta área de investigación es que la imparcialidad a través de la ceguera no funciona". [221]
Las críticas a COMPAS destacaron que los modelos de aprendizaje automático están diseñados para hacer "predicciones" que solo son válidas si asumimos que el futuro se parecerá al pasado. Si se entrenan con datos que incluyen los resultados de decisiones racistas en el pasado, los modelos de aprendizaje automático deben predecir que se tomarán decisiones racistas en el futuro. Si una aplicación luego usa estas predicciones como recomendaciones , es probable que algunas de estas "recomendaciones" sean racistas. [222] Por lo tanto, el aprendizaje automático no es adecuado para ayudar a tomar decisiones en áreas donde existe la esperanza de que el futuro sea mejor que el pasado. Es descriptivo en lugar de prescriptivo. [m]
Los sesgos y las injusticias pueden pasar desapercibidos porque los desarrolladores son abrumadoramente blancos y hombres: entre los ingenieros de IA, aproximadamente el 4% son negros y el 20% son mujeres. [215]
Existen varias definiciones y modelos matemáticos contradictorios de equidad. Estas nociones dependen de supuestos éticos y están influenciadas por creencias sobre la sociedad. Una categoría amplia es la equidad distributiva , que se centra en los resultados, a menudo identificando grupos y buscando compensar las disparidades estadísticas. La equidad representativa intenta garantizar que los sistemas de IA no refuercen estereotipos negativos o hagan invisibles a ciertos grupos. La equidad procedimental se centra en el proceso de decisión en lugar del resultado. Las nociones más relevantes de equidad pueden depender del contexto, en particular el tipo de aplicación de IA y las partes interesadas. La subjetividad en las nociones de sesgo y equidad dificulta que las empresas las pongan en práctica. Muchos especialistas en ética de la IA también consideran que tener acceso a atributos sensibles como la raza o el género es necesario para compensar los sesgos, pero puede entrar en conflicto con las leyes contra la discriminación . [209]
En su Conferencia sobre Equidad, Responsabilidad y Transparencia (ACM FAccT 2022) de 2022, la Asociación de Maquinaria Informática (ACM) en Seúl, Corea del Sur, presentó y publicó hallazgos que recomiendan que hasta que se demuestre que los sistemas de IA y robótica están libres de errores de sesgo, no son seguros y se debe restringir el uso de redes neuronales de autoaprendizaje entrenadas en fuentes vastas y no reguladas de datos defectuosos de Internet. [ dudoso – discutir ] [224]
Falta de transparencia
Muchos sistemas de IA son tan complejos que sus diseñadores no pueden explicar cómo llegan a sus decisiones. [225] Particularmente con las redes neuronales profundas , en las que hay una gran cantidad de relaciones no lineales entre entradas y salidas. Pero existen algunas técnicas de explicabilidad populares. [226]
Es imposible estar seguro de que un programa está funcionando correctamente si nadie sabe exactamente cómo funciona. Ha habido muchos casos en los que un programa de aprendizaje automático pasó pruebas rigurosas, pero aun así aprendió algo diferente de lo que pretendían los programadores. Por ejemplo, se descubrió que un sistema que podía identificar enfermedades de la piel mejor que los profesionales médicos tenía en realidad una fuerte tendencia a clasificar las imágenes con una regla como "cancerosas", porque las imágenes de neoplasias malignas suelen incluir una regla para mostrar la escala. [227] Se descubrió que otro sistema de aprendizaje automático diseñado para ayudar a asignar eficazmente los recursos médicos clasificaba a los pacientes con asma como de "bajo riesgo" de morir de neumonía. Tener asma es en realidad un factor de riesgo grave, pero como los pacientes con asma normalmente recibirían mucha más atención médica, era relativamente improbable que murieran según los datos de entrenamiento. La correlación entre el asma y el bajo riesgo de morir de neumonía era real, pero engañosa. [228]
Las personas que han sido perjudicadas por la decisión de un algoritmo tienen derecho a una explicación. [229] Por ejemplo, se espera que los médicos expliquen clara y completamente a sus colegas el razonamiento detrás de cualquier decisión que tomen. Los primeros borradores del Reglamento General de Protección de Datos de la Unión Europea en 2016 incluyeron una declaración explícita de que este derecho existe. [n] Los expertos de la industria señalaron que se trata de un problema sin resolver y sin una solución a la vista. Los reguladores argumentaron que, no obstante, el daño es real: si el problema no tiene solución, no se deben utilizar las herramientas. [230]
DARPA estableció el programa XAI ("Inteligencia Artificial Explicable") en 2014 para tratar de resolver estos problemas. [231]
Varios enfoques apuntan a abordar el problema de la transparencia. SHAP permite visualizar la contribución de cada característica a la salida. [232] LIME puede aproximar localmente las salidas de un modelo con un modelo más simple e interpretable. [233] El aprendizaje multitarea proporciona una gran cantidad de salidas además de la clasificación objetivo. Estas otras salidas pueden ayudar a los desarrolladores a deducir lo que la red ha aprendido. [234] La deconvolución , DeepDream y otros métodos generativos pueden permitir a los desarrolladores ver lo que han aprendido las diferentes capas de una red profunda para visión artificial y producir una salida que pueda sugerir lo que la red está aprendiendo. [235] Para los transformadores generativos preentrenados , Anthropic desarrolló una técnica basada en el aprendizaje de diccionario que asocia patrones de activaciones neuronales con conceptos comprensibles para los humanos. [236]
Un arma autónoma letal es una máquina que localiza, selecciona y ataca objetivos humanos sin supervisión humana. [o] Las herramientas de IA ampliamente disponibles pueden ser utilizadas por actores maliciosos para desarrollar armas autónomas económicas y, si se producen a escala, son potencialmente armas de destrucción masiva . [238] Incluso cuando se utilizan en una guerra convencional, es poco probable que no puedan elegir objetivos de manera confiable y podrían potencialmente matar a una persona inocente . [238] En 2014, 30 naciones (incluida China) apoyaron la prohibición de las armas autónomas en virtud de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales , sin embargo, Estados Unidos y otros no estuvieron de acuerdo. [239] Para 2015, se informó que más de cincuenta países estaban investigando robots de campo de batalla. [240]
Existen muchas otras formas en las que se espera que la IA ayude a los actores maliciosos, algunas de las cuales no se pueden prever. Por ejemplo, la IA con aprendizaje automático es capaz de diseñar decenas de miles de moléculas tóxicas en cuestión de horas. [244]
Desempleo tecnológico
Los economistas han destacado con frecuencia los riesgos de despidos provocados por la IA y han especulado sobre el desempleo si no hay una política social adecuada para el pleno empleo. [245]
En el pasado, la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero los economistas reconocen que "estamos en territorio desconocido" con la IA. [246] Una encuesta a economistas mostró desacuerdo sobre si el uso creciente de robots e IA causará un aumento sustancial en el desempleo de largo plazo , pero generalmente coinciden en que podría ser un beneficio neto si se redistribuyen las ganancias de productividad . [247] Las estimaciones de riesgo varían; por ejemplo, en la década de 2010, Michael Osborne y Carl Benedikt Frey estimaron que el 47% de los empleos estadounidenses tienen un "alto riesgo" de automatización potencial, mientras que un informe de la OCDE clasificó solo el 9% de los empleos estadounidenses como de "alto riesgo". [p] [249] La metodología de especular sobre los niveles futuros de empleo ha sido criticada por carecer de fundamento probatorio y por implicar que la tecnología, en lugar de la política social, crea desempleo, en lugar de despidos. [245] En abril de 2023, se informó que el 70% de los puestos de trabajo para ilustradores de videojuegos chinos habían sido eliminados por la inteligencia artificial generativa. [250] [251]
A diferencia de las anteriores oleadas de automatización, muchos empleos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirmó en 2015 que "la preocupación de que la IA pueda hacer a los empleos de cuello blanco lo que la energía del vapor hizo a los de cuello azul durante la Revolución Industrial" es "valiente para tomarse en serio". [252] Los empleos con riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda de empleo para las profesiones relacionadas con el cuidado, que van desde la atención médica personal hasta el clero. [253]
Desde los primeros días del desarrollo de la inteligencia artificial, ha habido argumentos, por ejemplo, los planteados por Joseph Weizenbaum , sobre si las tareas que pueden ser realizadas por computadoras realmente deberían ser realizadas por ellas, dada la diferencia entre computadoras y humanos, y entre el cálculo cuantitativo y el juicio cualitativo basado en valores. [254]
Riesgo existencial
Se ha afirmado que la IA se volverá tan poderosa que la humanidad podría perder irreversiblemente el control sobre ella. Esto podría, como afirmó el físico Stephen Hawking , " significar el fin de la raza humana ". [255] Este escenario ha sido común en la ciencia ficción, cuando una computadora o un robot desarrolla de repente una "autoconciencia" (o "sensibilidad" o "conciencia") similar a la humana y se convierte en un personaje malévolo. [q] Estos escenarios de ciencia ficción son engañosos en varios sentidos.
En primer lugar, la IA no requiere una " sensibilización " similar a la humana para ser un riesgo existencial. Los programas de IA modernos reciben objetivos específicos y utilizan el aprendizaje y la inteligencia para alcanzarlos. El filósofo Nick Bostrom argumentó que si uno le da casi cualquier objetivo a una IA lo suficientemente poderosa, puede elegir destruir a la humanidad para lograrlo (utilizó el ejemplo del gerente de una fábrica de clips de papel ). [257] Stuart Russell da el ejemplo de un robot doméstico que intenta encontrar una forma de matar a su dueño para evitar que lo desconecten, razonando que "no puedes ir a buscar el café si estás muerto". [258] Para ser segura para la humanidad, una superinteligencia tendría que estar genuinamente alineada con la moralidad y los valores de la humanidad para que esté "fundamentalmente de nuestro lado". [259]
En segundo lugar, Yuval Noah Harari sostiene que la IA no requiere un cuerpo robótico ni control físico para plantear un riesgo existencial. Las partes esenciales de la civilización no son físicas. Cosas como las ideologías , las leyes , el gobierno , el dinero y la economía están hechas de lenguaje ; existen porque hay historias que miles de millones de personas creen. La prevalencia actual de la desinformación sugiere que una IA podría usar el lenguaje para convencer a las personas de creer cualquier cosa, incluso de tomar acciones destructivas. [260]
Las opiniones entre los expertos y los conocedores de la industria son variadas, con fracciones considerables tanto preocupadas como despreocupadas por el riesgo de una eventual IA superinteligente. [261] Personalidades como Stephen Hawking , Bill Gates y Elon Musk , [262] así como pioneros de la IA como Yoshua Bengio , Stuart Russell , Demis Hassabis y Sam Altman , han expresado preocupaciones sobre el riesgo existencial de la IA.
En mayo de 2023, Geoffrey Hinton anunció su renuncia a Google para poder "hablar libremente sobre los riesgos de la IA" sin "considerar cómo esto afecta a Google". [263] En particular, mencionó los riesgos de una adquisición por parte de la IA , [264] y destacó que, para evitar los peores resultados, establecer pautas de seguridad requerirá la cooperación entre quienes compiten en el uso de la IA. [265]
En 2023, muchos expertos destacados en IA emitieron una declaración conjunta en la que afirmaban que “mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. [266]
Sin embargo, otros investigadores se manifestaron a favor de una visión menos distópica. El pionero de la IA, Juergen Schmidhuber, no firmó la declaración conjunta, y enfatizó que en el 95% de los casos, la investigación en IA tiene como objetivo hacer que "las vidas humanas sean más largas, saludables y fáciles". [267] Si bien las herramientas que se están utilizando ahora para mejorar las vidas también pueden ser utilizadas por malos actores, "también pueden usarse contra los malos actores". [268] [269] Andrew Ng también sostuvo que "es un error caer en la exageración apocalíptica sobre la IA, y que los reguladores que lo hagan solo beneficiarán a intereses creados". [270] Yann LeCun "se burla de los escenarios distópicos de sus pares de desinformación supercargada e incluso, eventualmente, extinción humana". [271] A principios de la década de 2010, los expertos argumentaron que los riesgos son demasiado distantes en el futuro como para justificar la investigación o que los humanos serán valiosos desde la perspectiva de una máquina superinteligente. [272] Sin embargo, después de 2016, el estudio de los riesgos actuales y futuros y las posibles soluciones se convirtió en un área seria de investigación. [273]
Máquinas éticas y alineación
Las IA amigables son máquinas que han sido diseñadas desde el principio para minimizar los riesgos y tomar decisiones que beneficien a los humanos. Eliezer Yudkowsky , quien acuñó el término, sostiene que el desarrollo de una IA amigable debería ser una prioridad de investigación más alta: puede requerir una gran inversión y debe completarse antes de que la IA se convierta en un riesgo existencial. [274]
Las máquinas con inteligencia tienen el potencial de usar su inteligencia para tomar decisiones éticas. El campo de la ética de las máquinas proporciona a las máquinas principios y procedimientos éticos para resolver dilemas éticos. [275]
El campo de la ética de las máquinas también se denomina moralidad computacional, [275]
y se fundó en un simposio de la AAAI en 2005. [276]
Las organizaciones activas en la comunidad de código abierto de IA incluyen Hugging Face , [279] Google , [280] EleutherAI y Meta . [281] Varios modelos de IA, como Llama 2 , Mistral o Stable Diffusion , se han hecho de peso abierto, [282] [283] lo que significa que su arquitectura y parámetros entrenados (los "pesos") están disponibles públicamente. Los modelos de peso abierto se pueden ajustar libremente , lo que permite a las empresas especializarlos con sus propios datos y para su propio caso de uso. [284] Los modelos de peso abierto son útiles para la investigación y la innovación, pero también se pueden usar mal. Dado que se pueden ajustar, cualquier medida de seguridad incorporada, como objetar solicitudes dañinas, se puede entrenar hasta que se vuelva ineficaz. Algunos investigadores advierten que los futuros modelos de IA pueden desarrollar capacidades peligrosas (como el potencial de facilitar drásticamente el bioterrorismo ) y que una vez publicados en Internet, no se pueden eliminar en todas partes si es necesario. Recomiendan auditorías previas al lanzamiento y análisis de costo-beneficio. [285]
Marcos
Los proyectos de inteligencia artificial pueden someterse a pruebas de permisibilidad ética durante el diseño, desarrollo e implementación de un sistema de IA. Un marco de IA como el Care and Act Framework, que contiene los valores SUM y fue desarrollado por el Instituto Alan Turing, pone a prueba los proyectos en cuatro áreas principales: [286] [287]
Respetar la dignidad de las personas individuales
Conéctese con otras personas de manera sincera, abierta e inclusiva.
Cuidar el bienestar de todos
Proteger los valores sociales, la justicia y el interés público.
Otros desarrollos en marcos éticos incluyen aquellos decididos durante la Conferencia de Asilomar , la Declaración de Montreal para una IA Responsable y la iniciativa Ética de Sistemas Autónomos del IEEE, entre otros; [288] sin embargo, estos principios no están exentos de críticas, especialmente en lo que respecta a las personas elegidas para contribuir a estos marcos. [289]
La promoción del bienestar de las personas y las comunidades a las que afectan estas tecnologías requiere la consideración de las implicaciones sociales y éticas en todas las etapas del diseño, desarrollo e implementación del sistema de IA, y la colaboración entre roles laborales como científicos de datos, gerentes de producto, ingenieros de datos, expertos en el dominio y gerentes de entrega. [290]
En 2024, el Instituto de Seguridad de la IA del Reino Unido publicó un conjunto de herramientas de prueba llamado "Inspect" para evaluaciones de seguridad de la IA, disponible bajo una licencia de código abierto del MIT, que está disponible gratuitamente en GitHub y se puede mejorar con paquetes de terceros. Se puede utilizar para evaluar modelos de IA en una variedad de áreas, incluidos los conocimientos básicos, la capacidad de razonamiento y las capacidades autónomas. [291]
Regulación
La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la IA; por lo tanto, está relacionada con la regulación más amplia de los algoritmos. [292] El panorama regulatorio y de políticas para la IA es un tema emergente en las jurisdicciones a nivel mundial. [293] Según el Índice de IA de Stanford , el número anual de leyes relacionadas con la IA aprobadas en los 127 países encuestados aumentó de una aprobada en 2016 a 37 aprobadas solo en 2022. [294] [295] Entre 2016 y 2020, más de 30 países adoptaron estrategias dedicadas a la IA. [296] La mayoría de los estados miembros de la UE habían publicado estrategias nacionales de IA, al igual que Canadá, China, India, Japón, Mauricio, la Federación de Rusia, Arabia Saudita, los Emiratos Árabes Unidos, los EE. UU. y Vietnam. Otros estaban en proceso de elaborar su propia estrategia de IA, incluidos Bangladesh, Malasia y Túnez. [296] La Alianza Global sobre Inteligencia Artificial se lanzó en junio de 2020, afirmando la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza pública en la tecnología. [296] Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 pidiendo una comisión gubernamental para regular la IA. [297] En 2023, los líderes de OpenAI publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [298] En 2023, las Naciones Unidas también lanzaron un organismo asesor para brindar recomendaciones sobre la gobernanza de la IA; el organismo está compuesto por ejecutivos de empresas de tecnología, funcionarios gubernamentales y académicos. [299] En 2024, el Consejo de Europa creó el primer tratado internacional jurídicamente vinculante sobre IA, llamado " Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho ". Fue adoptado por la Unión Europea, los Estados Unidos, el Reino Unido y otros signatarios. [300]
En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país; el 78% de los ciudadanos chinos, pero solo el 35% de los estadounidenses, estuvieron de acuerdo en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [294] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no, en que la IA plantea riesgos para la humanidad. [301] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante", y un 41% adicional pensó que era "algo importante", que el gobierno federal regulara la IA, frente al 13% que respondió "no muy importante" y el 8% que respondió "nada importante". [302] [303]
En noviembre de 2023, se celebró la primera Cumbre mundial sobre seguridad de la IA en Bletchley Park (Reino Unido) para debatir los riesgos a corto y largo plazo de la IA y la posibilidad de establecer marcos regulatorios obligatorios y voluntarios. [304] 28 países, incluidos Estados Unidos, China y la Unión Europea, emitieron una declaración al inicio de la cumbre, en la que pedían cooperación internacional para gestionar los desafíos y riesgos de la inteligencia artificial. [305] [306] En mayo de 2024, en la Cumbre de Seúl sobre IA , 16 empresas globales de tecnología de IA acordaron compromisos de seguridad en el desarrollo de la IA. [307] [308]
Historia
El estudio del razonamiento mecánico o "formal" comenzó con los filósofos y matemáticos en la antigüedad. El estudio de la lógica condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, al mezclar símbolos tan simples como "0" y "1", podría simular cualquier forma concebible de razonamiento matemático. [309] [310] Esto, junto con los descubrimientos concurrentes en cibernética , teoría de la información y neurobiología , llevó a los investigadores a considerar la posibilidad de construir un "cerebro electrónico". [r] Desarrollaron varias áreas de investigación que se convertirían en parte de la IA, [312] como el diseño de McCullouch y Pitts para "neuronas artificiales" en 1943, [115] y el influyente artículo de Turing de 1950 ' Computing Machinery and Intelligence ', que introdujo la prueba de Turing y demostró que la "inteligencia de la máquina" era plausible. [313] [310]
El campo de investigación de IA fue fundado en un taller en Dartmouth College en 1956. [s] [6] Los asistentes se convirtieron en los líderes de la investigación de IA en la década de 1960. [t] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [u] las computadoras estaban aprendiendo estrategias de damas , resolviendo problemas de palabras en álgebra, demostrando teoremas lógicos y hablando inglés. [v] [7] Los laboratorios de inteligencia artificial se establecieron en varias universidades británicas y estadounidenses a finales de la década de 1950 y principios de la de 1960. [310]
Los investigadores de los años 1960 y 1970 estaban convencidos de que sus métodos eventualmente tendrían éxito en la creación de una máquina con inteligencia general y consideraron que este era el objetivo de su campo. [317] En 1965 Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [318] En 1967 Marvin Minsky estuvo de acuerdo, escribiendo que "dentro de una generación ... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [319] Sin embargo, habían subestimado la dificultad del problema. [w] En 1974, tanto los gobiernos de Estados Unidos como el británico interrumpieron la investigación exploratoria en respuesta a las críticas de Sir James Lighthill [321] y la presión constante del Congreso de Estados Unidos para financiar proyectos más productivos . [322] El libro de Minsky y Papert Perceptrons se entendió como una prueba de que las redes neuronales artificiales nunca serían útiles para resolver tareas del mundo real, desacreditando así el enfoque por completo. [323] A continuación llegó el « invierno de la IA », un período en el que era difícil obtener financiación para proyectos de IA. [9]
A principios de los años 1980, la investigación en IA revivió gracias al éxito comercial de los sistemas expertos , [324] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restablecer la financiación de la investigación académica . [8] Sin embargo, a partir del colapso del mercado de la máquina Lisp en 1987, la IA volvió a caer en descrédito y comenzó un segundo invierno más duradero. [10]
Hasta este punto, la mayor parte de la financiación de la IA se había destinado a proyectos que utilizaban símbolos de alto nivel para representar objetos mentales como planes, objetivos, creencias y hechos conocidos. En la década de 1980, algunos investigadores comenzaron a dudar de que este enfoque pudiera imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica , el aprendizaje y el reconocimiento de patrones , [325] y comenzaron a investigar enfoques "subsimbólicos". [326] Rodney Brooks rechazó la "representación" en general y se centró directamente en la ingeniería de máquinas que se mueven y sobreviven. [x] Judea Pearl , Lofti Zadeh y otros desarrollaron métodos que manejaban información incompleta e incierta haciendo conjeturas razonables en lugar de una lógica precisa. [86] [331] Pero el desarrollo más importante fue el resurgimiento del " conexionismo ", incluida la investigación de redes neuronales, por Geoffrey Hinton y otros. [332] En 1990, Yann LeCun demostró con éxito que las redes neuronales convolucionales pueden reconocer dígitos escritos a mano, la primera de muchas aplicaciones exitosas de las redes neuronales. [333]
La IA recuperó gradualmente su reputación a finales de los años 1990 y principios del siglo XXI explotando métodos matemáticos formales y encontrando soluciones específicas a problemas específicos. Este enfoque " estrecho " y "formal" permitió a los investigadores producir resultados verificables y colaborar con otros campos (como la estadística , la economía y las matemáticas ). [334] En 2000, las soluciones desarrolladas por investigadores de IA se utilizaban ampliamente, aunque en la década de 1990 rara vez se las describía como "inteligencia artificial" (una tendencia conocida como el efecto IA ). [335]
Sin embargo, varios investigadores académicos se preocuparon de que la IA ya no persiguiera su objetivo original de crear máquinas versátiles y completamente inteligentes. A partir de 2002, fundaron el subcampo de la inteligencia artificial general (o "AGI"), que contaba con varias instituciones bien financiadas en la década de 2010. [4]
El aprendizaje profundo comenzó a dominar los puntos de referencia de la industria en 2012 y fue adoptado en todo el campo. [11]
Para muchas tareas específicas, se abandonaron otros métodos. [y]
El éxito del aprendizaje profundo se basó tanto en mejoras de hardware ( computadoras más rápidas , [337] unidades de procesamiento gráfico , computación en la nube [338] ) como en el acceso a grandes cantidades de datos [339] (incluidos conjuntos de datos seleccionados, [338] como ImageNet ). El éxito del aprendizaje profundo condujo a un enorme aumento en el interés y la financiación en IA. [z] La cantidad de investigación sobre aprendizaje automático (medida por publicaciones totales) aumentó un 50% en los años 2015-2019. [296]
En 2016, las cuestiones de equidad y el mal uso de la tecnología se catapultaron al centro de la escena en las conferencias sobre aprendizaje automático, las publicaciones aumentaron enormemente, se consiguió financiación y muchos investigadores reorientaron sus carreras hacia estas cuestiones. El problema de la alineación se convirtió en un campo serio de estudio académico. [273]
A finales de la década de 1910 y principios de la de 2020, las empresas de IA general comenzaron a ofrecer programas que generaron un enorme interés. En 2015, AlphaGo , desarrollado por DeepMind , venció al campeón mundial de Go . Al programa solo se le enseñaron las reglas del juego y desarrolló la estrategia por sí mismo. GPT-3 es un gran modelo de lenguaje que fue lanzado en 2020 por OpenAI y es capaz de generar texto de alta calidad similar al humano. [340] Estos programas, y otros, inspiraron un agresivo auge de la IA , donde las grandes empresas comenzaron a invertir miles de millones en investigación de IA. Según AI Impacts, alrededor de 50 mil millones de dólares anuales se invirtieron en "IA" alrededor de 2022 solo en los EE. UU. y aproximadamente el 20% de los nuevos graduados de doctorado en Ciencias de la Computación de EE. UU. se han especializado en "IA". [341] En 2022 existían alrededor de 800.000 vacantes laborales relacionadas con la "IA" en EE. UU. [342]
Filosofía
Históricamente, los debates filosóficos han buscado determinar la naturaleza de la inteligencia y cómo hacer máquinas inteligentes. [343] Otro enfoque importante ha sido si las máquinas pueden ser conscientes y las implicaciones éticas asociadas. [344] Muchos otros temas de la filosofía son relevantes para la IA, como la epistemología y el libre albedrío . [345] Los rápidos avances han intensificado las discusiones públicas sobre la filosofía y la ética de la IA. [344]
Definición de inteligencia artificial
Alan Turing escribió en 1950: "Propongo considerar la cuestión '¿pueden pensar las máquinas?'" [346]. Aconsejó cambiar la pregunta de si una máquina "piensa" a "si es o no posible que una máquina muestre un comportamiento inteligente". [346] Ideó el test de Turing, que mide la capacidad de una máquina para simular una conversación humana. [313] Dado que sólo podemos observar el comportamiento de la máquina, no importa si está "realmente" pensando o si literalmente tiene una "mente". Turing señala que no podemos determinar estas cosas sobre otras personas, pero "es habitual tener una convención educada de que todo el mundo piensa". [347]
Russell y Norvig coinciden con Turing en que la inteligencia debe definirse en términos de comportamiento externo, no de estructura interna. [1] Sin embargo, son críticos en el sentido de que la prueba requiere que la máquina imite a los humanos. “ Los textos de ingeniería aeronáutica ”, escribieron, “no definen el objetivo de su campo como la fabricación de ‘máquinas que vuelen tan exactamente como las palomas que puedan engañar a otras palomas ’ ” . [349] El fundador de la IA, John McCarthy , estuvo de acuerdo y escribió que “la inteligencia artificial no es, por definición, una simulación de la inteligencia humana”. [350]
McCarthy define la inteligencia como "la parte computacional de la capacidad de alcanzar objetivos en el mundo". [351] Otro fundador de la IA, Marvin Minsky, la describe de manera similar como "la capacidad de resolver problemas difíciles". [352] El principal libro de texto de IA la define como el estudio de agentes que perciben su entorno y toman acciones que maximizan sus posibilidades de alcanzar objetivos definidos. [1] Estas definiciones ven la inteligencia en términos de problemas bien definidos con soluciones bien definidas, donde tanto la dificultad del problema como el rendimiento del programa son medidas directas de la "inteligencia" de la máquina, y no se requiere ninguna otra discusión filosófica, o puede que ni siquiera sea posible.
Google [353], un importante profesional en el campo de la IA, ha adoptado otra definición que estipula la capacidad de los sistemas para sintetizar información como manifestación de la inteligencia, de manera similar a como se define en la inteligencia biológica.
Algunos autores han sugerido en la práctica que la definición de IA es vaga y difícil de definir, y existe controversia sobre si los algoritmos clásicos deberían categorizarse como IA, [354] y muchas empresas, durante el auge de la IA a principios de la década de 2020, utilizaron el término como una palabra de moda en marketing , a menudo incluso si "en realidad no usaban la IA de manera material". [355]
Evaluación de enfoques para la IA
Durante la mayor parte de su historia, no ha existido ninguna teoría o paradigma unificador establecido que haya guiado la investigación en IA. [aa] El éxito sin precedentes del aprendizaje automático estadístico en la década de 2010 eclipsó a todos los demás enfoques (tanto que algunas fuentes, especialmente en el mundo empresarial, utilizan el término "inteligencia artificial" para referirse al "aprendizaje automático con redes neuronales"). Este enfoque es en su mayor parte subsimbólico , blando y estrecho . Los críticos sostienen que es posible que las futuras generaciones de investigadores en IA tengan que volver a examinar estas cuestiones.
La IA simbólica y sus límites
La IA simbólica (o " IAOF ") [357] simuló el razonamiento consciente de alto nivel que las personas utilizan cuando resuelven acertijos, expresan razonamientos legales y hacen matemáticas. Tuvieron mucho éxito en tareas "inteligentes" como el álgebra o las pruebas de coeficiente intelectual. En la década de 1960, Newell y Simon propusieron la hipótesis de los sistemas de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [358]
Sin embargo, el enfoque simbólico falló en muchas tareas que los humanos resuelven fácilmente, como aprender, reconocer un objeto o razonar con sentido común. La paradoja de Moravec es el descubrimiento de que las tareas "inteligentes" de alto nivel eran fáciles para la IA, pero las tareas "instintivas" de bajo nivel eran extremadamente difíciles. [359] El filósofo Hubert Dreyfus había sostenido desde la década de 1960 que la pericia humana depende del instinto inconsciente en lugar de la manipulación consciente de símbolos, y de tener una "sensación" de la situación, en lugar de un conocimiento simbólico explícito. [360] Aunque sus argumentos habían sido ridiculizados e ignorados cuando se presentaron por primera vez, con el tiempo la investigación de la IA llegó a estar de acuerdo con él. [ab] [16]
El problema no está resuelto: el razonamiento subsimbólico puede cometer muchos de los mismos errores inescrutables que comete la intuición humana, como el sesgo algorítmico . Los críticos como Noam Chomsky sostienen que seguirá siendo necesario seguir investigando sobre la IA simbólica para alcanzar la inteligencia general, [362] [363] en parte porque la IA subsimbólica se aleja de la IA explicable : puede resultar difícil o imposible entender por qué un programa de IA estadística moderna tomó una decisión determinada. El campo emergente de la inteligencia artificial neurosimbólica intenta tender un puente entre ambos enfoques.
Limpio vs. desaliñado
Los "Neats" esperan que el comportamiento inteligente se describa utilizando principios simples y elegantes (como la lógica , la optimización o las redes neuronales ). Los "Scruffies" esperan que necesariamente requiera resolver una gran cantidad de problemas no relacionados. Los Neats defienden sus programas con rigor teórico, los scruffies se basan principalmente en pruebas incrementales para ver si funcionan. Esta cuestión se debatió activamente en los años 1970 y 1980, [364] pero finalmente se consideró irrelevante. La IA moderna tiene elementos de ambos.
Computación blanda vs. computación dura
Encontrar una solución demostrablemente correcta u óptima es intratable para muchos problemas importantes. [15] La computación blanda es un conjunto de técnicas, que incluyen algoritmos genéticos , lógica difusa y redes neuronales, que toleran la imprecisión, la incertidumbre, la verdad parcial y la aproximación. La computación blanda se introdujo a fines de la década de 1980 y la mayoría de los programas de IA exitosos en el siglo XXI son ejemplos de computación blanda con redes neuronales.
IA estrecha vs. IA general
Los investigadores de IA están divididos en cuanto a si perseguir los objetivos de la inteligencia artificial general y la superinteligencia directamente o resolver tantos problemas específicos como sea posible (IA limitada) con la esperanza de que estas soluciones conduzcan indirectamente a los objetivos a largo plazo del campo. [365] [366] La inteligencia general es difícil de definir y difícil de medir, y la IA moderna ha tenido éxitos más verificables al centrarse en problemas específicos con soluciones específicas. El subcampo de la inteligencia artificial general estudia esta área exclusivamente.
Conciencia, sensibilidad y mente de las máquinas
La filosofía de la mente no sabe si una máquina puede tener mente , conciencia y estados mentales , en el mismo sentido que los seres humanos. Esta cuestión considera las experiencias internas de la máquina, en lugar de su comportamiento externo. La investigación convencional sobre IA considera que esta cuestión es irrelevante porque no afecta a los objetivos del campo: construir máquinas que puedan resolver problemas utilizando la inteligencia. Russell y Norvig añaden que "[e]l proyecto adicional de hacer que una máquina sea consciente exactamente de la misma manera que lo son los humanos no es algo que estemos equipados para asumir". [367] Sin embargo, la cuestión se ha vuelto central para la filosofía de la mente. También suele ser la cuestión central en cuestión en la inteligencia artificial en la ficción .
Conciencia
David Chalmers identificó dos problemas para comprender la mente, a los que llamó problemas "difíciles" y "fáciles" de la conciencia. [368] El problema fácil es entender cómo el cerebro procesa las señales, hace planes y controla la conducta. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo en absoluto, suponiendo que tengamos razón al pensar que realmente se siente como algo (el ilusionismo de la conciencia de Dennett dice que esto es una ilusión). Si bien el procesamiento de la información humana es fácil de explicar, la experiencia subjetiva humana es difícil de explicar. Por ejemplo, es fácil imaginar a una persona daltónica que ha aprendido a identificar qué objetos en su campo de visión son rojos, pero no está claro qué se necesitaría para que la persona supiera cómo se ve el rojo . [369]
Computacionalismo y funcionalismo
El computacionalismo es la postura filosófica que sostiene que la mente humana es un sistema de procesamiento de información y que el pensamiento es una forma de computación. El computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema mente-cuerpo . Esta postura filosófica se inspiró en el trabajo de los investigadores de la IA y los científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor y Hilary Putnam . [370]
El filósofo John Searle caracterizó esta posición como una " IA fuerte ": "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que los seres humanos tienen mentes". [ac] Searle contrarresta esta afirmación con su argumento de la habitación china, que intenta demostrar que, incluso si una máquina simula perfectamente el comportamiento humano, todavía no hay razón para suponer que también tiene una mente. [374]
Bienestar y derechos de la IA
Es difícil o imposible evaluar de manera confiable si una IA avanzada es sensible (tiene la capacidad de sentir) y, de ser así, en qué grado. [375] Pero si existe una posibilidad significativa de que una máquina determinada pueda sentir y sufrir, entonces puede tener derecho a ciertos derechos o medidas de protección del bienestar, de manera similar a los animales. [376] [377] La sapiencia (un conjunto de capacidades relacionadas con la alta inteligencia, como el discernimiento o la autoconciencia ) puede proporcionar otra base moral para los derechos de la IA. [376] Los derechos de los robots también se proponen a veces como una forma práctica de integrar agentes autónomos en la sociedad. [378]
En 2017, la Unión Europea consideró otorgar "personalidad electrónica" a algunos de los sistemas de IA más capaces. De manera similar al estatus legal de las empresas, habría conferido derechos pero también responsabilidades. [379] Los críticos argumentaron en 2018 que otorgar derechos a los sistemas de IA restaría importancia a los derechos humanos y que la legislación debería centrarse en las necesidades de los usuarios en lugar de escenarios futuristas especulativos. También señalaron que los robots carecían de la autonomía para participar en la sociedad por sí solos. [380] [381]
Los avances en el campo de la IA han aumentado el interés por este tema. Los defensores de la protección y los derechos de la IA suelen argumentar que, si surge, sería especialmente fácil negar su capacidad de sentir. Advierten que esto puede ser un punto ciego moral análogo a la esclavitud o la cría intensiva de animales , que podría conducir a un sufrimiento a gran escala si se crea una IA sensible y se la explota descuidadamente. [377] [376]
Sin embargo, las tecnologías no pueden mejorar exponencialmente de forma indefinida, y normalmente siguen una curva en forma de S , desacelerándose cuando alcanzan los límites físicos de lo que la tecnología puede hacer. [383]
Transhumanismo
El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas podrían fusionarse en el futuro para formar cíborgs más capaces y poderosos que cualquiera de ellos. Esta idea, llamada transhumanismo , tiene sus raíces en los escritos de Aldous Huxley y Robert Ettinger . [384]
Los seres artificiales capaces de pensar han aparecido como dispositivos narrativos desde la antigüedad, [386] y han sido un tema persistente en la ciencia ficción . [387]
Varias obras utilizan la IA para obligarnos a enfrentarnos a la pregunta fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por lo tanto, de sufrir. Esto aparece en RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [391]
^ ab Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig (2021), Luger y Stubblefield (2004), Poole, Mackworth y Goebel (1998) y Nilsson (1998)
^ ab Esta lista de herramientas se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig (2021), Luger y Stubblefield (2004), Poole, Mackworth y Goebel (1998) y Nilsson (1998)
^ Esta es una de las razones por las que los sistemas expertos demostraron ser ineficientes para capturar conocimiento. [30] [31]
^
"Agente racional" es un término general utilizado en economía , filosofía e inteligencia artificial teórica. Puede referirse a cualquier cosa que dirige su comportamiento hacia el logro de objetivos, como una persona, un animal, una corporación, una nación o, en el caso de la IA, un programa informático.
^ Alan Turing ya había analizado la centralidad del aprendizaje en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [42] En 1956, en la conferencia de verano original de IA de Dartmouth, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "An Inductive Inference Machine". [43]
^
En comparación con la lógica simbólica, la inferencia bayesiana formal es computacionalmente costosa. Para que la inferencia sea factible, la mayoría de las observaciones deben ser condicionalmente independientes entre sí. AdSense utiliza una red bayesiana con más de 300 millones de aristas para aprender qué anuncios mostrar. [93]
^ La expectativa-maximización, uno de los algoritmos más populares en el aprendizaje automático, permite la agrupación en presencia de variables latentes desconocidas . [95]
^ Geoffrey Hinton dijo, sobre su trabajo en redes neuronales en la década de 1990, "nuestros conjuntos de datos etiquetados eran miles de veces demasiado pequeños. [Y] nuestras computadoras eran millones de veces demasiado lentas". [121]
^ En estadística, un sesgo es un error sistemático o una desviación del valor correcto. Pero en el contexto de la imparcialidad , se refiere a una tendencia a favor o en contra de un determinado grupo o característica individual, normalmente de una manera que se considera injusta o perjudicial. Por lo tanto, un sistema de IA estadísticamente imparcial que produce resultados dispares para diferentes grupos demográficos puede considerarse sesgado en el sentido ético. [209]
^ Moritz Hardt (director del Instituto Max Planck de Sistemas Inteligentes ) sostiene que el aprendizaje automático "es fundamentalmente la herramienta equivocada para muchos dominios, en los que se intenta diseñar intervenciones y mecanismos que cambien el mundo". [223]
^ Cuando se aprobó la ley en 2018, todavía contenía una forma de esta disposición.
^ "Cerebro electrónico" era el término utilizado por la prensa en esa época. [309] [311]
^
Daniel Crevier escribió: "La conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". [314] Russell y Norvig llamaron a la conferencia "el inicio de la inteligencia artificial". [115]
^ Russell y Norvig escribieron que "durante los siguientes 20 años el campo estaría dominado por estas personas y sus estudiantes". [315]
^ Russell y Norvig escribieron que "era sorprendente cada vez que una computadora hacía algo inteligente". [316]
^ Matteo Wong escribió en The Atlantic : "Mientras que durante décadas, los campos de la informática como el procesamiento del lenguaje natural, la visión artificial y la robótica utilizaban métodos extremadamente diferentes, ahora todos utilizan un método de programación llamado "aprendizaje profundo". Como resultado, sus códigos y enfoques se han vuelto más similares y sus modelos son más fáciles de integrar entre sí". [336]
^ Jack Clark escribió en Bloomberg : "Después de media década de avances silenciosos en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca", y señaló que la cantidad de proyectos de software que utilizan aprendizaje automático en Google aumentó de un "uso esporádico" en 2012 a más de 2700 proyectos en 2015. [338]
^ Nils Nilsson escribió en 1983: "En pocas palabras, existe un amplio desacuerdo en el campo sobre qué es la IA". [356]
↑
Daniel Crevier escribió que "el tiempo ha demostrado la exactitud y perspicacia de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugerían podrían haberse tomado mucho antes". [361]
^
Searle presentó esta definición de "IA fuerte" en 1999. [371] La formulación original de Searle fue "La computadora programada apropiadamente realmente es una mente, en el sentido de que se puede decir literalmente que las computadoras a las que se les dan los programas correctos entienden y tienen otros estados cognitivos". [372] Russell y Norvig definen la IA fuerte de manera similar : "IA fuerte: la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento)". [373]
Referencias
^ abc Russell y Norvig (2021), págs. 1–4.
^ La IA superará la capacidad del cerebro humano Archivado el 19 de febrero de 2008 en Wayback Machine CNN.com (26 de julio de 2006)
^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, en mi mano: ¿Quién es la más bella de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Business Horizons . 62 : 15–25. doi :10.1016/j.bushor.2018.08.004. ISSN 0007-6813. S2CID 158433736.
^ abc Inteligencia artificial general : Russell y Norvig (2021, págs. 32-33, 1020-1021) Propuesta de la versión moderna: Pennachin y Goertzel (2007) Advertencias de sobreespecialización en IA de investigadores destacados: Nilsson (1995), McCarthy (2007), Beal y Winston (2009)
^ Russell y Norvig (2021, §1.2).
^ Taller de Dartmouth : Russell & Norvig (2021, pág. 18), McCorduck (2004, págs. 111-136), NRC (1999, págs. 200-201) La propuesta: McCarthy et al. (1955)
^ ab Programas exitosos de la década de 1960: McCorduck (2004, págs. 243-252), Crevier (1993, págs. 52-107), Moravec (1988, pág. 9), Russell & Norvig (2021, págs. 19-21)
^ ab Primer informe de invierno de AI , Informe Lighthill , Enmienda Mansfield : Crevier (1993, págs. 115-117), Russell y Norvig (2021, págs. 21-22), NRC (1999, págs. 212-213), Howe (1994), Newquist (1994, págs. 189-201)
^ ab Segundo invierno de IA : Russell y Norvig (2021, pág. 24), McCorduck (2004, págs. 430-435), Crevier (1993, págs. 209-210), NRC (1999, págs. 214-216), Newquist (1994, págs. 301-318)
^ Resolución de problemas, resolución de acertijos, juegos y deducción: Russell y Norvig (2021, cap. 3-5), Russell y Norvig (2021, cap. 6) ( satisfacción de restricciones ), Poole, Mackworth y Goebel (1998, cap. 2, 3, 7, 9), Luger y Stubblefield (2004, cap. 3, 4, 6, 8), Nilsson (1998, cap. 7-12)
^ Razonamiento incierto: Russell y Norvig (2021, cap. 12-18), Poole, Mackworth y Goebel (1998, pp. 345-395), Luger y Stubblefield (2004, pp. 333-381), Nilsson (1998, cap. 7-12)
^ abc Evidencia psicológica de la prevalencia del razonamiento y conocimiento subsimbólico: Kahneman (2011), Dreyfus y Dreyfus (1986), Wason y Shapiro (1966), Kahneman, Slovic y Tversky (1982)
^ Representación del conocimiento e ingeniería del conocimiento : Russell y Norvig (2021, cap. 10), Poole, Mackworth y Goebel (1998, págs. 23-46, 69-81, 169-233, 235-277, 281-298, 319-345), Luger y Stubblefield (2004, págs. 227-243), Nilsson (1998, cap. 17.1-17.4, 18)
^ Smoliar y Zhang (1994).
^ Neumann y Möller (2008).
^ Kuperman, Reichley y Bailey (2006).
^ McGarry (2005).
^ Bertini, Del Bimbo y Torniai (2006).
^ Russell y Norvig (2021), págs. 272.
^ Representación de categorías y relaciones: redes semánticas , lógicas descriptivas , herencia (incluidos marcos y scripts ): Russell y Norvig (2021, §10.2 y 10.5), Poole, Mackworth y Goebel (1998, pp. 174-177), Luger y Stubblefield (2004, pp. 248-258), Nilsson (1998, cap. 18.3)
^ Cálculo causal : Poole, Mackworth y Goebel (1998, págs. 335-337)
^ Representación del conocimiento sobre el conocimiento: cálculo de creencias, lógicas modales : Russell y Norvig (2021, §10.4), Poole, Mackworth y Goebel (1998, págs. 275-277)
^ ab Amplitud del conocimiento del sentido común: Lenat y Guha (1989, Introducción), Crevier (1993, págs. 113-114), Moravec (1988, pág. 13), Russell y Norvig (2021, págs. 241, 385, 982) ( problema de calificación )
^ Planificación sin sensores o "conforme", planificación contingente, replanificación (también conocida como planificación en línea): Russell y Norvig (2021, Sección 11.5).
^ Preferencias inciertas: Russell y Norvig (2021, Sección 16.7) Aprendizaje por refuerzo inverso : Russell y Norvig (2021, Sección 22.6)
^ Procesamiento del lenguaje natural (PLN): Russell y Norvig (2021, cap. 23-24), Poole, Mackworth y Goebel (1998, pp. 91-104), Luger y Stubblefield (2004, pp. 591-632)
^ Subproblemas de la PNL : Russell y Norvig (2021, págs. 849-850)
^ Russell y Norvig (2021), págs. 856–858.
^ Dickson (2022).
^ Enfoques modernos de aprendizaje profundo y estadístico para el procesamiento del lenguaje natural : Russell y Norvig (2021, cap. 24), Cambria y White (2014)
^ Computación afectiva : Thro (1993), Edelson (1991), Tao & Tan (2005), Scassellati (2002)
^ Waddell (2018).
^ Poria y otros (2017).
^ Algoritmos de búsqueda : Russell y Norvig (2021, capítulos 3-5), Poole, Mackworth y Goebel (1998, págs. 113-163), Luger y Stubblefield (2004, págs. 79-164, 193-219), Nilsson (1998, capítulos 7-12)
^ Búsquedas heurísticas o informadas (por ejemplo, greedy best first y A* ): Russell y Norvig (2021, sección 3.5), Poole, Mackworth y Goebel (1998, págs. 132-147), Poole y Mackworth (2017, sección 3.6), Luger y Stubblefield (2004, págs. 133-150)
^ Lógica : Russell y Norvig (2021, caps. 6-9), Luger y Stubblefield (2004, págs. 35-77), Nilsson (1998, caps. 13-16)
^ Lógica proposicional : Russell y Norvig (2021, cap. 6), Luger y Stubblefield (2004, págs. 45-50), Nilsson (1998, cap. 13)
^ Lógica de primer orden y características como la igualdad : Russell y Norvig (2021, cap. 7), Poole, Mackworth y Goebel (1998, pp. 268-275), Luger y Stubblefield (2004, pp. 50-62), Nilsson (1998, cap. 15)
^ La deducción lógica como búsqueda: Russell y Norvig (2021, seccs. 9.3, 9.4), Poole, Mackworth y Goebel (1998, pp. ~46–52), Luger y Stubblefield (2004, pp. 62–73), Nilsson (1998, chpt. 4.2, 7.2)
^ Warren, DH; Pereira, LM; Pereira, F. (1977). "Prolog: el lenguaje y su implementación en comparación con Lisp". ACM SIGPLAN Notices . 12 (8): 109–115. doi :10.1145/872734.806939.
^ Lógica difusa: Russell y Norvig (2021, págs. 214, 255, 459), Scientific American (1999)
^ ab Métodos estocásticos para razonamiento incierto: Russell y Norvig (2021, cap. 12-18, 20), Poole, Mackworth y Goebel (1998, pp. 345-395), Luger y Stubblefield (2004, pp. 165-191, 333-381), Nilsson (1998, cap. 19)
^ Redes bayesianas : Russell y Norvig (2021, secciones 12.5-12.6, 13.4-13.5, 14.3-14.5, 16.5, 20.2-20.3), Poole, Mackworth y Goebel (1998, págs. 361-381), Luger y Stubblefield (2004, págs. ~182-190, ≈363-379), Nilsson (1998, capítulo 19.3-19.4)
^ Domingos (2015), cap. 6.
^ Algoritmo de inferencia bayesiano : Russell y Norvig (2021, secc. 13.3–13.5), Poole, Mackworth y Goebel (1998, pp. 361–381), Luger y Stubblefield (2004, pp. ~363–379), Nilsson (1998, cap. 19.4 y 7)
^ Métodos de aprendizaje estadístico y clasificadores : Russell y Norvig (2021, cap. 20),
^ Ciaramella, Alberto ; Ciaramella, Marco (2024). Introducción a la inteligencia artificial: del análisis de datos a la IA generativa . Ediciones Intellisemantic. ISBN978-8-8947-8760-3.
^ Árboles de decisión : Russell & Norvig (2021, secc. 19.3), Domingos (2015, p. 88)
^ "Explicación: IA generativa". 9 de noviembre de 2023.
^ "Herramientas de creación de contenido y redacción con inteligencia artificial". MIT Sloan Teaching & Learning Technologies. Archivado desde el original el 25 de diciembre de 2023. Consultado el 25 de diciembre de 2023 .
^ Marmouyet (2023).
^ Kobielus (2019).
^ Thomason, James (21 de mayo de 2024). «Mojo Rising: The resurgence of AI-first programming language» (Mojo en ascenso: el resurgimiento de los lenguajes de programación que priorizan la IA). VentureBeat . Archivado desde el original el 27 de junio de 2024. Consultado el 26 de mayo de 2024 .
^ Wodecki, Ben (5 de mayo de 2023). «7 lenguajes de programación de IA que debes conocer». AI Business . Archivado desde el original el 25 de julio de 2024. Consultado el 5 de octubre de 2024 .
^ Plumb, Taryn (18 de septiembre de 2024). «Por qué Jensen Huang y Marc Benioff ven una oportunidad 'gigantesca' para la IA con agentes». VentureBeat . Archivado desde el original el 5 de octubre de 2024 . Consultado el 4 de octubre de 2024 .
^ Davenport, T; Kalakota, R (junio de 2019). "El potencial de la inteligencia artificial en la atención sanitaria". Future Healthc J . 6 (2): 94–98. doi :10.7861/futurehosp.6-2-94. PMC 6616181 . PMID 31363513.
^ Lyakhova, UA; Lyakhov, PA (2024). "Revisión sistemática de enfoques para la detección y clasificación del cáncer de piel utilizando inteligencia artificial: desarrollo y perspectivas". Computadoras en biología y medicina . 178 : 108742. doi :10.1016/j.compbiomed.2024.108742. PMID 38875908.
^ Alqudaihi, Kawther S.; Aslam, Nida; Khan, Irfan Ullah; Almuhaideb, Abdullah M.; Alsunaidi, Shikah J.; Ibrahim, Nehad M. Abdel Rahman; Alhaidari, Fahd A.; Shaikh, Fatema S.; Alsenbel, Yasmine M.; Alalharith, Dima M.; Alharthi, Hajar M.; Alghamdi, Wejdan M.; Alshahrani, Mohammed S. (2021). "Detección y diagnóstico del sonido de la tos mediante técnicas de inteligencia artificial: desafíos y oportunidades". IEEE Access . 9 : 102327–102344. Código Bibliográfico :2021IEEEA...9j2327A. doi :10.1109/ACCESS.2021.3097559. Revista de Biología Molecular y Genética .
^ ab Bax, Monique; Thorpe, Jordan; Romanov, Valentin (diciembre de 2023). "El futuro de la medicina cardiovascular personalizada exige impresión 3D y 4D, células madre e inteligencia artificial". Frontiers in Sensors . 4 . doi : 10.3389/fsens.2023.1294721 . ISSN 2673-5067.
^ Jumper, J; Evans, R; Pritzel, A (2021). "Predicción de la estructura de proteínas de alta precisión con AlphaFold". Nature . 596 (7873): 583–589. Bibcode :2021Natur.596..583J. doi :10.1038/s41586-021-03819-2. PMC 8371605 . PMID 34265844.
^ "La IA descubre una nueva clase de antibióticos para matar bacterias resistentes a los fármacos". 20 de diciembre de 2023. Archivado desde el original el 16 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
^ "La IA acelera diez veces el diseño de fármacos para el Parkinson". Universidad de Cambridge. 17 de abril de 2024. Archivado desde el original el 5 de octubre de 2024. Consultado el 5 de octubre de 2024 .
^ Horne, Robert I.; Andrzejewska, Ewa A.; Alam, Parvez; Brotzakis, Z. Faidon; Srivastava, Ankit; Aubert, Alice; Nowinska, Magdalena; Gregory, Rebecca C.; Staats, Roxine; Possenti, Andrea; Chia, Sean; Sormanni, Pietro; Ghetti, Bernardino; Caughey, Byron; Knowles, Tuomas PJ; Vendruscolo, Michele (17 de abril de 2024). "Descubrimiento de potentes inhibidores de la agregación de α-sinucleína mediante aprendizaje iterativo basado en la estructura". Nature Chemical Biology . 20 (5). Naturaleza: 634–645. doi :10.1038/s41589-024-01580-x. PMC 11062903 . PMID 38632492.
^ Grant, Eugene F.; Lardner, Rex (25 de julio de 1952). «The Talk of the Town – It». The New Yorker . ISSN 0028-792X. Archivado desde el original el 16 de febrero de 2020. Consultado el 28 de enero de 2024 .
^ Anderson, Mark Robert (11 de mayo de 2017). «Veinte años después de Deep Blue vs Kasparov: cómo una partida de ajedrez inició la revolución del big data». The Conversation . Archivado desde el original el 17 de septiembre de 2024. Consultado el 28 de enero de 2024 .
^ Markoff, John (16 de febrero de 2011). «Computer Wins on 'Jeopardy!': Trivial, It's Not» (La computadora gana en 'Jeopardy!': trivial, no lo es) . The New York Times (ISSN 0362-4331) . Archivado desde el original el 22 de octubre de 2014. Consultado el 28 de enero de 2024 .
^ Byford, Sam (27 de mayo de 2017). «AlphaGo se retira del Go competitivo tras derrotar al número uno del mundo por 3-0». The Verge . Archivado desde el original el 7 de junio de 2017. Consultado el 28 de enero de 2024 .
^ Brown, Noam; Sandholm, Tuomas (30 de agosto de 2019). "IA superhumana para póquer multijugador". Science . 365 (6456): 885–890. Bibcode :2019Sci...365..885B. doi :10.1126/science.aay2400. ISSN 0036-8075. PMID 31296650.
^ "MuZero: Dominando el Go, el ajedrez, el shogi y el Atari sin reglas". Google DeepMind . 23 de diciembre de 2020 . Consultado el 28 de enero de 2024 .
^ Sample, Ian (30 de octubre de 2019). «AI becomes grandmaster in 'fiendishly complex' StarCraft II». The Guardian . ISSN 0261-3077. Archivado desde el original el 29 de diciembre de 2020. Consultado el 28 de enero de 2024 .
^ Wurman, PR; Barrett, S.; Kawamoto, K. (2022). "Superando a los pilotos campeones de Gran Turismo con aprendizaje de refuerzo profundo" (PDF) . Nature . 602 (7896): 223–228. Bibcode :2022Natur.602..223W. doi :10.1038/s41586-021-04357-7. PMID 35140384.
^ Wilkins, Alex (13 de marzo de 2024). «La IA de Google aprende a jugar a videojuegos de mundo abierto observándolos». New Scientist . Archivado desde el original el 26 de julio de 2024. Consultado el 21 de julio de 2024 .
^ Uesato, J. et al.: Mejorar el razonamiento matemático con la supervisión de procesos. Archivado el 15 de septiembre de 2024 en Wayback Machine. openai.com, 31 de mayo de 2023. Consultado el 7 de agosto de 2024.
^ Srivastava, Saurabh (29 de febrero de 2024). "Puntos de referencia funcionales para la evaluación robusta del desempeño del razonamiento y la brecha de razonamiento". arXiv : 2402.19450 [cs.AI].
^ Roberts, Siobhan (25 de julio de 2024). «AI achieves silver-medal standard solving International Mathematical Olympiad problems». The New York Times . Archivado desde el original el 26 de septiembre de 2024. Consultado el 7 de agosto de 2024 .
^ LLEMMA. eleuther.ai. Consultado el 7 de agosto de 2024.
^ Matemáticas con IA. Archivado el 5 de octubre de 2024 en Wayback Machine. Caesars Labs, 2024. Consultado el 7 de agosto de 2024.
^ Alex McFarland: Las 7 mejores herramientas de IA para matemáticas. Archivado el 11 de septiembre de 2024 en Wayback Machine . unite.ai. Consultado el 7 de agosto de 2024.
^ Matthew Finio y Amanda Downie: IBM Think 2024 Primer, "¿Qué es la inteligencia artificial (IA) en las finanzas?", 8 de diciembre de 2023
^ M. Nicolas, J. Firzli: Revista Pensions Age/European Pensions, "Inteligencia artificial: pregúntele a la industria", mayo-junio de 2024 https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/ Archivado el 11 de septiembre de 2024 en Wayback Machine .
^ Servicio de Investigación del Congreso de los Estados Unidos (2019). Inteligencia artificial y seguridad nacional (PDF) . Washington, DC: Servicio de Investigación del Congreso. Archivado (PDF) del original el 8 de mayo de 2020. Consultado el 5 de octubre de 2024 .Aviso de PD
^ ab Slyusar, Vadym (2019). «La inteligencia artificial como base de las futuras redes de control». ResearchGate . doi :10.13140/RG.2.2.30247.50087. Archivado desde el original el 28 de abril de 2021 . Consultado el 20 de julio de 2019 .
^ Knight, Will. «Estados Unidos y otras 30 naciones acuerdan establecer límites para la inteligencia artificial militar». Wired . ISSN 1059-1028. Archivado desde el original el 20 de septiembre de 2024 . Consultado el 24 de enero de 2024 .
^ Newsom, Gavin; Weber, Shirley N. (6 de septiembre de 2023). «Orden ejecutiva N-12-23» (PDF) . Departamento Ejecutivo, Estado de California. Archivado (PDF) del original el 21 de febrero de 2024. Consultado el 7 de septiembre de 2023 .
^ Pinaya, Walter HL; Graham, Mark S.; Kerfoot, Eric; Tudosiu, Petru-Daniel; Dafflon, Jessica; Fernández, Virginia; Sánchez, Pedro; Wolleb, Julia; da Costa, Pedro F.; Patel, Ashay (2023). "IA generativa para imágenes médicas: ampliación del marco MONAI". arXiv : 2307.15208 [eess.IV].
^ Griffith, Erin; Metz, Cade (27 de enero de 2023). «Anthropic se acerca a los 300 millones de dólares en financiación para IA». The New York Times . Archivado desde el original el 9 de diciembre de 2023. Consultado el 14 de marzo de 2023 .
^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (10 de marzo de 2023). "Una hoja de trucos para las palabras de moda de la IA y sus significados". Bloomberg News . Archivado desde el original el 17 de noviembre de 2023 . Consultado el 14 de marzo de 2023 .
^ Marcelline, Marco (27 de mayo de 2023). "ChatGPT: la mayoría de los estadounidenses lo conocen, pero pocos usan realmente el chatbot de inteligencia artificial". PCMag . Archivado desde el original el 21 de mayo de 2024 . Consultado el 28 de enero de 2024 .
^ Lu, Donna (31 de marzo de 2023). «Desinformación, errores y el Papa en un cigarrillo: lo que la IA en rápida evolución puede –y no puede– hacer». The Guardian . ISSN 0261-3077. Archivado desde el original el 10 de junio de 2024. Consultado el 28 de enero de 2024 .
^ Hurst, Luke (23 de mayo de 2023). «Cómo una imagen falsa de una explosión en el Pentágono compartida en Twitter provocó una caída real en Wall Street». euronews . Consultado el 28 de enero de 2024 .
^ Poole, David; Mackworth, Alan (2023). Inteligencia artificial: fundamentos de los agentes computacionales (3.ª ed.). Cambridge University Press. doi :10.1017/9781009258227. ISBN978-1-0092-5819-7Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ "Por qué los agentes son la próxima frontera de la IA generativa". McKinsey Digital . 24 de julio de 2024. Archivado desde el original el 3 de octubre de 2024 . Consultado el 10 de agosto de 2024 .
^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (6 de septiembre de 2017). "Reshaping Business With Artificial Intelligence" (Reestructuración de los negocios con inteligencia artificial). MIT Sloan Management Review . Archivado desde el original el 13 de febrero de 2024.
^ Sun, Yuran; Zhao, Xilei; Lovreglio, Ruggiero; Kuligowski, Erica (1 de enero de 2024), Naser, MZ (ed.), "8 – IA para modelado de evacuación a gran escala: promesas y desafíos", Aprendizaje automático interpretable para el análisis, diseño, evaluación y toma de decisiones informada para infraestructura civil , Woodhead Publishing Series in Civil and Structural Engineering, Woodhead Publishing, págs. 185–204, ISBN978-0-1282-4073-1, archivado desde el original el 19 de mayo de 2024 , consultado el 28 de junio de 2024.
^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (1 de noviembre de 2021). "Un marco para un sistema inteligente de detección y evacuación de incendios". Tecnología contra incendios . 57 (6): 3179–3185. doi :10.1007/s10694-021-01157-3. ISSN 1572-8099. Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ Zhao, Xilei; Lovreglio, Ruggiero; Nilsson, Daniel (1 de mayo de 2020). "Modelado e interpretación de la toma de decisiones previa a la evacuación mediante aprendizaje automático". Automatización en la construcción . 113 : 103140. doi :10.1016/j.autcon.2020.103140. ISSN 0926-5805. Archivado desde el original el 19 de mayo de 2024 . Consultado el 5 de octubre de 2024 .
^ "Las últimas elecciones de la India adoptaron la tecnología de inteligencia artificial. A continuación, se muestran algunas formas en que se utilizó de manera constructiva". PBS News . 12 de junio de 2024 . Consultado el 28 de octubre de 2024 .
^ Müller, Vincent C. (30 de abril de 2020). «Ética de la inteligencia artificial y la robótica». Archivo de la Enciclopedia de Filosofía de Stanford . Archivado desde el original el 5 de octubre de 2024. Consultado el 5 de octubre de 2024 .
^ Simonita (2016).
^ Russell y Norvig (2021), pág. 987.
^ Laskowski (2023).
^ Agencia de Noticias de Georgia (2022).
^ Valinsky (2019).
^ Russell y Norvig (2021), pág. 991.
^ Russell y Norvig (2021), págs. 991–992.
^ Cristiano (2020), pág. 63.
^ Vicente (2022).
^ Kopel, Matthew. «Copyright Services: Fair Use». Biblioteca de la Universidad de Cornell . Archivado desde el original el 26 de septiembre de 2024. Consultado el 26 de abril de 2024 .
^ Burgess, Matt. "Cómo evitar que sus datos se utilicen para entrenar a la IA". Wired . ISSN 1059-1028. Archivado desde el original el 3 de octubre de 2024 . Consultado el 26 de abril de 2024 .
^ Reisner (2023).
^ Alter y Harris (2023).
^ "Cómo preparar el ecosistema de innovación para la IA. Un conjunto de herramientas para la formulación de políticas de propiedad intelectual" (PDF) . OMPI .
^ Hammond, George (27 de diciembre de 2023). «Las grandes empresas tecnológicas están gastando más que las firmas de capital riesgo en nuevas empresas de inteligencia artificial». Ars Technica . Archivado desde el original el 10 de enero de 2024.
^ Wong, Matteo (24 de octubre de 2023). «El futuro de la IA es GOMA» . The Atlantic . Archivado desde el original el 5 de enero de 2024.
^ "Big tech and the persecution of AI dominance" (Las grandes tecnológicas y la búsqueda del dominio de la IA) . The Economist . 26 de marzo de 2023. Archivado desde el original el 29 de diciembre de 2023.
^ Fung, Brian (19 de diciembre de 2023). «Dónde se puede ganar la batalla para dominar la IA». CNN Business . Archivado desde el original el 13 de enero de 2024.
^ Metz, Cade (5 de julio de 2023). «En la era de la IA, los pequeños tecnológicos necesitan grandes amigos». The New York Times . Archivado desde el original el 8 de julio de 2024. Consultado el 5 de octubre de 2024 .
^ "Electricidad 2024 – Análisis". IEA . 24 de enero de 2024 . Consultado el 13 de julio de 2024 .
^ Calvert, Brian (28 de marzo de 2024). «La IA ya consume tanta energía como un país pequeño. Es solo el comienzo». Vox . Nueva York, Nueva York. Archivado desde el original el 3 de julio de 2024 . Consultado el 5 de octubre de 2024 .
^ Halper, Evan; O'Donovan, Caroline (21 de junio de 2024). "La IA está agotando la red eléctrica. Las empresas tecnológicas buscan una solución milagrosa". Washington Post .
^ Davenport, Carly. "Centros de datos de IA y el aumento de la demanda de energía de YS que se avecina" (PDF) . Goldman Sachs . Archivado desde el original (PDF) el 26 de julio de 2024 . Consultado el 5 de octubre de 2024 .
^ Ryan, Carol (12 de abril de 2024). "La inteligencia artificial que consume mucha energía también es el futuro del ahorro energético". Wall Street Journal . Dow Jones.
^ Hiller, Jennifer (1 de julio de 2024). «La industria tecnológica quiere bloquear la energía nuclear para la IA». Wall Street Journal . Dow Jones. Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ Kendall, Tyler (28 de septiembre de 2024). "Huang, de Nvidia, dice que la energía nuclear es una opción para alimentar los centros de datos". Bloomberg .
^ Halper, Evan (20 de septiembre de 2024). "El acuerdo con Microsoft reabriría la planta nuclear de Three Mile Island para impulsar la inteligencia artificial". Washington Post .
^ Hiller, Jennifer (20 de septiembre de 2024). «La planta nuclear de Three Mile Island reabrirá y ayudará a impulsar los centros de inteligencia artificial de Microsoft». Wall Street Journal . Dow Jones. Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ abc Niva Yadav (19 de agosto de 2024). "Taiwán detendrá los grandes centros de datos en el norte, alegando falta de energía". DatacenterDynamics.
^ ab Mochizuki, Takashi; Oda, Shoko (18 de octubre de 2024). "エヌビディア出資の日本企業、原発近くでAIデータセンター新設検討". Bloomberg (en japonés).
^ ab Naureen S Malik y Will Wade (5 de noviembre de 2024). "Los campus de inteligencia artificial, ávidos de energía nuclear, necesitan un nuevo plan para encontrar energía rápidamente". Bloomberg.
^ Nicas (2018).
^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 de julio de 2019). «Confianza y desconfianza en Estados Unidos». Pew Research Center . Archivado desde el original el 22 de febrero de 2024.
^ Williams (2023).
^ Taylor y Hern (2023).
^ ab Samuel, Sigal (19 de abril de 2022). "Por qué es tan difícil lograr que la IA sea justa e imparcial". Vox . Archivado desde el original el 5 de octubre de 2024 . Consultado el 24 de julio de 2024 .
^ desde Rosa (2023).
^ Centro de Investigación y Desarrollo (2019).
^ Goffrey (2008), pág. 17.
^ Berdahl y col. (2023); Goffrey (2008, pág. 17); Rosa (2023); Russell y Norvig (2021, pág. 995)
^ Cristiano (2020), pág. 25.
^ desde Russell y Norvig (2021), pág. 995.
^ Grant y Hill (2023).
^ Larson y Angwin (2016).
^ Christian (2020), págs. 67–70.
^ Christian (2020, págs. 67-70); Russell y Norvig (2021, págs. 993-994)
^ Russell y Norvig (2021, pág. 995); Lipartito (2011, pág. 36); Goodman y Flaxman (2017, pág. 6); Christian (2020, págs. 39-40, 65)
^ Citado en Christian (2020, p. 65).
^ Russell y Norvig (2021, pág. 994); Christian (2020, págs. 40, 80-81)
^ Citado en Christian (2020, p. 80)
^ Dockrill (2022).
^ Muestra (2017).
^ "Black Box AI". 16 de junio de 2023. Archivado desde el original el 15 de junio de 2024. Consultado el 5 de octubre de 2024 .
^ Cristiano (2020), pág. 110.
^ Christian (2020), págs. 88–91.
^ Christian (2020, pág. 83); Russell y Norvig (2021, pág. 997)
^ Cristiano (2020), pág. 91.
^ Cristiano (2020), pág. 83.
^ Verma (2021).
^ Rothman (2020).
^ Christian (2020), págs. 105–108.
^ Christian (2020), págs. 108-112.
^ Ropek, Lucas (21 de mayo de 2024). «Nueva investigación antrópica arroja luz sobre la «caja negra» de la IA». Gizmodo . Archivado desde el original el 5 de octubre de 2024. Consultado el 23 de mayo de 2024 .
^ Russell y Norvig (2021), pág. 989.
^ desde Russell y Norvig (2021), págs. 987–990.
^ Russell y Norvig (2021), pág. 988.
^ Robitzski (2018); Sainato (2015)
^ Harari (2018).
^ Buckley, Chris; Mozur, Paul (22 de mayo de 2019). «Cómo China utiliza la vigilancia de alta tecnología para someter a las minorías». The New York Times . Archivado desde el original el 25 de noviembre de 2019. Consultado el 2 de julio de 2019 .
^ "Un fallo de seguridad expuso un sistema de vigilancia de una ciudad inteligente china". 3 de mayo de 2019. Archivado desde el original el 7 de marzo de 2021. Consultado el 14 de septiembre de 2020 .
^ Urbina y col. (2022).
^ ab E. McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica' (2022), 51(3) Industrial Law Journal 511–559. Archivado el 27 de mayo de 2023 en Wayback Machine .
^ Ford y Colvin (2015); McGaughey (2022)
^ Grupo de investigación de mercado de Chicago (2017).
^ Arntz, Gregory y Zierahn (2016), pág. 33.
^ Lohr (2017); Frey y Osborne (2017); Arntz, Gregory y Zierahn (2016, pág. 33)
^ Zhou, Viola (11 de abril de 2023). «La IA ya está robando puestos de trabajo a los ilustradores de videojuegos en China». Resto del mundo . Archivado desde el original el 21 de febrero de 2024. Consultado el 17 de agosto de 2023 .
^ Carter, Justin (11 de abril de 2023). «Según se informa, la industria del arte de los videojuegos de China ha sido diezmada por el creciente uso de la IA». Game Developer . Archivado desde el original el 17 de agosto de 2023 . Consultado el 17 de agosto de 2023 .
^ Morgenstern (2015).
^ Mahdawi (2017); Thompson (2014)
^ Tarnoff, Ben (4 de agosto de 2023). "Lecciones de Eliza". The Guardian Weekly . págs. 34–39.
^ Cellan-Jones (2014).
^ Russell y Norvig 2021, pág. 1001.
^ Bostrom (2014).
^ Russell (2019).
^ Bostrom (2014); Müller y Bostrom (2014); Bostrom (2015).
^ Harari (2023).
^ Müller y Bostrom (2014).
^ Preocupaciones de los líderes sobre los riesgos existenciales de la IA en torno a 2015: Rawlinson (2015), Holley (2015), Gibbs (2014), Sainato (2015)
^ "El "padrino de la inteligencia artificial" habla del impacto y el potencial de la nueva IA". CBS News . 25 de marzo de 2023. Archivado desde el original el 28 de marzo de 2023 . Consultado el 28 de marzo de 2023 .
^ Pittis, Don (4 de mayo de 2023). «El líder canadiense en inteligencia artificial Geoffrey Hinton ahonda en los temores de una toma de control por parte de las computadoras». CBC . Archivado desde el original el 7 de julio de 2024 . Consultado el 5 de octubre de 2024 .
^ "Hay un 50-50 de posibilidades de que la IA sea más inteligente que la humanidad, dice Geoffrey Hinton". Bloomberg BNN . 14 de junio de 2024 . Consultado el 6 de julio de 2024 .
^ Cenefa (2023).
^ Taylor, Josh (7 de mayo de 2023). «El auge de la inteligencia artificial es inevitable, pero no hay que temerlo, dice el 'padre de la IA'». The Guardian . Archivado desde el original el 23 de octubre de 2023. Consultado el 26 de mayo de 2023 .
^ Colton, Emma (7 de mayo de 2023). «El 'padre de la IA' dice que los temores tecnológicos son infundados: 'No se puede detener'». Fox News . Archivado desde el original el 26 de mayo de 2023. Consultado el 26 de mayo de 2023 .
^ Jones, Hessie (23 de mayo de 2023). «Juergen Schmidhuber, reconocido como el «padre de la inteligencia artificial moderna», afirma que el trabajo de su vida no conducirá a una distopía». Forbes . Archivado desde el original el 26 de mayo de 2023 . Consultado el 26 de mayo de 2023 .
^ McMorrow, Ryan (19 de diciembre de 2023). «Andrew Ng: '¿Creemos que el mundo está mejor con más o menos inteligencia?'». Financial Times . Archivado desde el original el 25 de enero de 2024. Consultado el 30 de diciembre de 2023 .
^ Levy, Steven (22 de diciembre de 2023). "Cómo no ser estúpido con la IA, con Yann LeCun". Wired . Archivado desde el original el 28 de diciembre de 2023. Consultado el 30 de diciembre de 2023 .
^ Argumentos de que la IA no es un riesgo inminente: Brooks (2014), Geist (2015), Madrigal (2015), Lee (2014)
^ ab Christian (2020), págs. 67, 73.
^ Yudkowsky (2008).
^ desde Anderson y Anderson (2011).
^ Asociación Internacional de Agentes Inmobiliarios (AIA) (2014).
^ Villanueva (2009).
^ Russell (2019), pág. 173.
^ Stewart, Ashley; Melton, Monica. "El director ejecutivo de Hugging Face dice que está centrado en construir un 'modelo sostenible' para la startup de inteligencia artificial de código abierto valorada en 4500 millones de dólares". Business Insider . Archivado desde el original el 25 de septiembre de 2024. Consultado el 14 de abril de 2024 .
^ Wiggers, Kyle (9 de abril de 2024). «Google abre herramientas de código abierto para respaldar el desarrollo de modelos de IA». TechCrunch . Archivado desde el original el 10 de septiembre de 2024. Consultado el 14 de abril de 2024 .
^ Heaven, Will Douglas (12 de mayo de 2023). "El auge de la inteligencia artificial de código abierto se basa en las dádivas de las grandes tecnológicas. ¿Cuánto durará?". MIT Technology Review . Consultado el 14 de abril de 2024 .
^ Brodsky, Sascha (19 de diciembre de 2023). «El nuevo modelo de lenguaje de Mistral AI apunta a la supremacía del código abierto». AI Business . Archivado desde el original el 5 de septiembre de 2024 . Consultado el 5 de octubre de 2024 .
^ Edwards, Benj (22 de febrero de 2024). «Stability anuncia Stable Diffusion 3, un generador de imágenes de IA de última generación». Ars Technica . Archivado desde el original el 5 de octubre de 2024. Consultado el 14 de abril de 2024 .
^ Marshall, Matt (29 de enero de 2024). «Cómo las empresas utilizan los LLM de código abierto: 16 ejemplos». VentureBeat . Archivado desde el original el 26 de septiembre de 2024 . Consultado el 5 de octubre de 2024 .
^ Piper, Kelsey (2 de febrero de 2024). "¿Deberíamos hacer que nuestros modelos de IA más potentes sean de código abierto para todos?". Vox . Archivado desde el original el 5 de octubre de 2024. Consultado el 14 de abril de 2024 .
^ Instituto Alan Turing (2019). «Comprender la ética y la seguridad de la inteligencia artificial» (PDF) . Archivado (PDF) del original el 11 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
^ Instituto Alan Turing (2023). «Ética y gobernanza de la IA en la práctica» (PDF) . Archivado (PDF) del original el 11 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
^ Floridi, Luciano; Cowls, Josh (23 de junio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Harvard Data Science Review . 1 (1). doi : 10.1162/99608f92.8cd550d1 . S2CID 198775713.
^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (1 de septiembre de 2020). "Una perspectiva crítica sobre las directrices para una inteligencia artificial responsable y confiable". Medicina, atención sanitaria y filosofía . 23 (3): 387–399. doi :10.1007/s11019-020-09948-1. ISSN 1572-8633. PMID 32236794. S2CID 214766800. Archivado desde el original el 5 de octubre de 2024. Consultado el 5 de octubre de 2024 .
^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (1 de enero de 2023). «Cuestiones éticas en el desarrollo de la inteligencia artificial: reconocimiento de los riesgos». Revista Internacional de Ética y Sistemas . ahead-of-print (ahead-of-print). doi :10.1108/IJOES-05-2023-0107. ISSN 2514-9369. S2CID 259614124. Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ "AI Safety Institute lanza una nueva plataforma de evaluación de seguridad de IA". Gobierno del Reino Unido. 10 de mayo de 2024. Archivado desde el original el 5 de octubre de 2024. Consultado el 14 de mayo de 2024 .
^ Regulación de la IA para mitigar riesgos: Berryhill et al. (2019), Barfield & Pagallo (2018), Iphofen & Kritikos (2019), Wirtz, Weyerer & Geyer (2018), Buiten (2019)
^ Biblioteca de Derecho del Congreso (EE. UU.). Dirección de Investigación Jurídica Global (2019).
^ por Vincent (2023).
^ Universidad de Stanford (2023).
^abcd UNESCO (2021).
^ Kissinger (2021).
^ Altman, Brockman y Sutskever (2023).
^ VOA News (25 de octubre de 2023). «La ONU anuncia un órgano asesor sobre inteligencia artificial». Archivado desde el original el 18 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
^ "El Consejo de Europa abre a la firma el primer tratado mundial sobre IA". Consejo de Europa . 5 de septiembre de 2024. Archivado desde el original el 17 de septiembre de 2024 . Consultado el 17 de septiembre de 2024 .
^ Edwards (2023).
^ Kasperowicz (2023).
^ Fox Noticias (2023).
^ Milmo, Dan (3 de noviembre de 2023). «¿Esperanza u horror? El gran debate sobre la IA que divide a sus pioneros». The Guardian Weekly . págs. 10-12.
^ "Declaración de Bletchley de los países que asistirán a la Cumbre sobre seguridad de la IA, 1 y 2 de noviembre de 2023". GOV.UK . 1 de noviembre de 2023. Archivado desde el original el 1 de noviembre de 2023 . Consultado el 2 de noviembre de 2023 .
^ "Los países acuerdan un desarrollo seguro y responsable de la IA de vanguardia en la histórica Declaración de Bletchley". GOV.UK (Comunicado de prensa). Archivado desde el original el 1 de noviembre de 2023. Consultado el 1 de noviembre de 2023 .
^ "La segunda cumbre mundial sobre inteligencia artificial garantiza compromisos de seguridad por parte de las empresas". Reuters. 21 de mayo de 2024. Consultado el 23 de mayo de 2024 .
^ "Compromisos de seguridad de la IA en la frontera, Cumbre de Seúl sobre IA de 2024". gov.uk. 21 de mayo de 2024. Archivado desde el original el 23 de mayo de 2024. Consultado el 23 de mayo de 2024 .
^ desde Russell y Norvig 2021, pág. 9.
^ abc Copeland, J., ed. (2004). El Turing esencial: las ideas que dieron origen a la era informática . Oxford, Inglaterra: Clarendon Press. ISBN0-1982-5079-7.
^ "Google books ngram". Archivado desde el original el 5 de octubre de 2024 . Consultado el 5 de octubre de 2024 .
^ Precursores inmediatos de la IA: McCorduck (2004, págs. 51-107), Crevier (1993, págs. 27-32), Russell y Norvig (2021, págs. 8-17), Moravec (1988, pág. 3)
^ Publicación original de la prueba de Turing en " Computing machinery and intelligence ": Turing (1950) Influencia histórica e implicaciones filosóficas: Haugeland (1985, págs. 6-9), Crevier (1993, pág. 24), McCorduck (2004, págs. 70-71), Russell & Norvig (2021, págs. 2, 984)
^ Crevier (1993), págs. 47–49.
^ Russell y Norvig (2003), pág. 17.
^ Russell y Norvig (2003), pág. 18.
^ Newquist (1994), págs. 86–86.
^ Simon (1965, p. 96) citado en Crevier (1993, p. 109)
^ Minsky (1967, p. 2) citado en Crevier (1993, p. 109)
^ Sagar, Ram (3 de junio de 2020). «OpenAI lanza GPT-3, el modelo más grande hasta ahora». Revista Analytics India . Archivado desde el original el 4 de agosto de 2020. Consultado el 15 de marzo de 2023 .
^ DiFeliciantonio (2023).
^ George (2008).
^ Grayling, Anthony; Ball, Brian (1 de agosto de 2024). «La filosofía es crucial en la era de la IA». The Conversation . Archivado desde el original el 5 de octubre de 2024. Consultado el 4 de octubre de 2024 .
^ ab Jarow, Oshan (15 de junio de 2024). "¿La IA llegará a ser consciente algún día? Depende de cómo se piense en la biología". Vox . Archivado desde el original el 21 de septiembre de 2024 . Consultado el 4 de octubre de 2024 .
^ McCarthy, John. "La filosofía de la IA y la IA de la filosofía". jmc.stanford.edu . Archivado desde el original el 23 de octubre de 2018. Consultado el 3 de octubre de 2024 .
^ desde Turing (1950), pág. 1.
^ Turing (1950), bajo "El argumento de la conciencia".
^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 de octubre de 2023). «La IA está más cerca que nunca de pasar la prueba de Turing de «inteligencia». ¿Qué sucede cuando lo logra?». The Conversation . Archivado desde el original el 25 de septiembre de 2024. Consultado el 17 de agosto de 2024 .
^ Russell y Norvig (2021), pág. 3.
^ Creador (2006).
^ McCarthy (1999).
^ Michael S. (1986).
^ "¿Qué es la inteligencia artificial (IA)?". Google Cloud Platform . Archivado desde el original el 31 de julio de 2023. Consultado el 16 de octubre de 2023 .
^ "Uno de los mayores problemas a la hora de regular la IA es llegar a un acuerdo sobre una definición". carnegieendowment.org . Consultado el 31 de julio de 2024 .
^ "¿IA o tonterías? Cómo saber si una herramienta de marketing realmente utiliza inteligencia artificial". The Drum . Consultado el 31 de julio de 2024 .
^ Nilsson (1983), pág. 10.
^ Haugeland (1985), págs. 112-117.
^ Hipótesis del sistema de símbolos físicos: Newell y Simon (1976, pág. 116) Importancia histórica: McCorduck (2004, pág. 153), Russell y Norvig (2021, pág. 19)
^ La paradoja de Moravec : Moravec (1988, págs. 15-16), Minsky (1986, pág. 29), Pinker (2007, págs. 190-191)
^ Crítica de Dreyfus a la IA : Dreyfus (1972), Dreyfus & Dreyfus (1986) Importancia histórica e implicaciones filosóficas: Crevier (1993, pp. 120-132), McCorduck (2004, pp. 211-239), Russell & Norvig (2021, pp. 981-982), Fearn (2007, cap. 3)
^ Crevier (1993), pág. 125.
^ Langley (2011).
^ Katz (2012).
^ Neats vs. scruffies , el debate histórico: McCorduck (2004, pp. 421–424, 486–489), Crevier (1993, p. 168), Nilsson (1983, pp. 10–11), Russell & Norvig (2021, p. 24) Un ejemplo clásico del enfoque "scruffy" de la inteligencia: Minsky (1986) Un ejemplo moderno de IA ordenada y sus aspiraciones en el siglo XXI: Domingos (2015)
^ Pennachin y Goertzel (2007).
^Por Roberts (2016).
^ Russell y Norvig (2021), pág. 986.
^ Chalmers (1995).
^ Dennett (1991).
^ Horst (2005).
^ Searle (1999).
^ Searle (1980), pág. 1.
^ Russell y Norvig (2021), pág. 9817.
^ El argumento de la habitación china de Searle : Searle (1980). Presentación original de Searle del experimento mental. Searle (1999). Discusión: Russell y Norvig (2021, págs. 985), McCorduck (2004, págs. 443-445), Crevier (1993, págs. 269-271)
^ Leith, Sam (7 de julio de 2022). «Nick Bostrom: ¿Cómo podemos estar seguros de que una máquina no es consciente?». The Spectator . Archivado desde el original el 26 de septiembre de 2024. Consultado el 23 de febrero de 2024 .
^ abc Thomson, Jonny (31 de octubre de 2022). «¿Por qué los robots no tienen derechos?». Big Think . Archivado desde el original el 13 de septiembre de 2024. Consultado el 23 de febrero de 2024 .
^ ab Kateman, Brian (24 de julio de 2023). «La IA debería tener miedo de los humanos». Time . Archivado desde el original el 25 de septiembre de 2024. Consultado el 23 de febrero de 2024 .
^ Wong, Jeff (10 de julio de 2023). "Lo que los líderes necesitan saber sobre los derechos de los robots". Fast Company .
^ Hern, Alex (12 de enero de 2017). «Un comité de la UE sostiene que hay que dar a los robots el estatus de «personas»». The Guardian . ISSN 0261-3077. Archivado desde el original el 5 de octubre de 2024. Consultado el 23 de febrero de 2024 .
^ Dovey, Dana (14 de abril de 2018). "Los expertos no creen que los robots deban tener derechos". Newsweek . Archivado desde el original el 5 de octubre de 2024 . Consultado el 23 de febrero de 2024 .
^ Cuddy, Alice (13 de abril de 2018). «Los derechos de los robots violan los derechos humanos, advierten los expertos de la UE». euronews . Archivado desde el original el 19 de septiembre de 2024 . Consultado el 23 de febrero de 2024 .
Rich, Elaine ; Knight, Kevin; Nair, Shivashankar B (2010). Inteligencia artificial (3.ª ed.). Nueva Delhi: Tata McGraw Hill India. ISBN 978-0-0700-8770-5.
Éstos fueron cuatro de los libros de texto de IA más utilizados en 2008:
Luger, George; Stubblefield, William (2004). Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5.ª ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7Archivado del original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
Nilsson, Nils (1998). Inteligencia artificial: una nueva síntesis . Morgan Kaufmann. ISBN 978-1-5586-0467-4Archivado del original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
Poole, David; Mackworth, Alan ; Goebel, Randy (1998). Inteligencia computacional: un enfoque lógico. Nueva York: Oxford University Press. ISBN 978-0-1951-0270-3Archivado del original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .Edición posterior: Poole, David; Mackworth, Alan (2017). Inteligencia artificial: fundamentos de los agentes computacionales (2.ª ed.). Cambridge University Press. ISBN 978-1-1071-9539-4Archivado desde el original el 7 de diciembre de 2017 . Consultado el 6 de diciembre de 2017 .
Otros libros de texto:
Ertel, Wolfgang (2017). Introducción a la inteligencia artificial (2.ª ed.). Springer. ISBN 978-3-3195-8486-7.
Ciaramella, Alberto ; Ciaramella, Marco (2024). Introducción a la inteligencia artificial: del análisis de datos a la IA generativa (1.ª ed.). Ediciones Intellisemánticas. ISBN 978-8-8947-8760-3.
Historia de la IA
Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence [IA: La tumultuosa búsqueda de la inteligencia artificial] . Nueva York, NY: BasicBooks. ISBN 0-465-02997-3.
Newquist, HP (1994). Los creadores de cerebros: genio, ego y codicia en la búsqueda de máquinas que piensen . Nueva York: Macmillan/SAMS. ISBN 978-0-6723-0412-5.
Otras fuentes
IA y ML en Fusion
IA y ML en Fusion, videoconferencia Archivado el 2 de julio de 2023 en Wayback Machine
Alter, Alexandra; Harris, Elizabeth A. (20 de septiembre de 2023), «Franzen, Grisham y otros autores destacados demandan a OpenAI», The New York Times , archivado del original el 14 de septiembre de 2024 , consultado el 5 de octubre de 2024
Altman, Sam ; Brockman, Greg ; Sutskever, Ilya (22 de mayo de 2023). "Gobernanza de la superinteligencia". openai.com . Archivado desde el original el 27 de mayo de 2023 . Consultado el 27 de mayo de 2023 .
Anderson, Susan Leigh (2008). "Las "tres leyes de la robótica" de Asimov y la metaética de las máquinas". AI & Society . 22 (4): 477–493. doi :10.1007/s00146-007-0094-5. S2CID 1809459.
Anderson, Michael; Anderson, Susan Leigh (2011). Ética de las máquinas . Cambridge University Press.
Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), "El riesgo de automatización para los empleos en los países de la OCDE: un análisis comparativo", Documentos de trabajo sobre cuestiones sociales, empleo y migración de la OCDE 189
Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). "Robótica cognitiva del desarrollo: una encuesta". IEEE Transactions on Autonomous Mental Development . 1 (1): 12–34. doi :10.1109/tamd.2009.2021702. S2CID 10168773.
"Pregunte a los expertos en IA: ¿Qué impulsa el progreso actual de la IA?". McKinsey & Company . Archivado desde el original el 13 de abril de 2018. Consultado el 13 de abril de 2018 .
Barfield, Woodrow; Pagallo, Ugo (2018). Manual de investigación sobre la ley de la inteligencia artificial . Cheltenham, Reino Unido: Edward Elgar Publishing. ISBN 978-1-7864-3904-8.OCLC 1039480085 .
Beal, J.; Winston, Patrick (2009), "La nueva frontera de la inteligencia artificial a nivel humano", IEEE Intelligent Systems , vol. 24, págs. 21–24, doi :10.1109/MIS.2009.75, hdl : 1721.1/52357 , S2CID 32437713
Berdahl, Carl Thomas; Baker, Lawrence; Mann, Sean; Osoba, Osonde; Girosi, Federico (7 de febrero de 2023). "Estrategias para mejorar el impacto de la inteligencia artificial en la equidad en salud: revisión del alcance". JMIR AI . 2 : e42936. doi : 10.2196/42936 . ISSN 2817-1705. PMC 11041459 . PMID 38875587. S2CID 256681439.
Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hola, mundo: inteligencia artificial y su uso en el sector público (PDF) . París: Observatorio de la Innovación del Sector Público de la OCDE. Archivado (PDF) del original el 20 de diciembre de 2019 . Consultado el 9 de agosto de 2020 .
Bertini, M; Del Bimbo, A; Torniai, C (2006). "Anotación automática y recuperación semántica de secuencias de vídeo utilizando ontologías multimedia". MM '06 Actas de la 14ª conferencia internacional de la ACM sobre multimedia . 14ª conferencia internacional de la ACM sobre multimedia. Santa Bárbara: ACM. págs. 679–682.
Bostrom, Nick (2015). «¿Qué sucede cuando nuestros ordenadores se vuelven más inteligentes que nosotros?». TED (conferencia) . Archivado desde el original el 25 de julio de 2020. Consultado el 30 de enero de 2020 .
Brooks, Rodney (10 de noviembre de 2014). «La inteligencia artificial es una herramienta, no una amenaza». Archivado desde el original el 12 de noviembre de 2014.
Brooks, Rodney (1990). "Los elefantes no juegan al ajedrez" (PDF) . Robótica y sistemas autónomos . 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539 . doi :10.1016/S0921-8890(05)80025-9. Archivado (PDF) desde el original el 9 de agosto de 2007.
Buiten, Miriam C (2019). "Hacia una regulación inteligente de la inteligencia artificial". Revista Europea de Regulación de Riesgos . 10 (1): 41–59. doi : 10.1017/err.2019.8 . ISSN 1867-299X.
Bushwick, Sophie (16 de marzo de 2023), "What the New GPT-4 AI Can Do", Scientific American , archivado del original el 22 de agosto de 2023 , consultado el 5 de octubre de 2024
Butler, Samuel (13 de junio de 1863). «Darwin entre las máquinas». Cartas al editor. The Press . Christchurch, Nueva Zelanda. Archivado desde el original el 19 de septiembre de 2008 . Consultado el 16 de octubre de 2014 – a través de Victoria University of Wellington.
Buttazzo, G. (julio de 2001). "Conciencia artificial: ¿utopía o posibilidad real?". Computer . 34 (7): 24–30. doi :10.1109/2.933500.
Cambria, Erik; White, Bebo (mayo de 2014). "Curvas de PNL que saltan: una revisión de la investigación sobre procesamiento del lenguaje natural [artículo de revisión]". Revista IEEE Computational Intelligence . 9 (2): 48–57. doi :10.1109/MCI.2014.2307227. S2CID 206451986.
Cellan-Jones, Rory (2 de diciembre de 2014). «Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad». BBC News . Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015 .
Chalmers, David (1995). «Afrontando el problema de la conciencia». Journal of Consciousness Studies . 2 (3): 200–219. CiteSeerX 10.1.1.103.8362 . Archivado desde el original el 8 de marzo de 2005 . Consultado el 11 de octubre de 2018 .
Challa, Subhash; Moreland, Mark R.; Mušicki, Darko; Evans, Robin J. (2011). Fundamentos del seguimiento de objetos . Cambridge University Press. doi :10.1017/CBO9780511975837. ISBN 978-0-5218-7628-5.
Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Redes neuronales profundas multicolumna para la clasificación de imágenes". Conferencia IEEE de 2012 sobre visión artificial y reconocimiento de patrones . págs. 3642–3649. arXiv : 1202.2745 . doi :10.1109/cvpr.2012.6248110. ISBN .978-1-4673-1228-8. Número de identificación del sujeto 2161592.
Clark, Jack (2015b). "Why 2015 Was a Breakthrough Year in Artificial Intelligence" (Por qué 2015 fue un año de grandes avances en inteligencia artificial) . Bloomberg.com . Archivado desde el original el 23 de noviembre de 2016. Consultado el 23 de noviembre de 2016 .
CNA (12 de enero de 2019). «Comentario: Malas noticias. La inteligencia artificial está sesgada». CNA . Archivado desde el original el 12 de enero de 2019 . Consultado el 19 de junio de 2020 .
Cybenko, G. (1988). Las redes neuronales continuas con dos capas ocultas son suficientes (informe). Departamento de Ciencias de la Computación, Universidad de Tufts.
Deng, L.; Yu, D. (2014). "Aprendizaje profundo: métodos y aplicaciones" (PDF) . Fundamentos y tendencias en procesamiento de señales . 7 (3–4): 197–387. doi :10.1561/2000000039. Archivado (PDF) desde el original el 14 de marzo de 2016 . Consultado el 18 de octubre de 2014 .
DiFeliciantonio, Chase (3 de abril de 2023). «La IA ya ha cambiado el mundo. Este informe muestra cómo». San Francisco Chronicle . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
Dickson, Ben (2 de mayo de 2022). "Aprendizaje automático: ¿Qué es la arquitectura del transformador?". TechTalks . Archivado desde el original el 22 de noviembre de 2023 . Consultado el 22 de noviembre de 2023 .
Dockrill, Peter (27 de junio de 2022), «Los robots con IA defectuosa toman decisiones sexistas y racistas, según demuestra un experimento», Science Alert , archivado del original el 27 de junio de 2022
Dreyfus, Hubert ; Dreyfus, Stuart (1986). La mente por encima de la máquina: el poder de la intuición y la pericia humanas en la era de la informática. Oxford: Blackwell. ISBN 978-0-0290-8060-3Archivado del original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
Dyson, George (1998). Darwin entre las máquinas. Allan Lane Science. ISBN 978-0-7382-0030-9Archivado del original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
Edelson, Edward (1991). El sistema nervioso . Nueva York: Chelsea House. ISBN.978-0-7910-0464-7Archivado del original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
Edwards, Benj (17 de mayo de 2023). «Encuesta: la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses». Ars Technica . Archivado desde el original el 19 de junio de 2023 . Consultado el 19 de junio de 2023 .
Fearn, Nicholas (2007). Las últimas respuestas a las preguntas más antiguas: una aventura filosófica con los pensadores más grandes del mundo . Nueva York: Grove Press. ISBN 978-0-8021-1839-4.
Ford, Martin; Colvin, Geoff (6 de septiembre de 2015). «¿Los robots crearán más puestos de trabajo de los que destruirán?». The Guardian . Archivado desde el original el 16 de junio de 2018. Consultado el 13 de enero de 2018 .
Fox News (2023). «Encuesta de Fox News» (PDF) . Fox News. Archivado (PDF) del original el 12 de mayo de 2023. Consultado el 19 de junio de 2023 .
Frey, Carl Benedikt; Osborne, Michael A (1 de enero de 2017). "El futuro del empleo: ¿cuán susceptibles son los empleos a la informatización?". Pronóstico tecnológico y cambio social . 114 : 254–280. CiteSeerX 10.1.1.395.416 . doi :10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
"De no trabajar a las redes neuronales". The Economist . 2016. Archivado desde el original el 31 de diciembre de 2016 . Consultado el 26 de abril de 2018 .
Galvan, Jill (1 de enero de 1997). "Entrando al colectivo posthumano en "¿Sueñan los androides con ovejas eléctricas?" de Philip K. Dick".". Estudios de ciencia ficción . 24 (3): 413–429. JSTOR 4240644.
Geist, Edward Moore (9 de agosto de 2015). «¿Es la inteligencia artificial realmente una amenaza existencial para la humanidad?». Boletín de los científicos atómicos . Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015 .
Gibbs, Samuel (27 de octubre de 2014). «Elon Musk: la inteligencia artificial es nuestra mayor amenaza existencial». The Guardian . Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015 .
Goffrey, Andrew (2008). "Algoritmo". En Fuller, Matthew (ed.). Estudios de software: un léxico . Cambridge, Mass.: MIT Press. págs. 15–20. ISBN 978-1-4356-4787-9.
Goldman, Sharon (14 de septiembre de 2022). «Diez años después, la 'revolución' del aprendizaje profundo continúa, dicen los pioneros de la IA Hinton, LeCun y Li». VentureBeat . Archivado desde el original el 5 de octubre de 2024 . Consultado el 8 de diciembre de 2023 .
Good, IJ (1965), Especulaciones sobre la primera máquina ultrainteligente, archivado del original el 10 de julio de 2023 , consultado el 5 de octubre de 2024
Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., archivado desde el original el 16 de abril de 2016 , consultado el 12 de noviembre de 2017
Goodman, Bryce; Flaxman, Seth (2017). "Regulaciones de la UE sobre toma de decisiones algorítmica y un 'derecho a la explicación'"". Revista AI . 38 (3): 50. arXiv : 1606.08813 . doi :10.1609/aimag.v38i3.2741. S2CID 7373959.
Oficina de Responsabilidad Gubernamental (13 de septiembre de 2022). Datos de los consumidores: el aumento del uso plantea riesgos para la privacidad. gao.gov (informe). Archivado desde el original el 13 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
Grant, Nico; Hill, Kashmir (22 de mayo de 2023). «La aplicación de fotos de Google todavía no puede encontrar gorilas. Y tampoco la de Apple». The New York Times . Archivado desde el original el 14 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
Goswami, Rohan (5 de abril de 2023). "Aquí es donde están los trabajos de inteligencia artificial". CNBC . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
Harari, Yuval Noah (octubre de 2018). «Why Technology Favors Tyranny» (Por qué la tecnología favorece la tiranía). The Atlantic . Archivado desde el original el 25 de septiembre de 2021. Consultado el 23 de septiembre de 2021 .
Harari, Yuval Noah (2023). «La IA y el futuro de la humanidad». YouTube . Archivado desde el original el 30 de septiembre de 2024 . Consultado el 5 de octubre de 2024 .
Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T. ; Kingsbury, B. (2012). "Redes neuronales profundas para modelado acústico en reconocimiento de voz: las visiones compartidas de cuatro grupos de investigación". Revista IEEE Signal Processing . 29 (6): 82–97. Bibcode :2012ISPM...29...82H. doi :10.1109/msp.2012.2205597. S2CID 206485943.
Holley, Peter (28 de enero de 2015). «Bill Gates sobre los peligros de la inteligencia artificial: «No entiendo por qué a algunas personas no les preocupa»». The Washington Post . ISSN 0190-8286. Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015 .
Hornik, Kurt; Stinchcombe, Maxwell; White, Halbert (1989). Las redes de propagación hacia adelante multicapa son aproximadores universales (PDF) . Redes neuronales . Vol. 2. Pergamon Press. págs. 359–366. Archivado (PDF) desde el original el 21 de abril de 2023 . Consultado el 5 de octubre de 2024 .
Horst, Steven (2005). «La teoría computacional de la mente». The Stanford Encyclopedia of Philosophy . Archivado desde el original el 6 de marzo de 2016. Consultado el 7 de marzo de 2016 .
Howe, J. (noviembre de 1994). «Inteligencia artificial en la Universidad de Edimburgo: una perspectiva». Archivado desde el original el 15 de mayo de 2007. Consultado el 30 de agosto de 2007 .
IGM Chicago (30 de junio de 2017). «Robots e inteligencia artificial». igmchicago.org . Archivado desde el original el 1 de mayo de 2019 . Consultado el 3 de julio de 2019 .
Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). "Regulación de la inteligencia artificial y la robótica: ética por diseño en una sociedad digital". Ciencia social contemporánea . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
Jordan, MI; Mitchell, TM (16 de julio de 2015). "Aprendizaje automático: tendencias, perspectivas y perspectivas". Science . 349 (6245): 255–260. Bibcode :2015Sci...349..255J. doi :10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
Kahneman, Daniel (2011). Pensar rápido, pensar despacio. Macmillan. ISBN 978-1-4299-6935-2Archivado desde el original el 15 de marzo de 2023 . Consultado el 8 de abril de 2012 .
Kasperowicz, Peter (1 de mayo de 2023). "¿Regular la IA? El Partido Republicano es mucho más escéptico que los demócratas respecto de que el gobierno pueda hacerlo bien, según una encuesta". Fox News . Archivado desde el original el 19 de junio de 2023 . Consultado el 19 de junio de 2023 .
Katz, Yarden (1 de noviembre de 2012). «Noam Chomsky sobre los errores de la inteligencia artificial». The Atlantic . Archivado desde el original el 28 de febrero de 2019. Consultado el 26 de octubre de 2014 .
"Kismet". Laboratorio de Inteligencia Artificial del MIT, Grupo de Robótica Humanoide. Archivado desde el original el 17 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
Kissinger, Henry (1 de noviembre de 2021). «El desafío de ser humano en la era de la IA». The Wall Street Journal . Archivado desde el original el 4 de noviembre de 2021. Consultado el 4 de noviembre de 2021 .
Kobielus, James (27 de noviembre de 2019). «Las GPU siguen dominando el mercado de aceleradores de IA por ahora». InformationWeek . Archivado desde el original el 19 de octubre de 2021. Consultado el 11 de junio de 2020 .
Kuperman, GJ; Reichley, RM; Bailey, TC (1 de julio de 2006). "Uso de bases de conocimiento comerciales para el apoyo a la toma de decisiones clínicas: oportunidades, obstáculos y recomendaciones". Revista de la Asociación Estadounidense de Informática Médica . 13 (4): 369–371. doi :10.1197/jamia.M2055. PMC 1513681 . PMID 16622160.
Langley, Pat (2011). "La ciencia cambiante del aprendizaje automático". Aprendizaje automático . 82 (3): 275–279. doi : 10.1007/s10994-011-5242-y .
Larson, Jeff; Angwin, Julia (23 de mayo de 2016). «Cómo analizamos el algoritmo de reincidencia COMPAS». ProPublica . Archivado desde el original el 29 de abril de 2019. Consultado el 19 de junio de 2020 .
Laskowski, Nicole (noviembre de 2023). «¿Qué es la inteligencia artificial y cómo funciona la IA? TechTarget». Inteligencia artificial empresarial . Archivado desde el original el 5 de octubre de 2024. Consultado el 30 de octubre de 2023 .
Biblioteca de Derecho del Congreso (EE. UU.). Dirección de Investigación Jurídica Global, organismo emisor. (2019). Regulación de la inteligencia artificial en jurisdicciones seleccionadas . LCCN 2019668143. OCLC 1110727808.
Lee, Timothy B. (22 de agosto de 2014). «¿La inteligencia artificial destruirá a la humanidad? Aquí hay 5 razones para no preocuparse». Vox . Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015 .
Lenat, Douglas ; Guha, RV (1989). Construcción de grandes sistemas basados en el conocimiento . Addison-Wesley. ISBN 978-0-2015-1752-1.
Lighthill, James (1973). "Inteligencia artificial: una visión general". Inteligencia artificial: un simposio de artículos . Consejo de Investigación Científica.
Lipartito, Kenneth (6 de enero de 2011), La narrativa y el algoritmo: géneros de informes crediticios desde el siglo XIX hasta la actualidad (PDF) (manuscrito inédito), doi :10.2139/ssrn.1736283, S2CID 166742927, archivado (PDF) desde el original el 9 de octubre de 2022
Lohr, Steve (2017). «Los robots ocuparán puestos de trabajo, pero no tan rápido como algunos temen, según un nuevo informe». The New York Times . Archivado desde el original el 14 de enero de 2018. Consultado el 13 de enero de 2018 .
Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Robótica del desarrollo: una encuesta". Ciencia de la conexión . 15 (4): 151-190. CiteSeerX 10.1.1.83.7615 . doi :10.1080/09540090310001655110. S2CID 1452734.
"Ética de las máquinas". aaai.org . Archivado desde el original el 29 de noviembre de 2014.
Madrigal, Alexis C. (27 de febrero de 2015). "El caso contra los robots asesinos, de un hombre que trabaja en inteligencia artificial". Fusion.net . Archivado desde el original el 4 de febrero de 2016 . Consultado el 31 de enero de 2016 .
Mahdawi, Arwa (26 de junio de 2017). "¿Qué puestos de trabajo seguirán existiendo dentro de 20 años? Lea esto para preparar su futuro". The Guardian . Archivado desde el original el 14 de enero de 2018. Consultado el 13 de enero de 2018 .
Maker, Meg Houston (2006), AI@50: AI Past, Present, Future, Dartmouth College, archivado desde el original el 8 de octubre de 2008 , consultado el 16 de octubre de 2008
Marmouyet, Françoise (15 de diciembre de 2023). «Gemini de Google: ¿el nuevo modelo de IA es realmente mejor que ChatGPT?». The Conversation . Archivado desde el original el 4 de marzo de 2024. Consultado el 25 de diciembre de 2023 .
McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955). "Una propuesta para el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial". Archivado desde el original el 26 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
McCarthy, John (2007), "De aquí a la IA a nivel humano", Inteligencia artificial , pág. 171
McCarthy, John (1999), ¿Qué es la IA?, archivado desde el original el 4 de diciembre de 2022 , consultado el 4 de diciembre de 2022
McCauley, Lee (2007). "El armageddon de la IA y las tres leyes de la robótica". Ética y tecnología de la información . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 . doi :10.1007/s10676-007-9138-2. S2CID 37272949.
McGarry, Ken (1 de diciembre de 2005). "Un estudio de medidas de interés para el descubrimiento de conocimiento". The Knowledge Engineering Review . 20 (1): 39–61. doi :10.1017/S0269888905000408. S2CID 14987656.
McGaughey, E (2022), ¿Los robots automatizarán su trabajo? Empleo pleno, renta básica y democracia económica, pág. 51(3) Industrial Law Journal 511–559, doi :10.2139/ssrn.3044448, S2CID 219336439, SSRN 3044448, archivado del original el 31 de enero de 2021 , consultado el 27 de mayo de 2023
Merkle, Daniel; Middendorf, Martin (2013). "Inteligencia de enjambre". En Burke, Edmund K.; Kendall, Graham (eds.). Metodologías de búsqueda: tutoriales introductorios sobre técnicas de optimización y soporte de decisiones . Springer Science & Business Media. ISBN 978-1-4614-6940-7.
Moravec, Hans (1988). Mind Children . Prensa de la Universidad de Harvard. ISBN 978-0-6745-7616-2Archivado del original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
Morgenstern, Michael (9 de mayo de 2015). «Automatización y ansiedad». The Economist . Archivado desde el original el 12 de enero de 2018. Consultado el 13 de enero de 2018 .
Müller, Vincent C.; Bostrom, Nick (2014). "Progreso futuro en inteligencia artificial: una encuesta entre expertos" (PDF) . AI Matters . 1 (1): 9–11. doi :10.1145/2639475.2639478. S2CID 8510016. Archivado (PDF) desde el original el 15 de enero de 2016.
Neumann, Bernd; Möller, Ralf (enero de 2008). "Interpretación en escena con lógicas descriptivas". Image and Vision Computing . 26 (1): 82–101. doi :10.1016/j.imavis.2007.08.013. S2CID 10767011.
Nilsson, Nils (1995), "Con los ojos puestos en el premio", AI Magazine , vol. 16, págs. 9-17
Newell, Allen ; Simon, HA (1976). "La ciencia informática como investigación empírica: símbolos y búsqueda". Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145/360018.360022 .
Nicas, Jack (7 de febrero de 2018). «Cómo YouTube lleva a la gente a los rincones más oscuros de Internet». The Wall Street Journal . ISSN 0099-9660. Archivado desde el original el 5 de octubre de 2024. Consultado el 16 de junio de 2018 .
Nilsson, Nils (1983). "La inteligencia artificial se prepara para el 2001" (PDF) . AI Magazine . 1 (1). Archivado (PDF) del original el 17 de agosto de 2020. Consultado el 22 de agosto de 2020 .Discurso presidencial ante la Asociación para el Avance de la Inteligencia Artificial .
Omohundro, Steve (2008). La naturaleza de la inteligencia artificial automejorable . Presentado y distribuido en la Singularity Summit de 2007, San Francisco, California.
Oudeyer, PY. (2010). "Sobre el impacto de la robótica en las ciencias conductuales y cognitivas: desde la navegación de los insectos hasta el desarrollo cognitivo humano" (PDF) . IEEE Transactions on Autonomous Mental Development . 2 (1): 2–16. doi :10.1109/tamd.2009.2039057. S2CID 6362217. Archivado (PDF) desde el original el 3 de octubre de 2018 . Consultado el 4 de junio de 2013 .
Pennachin, C.; Goertzel, B. (2007). "Enfoques contemporáneos de la inteligencia artificial general". Inteligencia artificial general . Tecnologías cognitivas. Berlín, Heidelberg: Springer. págs. 1–30. doi :10.1007/978-3-540-68677-4_1. ISBN 978-3-5402-3733-4.
Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal". Information Fusion . 37 : 98–125. doi :10.1016/j.inffus.2017.02.003. hdl : 1893/25490 . S2CID 205433041. Archivado desde el original el 23 de marzo de 2023 . Consultado el 27 de abril de 2021 .
Rawlinson, Kevin (29 de enero de 2015). «Bill Gates de Microsoft insiste en que la IA es una amenaza». BBC News . Archivado desde el original el 29 de enero de 2015. Consultado el 30 de enero de 2015 .
Reisner, Alex (19 de agosto de 2023), "Revelado: los autores cuyos libros pirateados están impulsando la inteligencia artificial generativa", The Atlantic , archivado del original el 3 de octubre de 2024 , consultado el 5 de octubre de 2024
Roberts, Jacob (2016). «Máquinas pensantes: la búsqueda de inteligencia artificial». Destilaciones . Vol. 2, núm. 2. págs. 14–23. Archivado desde el original el 19 de agosto de 2018. Consultado el 20 de marzo de 2018 .
Robitzski, Dan (5 de septiembre de 2018). «Cinco expertos comparten lo que más les asusta de la IA». Archivado desde el original el 8 de diciembre de 2019. Consultado el 8 de diciembre de 2019 .
Rose, Steve (11 de julio de 2023). "¿Utopía o distopía de la IA?". The Guardian Weekly , págs. 42-43.
Sainato, Michael (19 de agosto de 2015). «Stephen Hawking, Elon Musk y Bill Gates advierten sobre la inteligencia artificial». Observer . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
Sample, Ian (5 de noviembre de 2017). «La computadora dice no: por qué es crucial que las IA sean justas, responsables y transparentes». The Guardian . Archivado desde el original el 10 de octubre de 2022. Consultado el 30 de enero de 2018 .
Rothman, Denis (7 de octubre de 2020). "Explorando las explicaciones de LIME y las matemáticas que lo sustentan". Codemotion . Archivado desde el original el 25 de noviembre de 2023 . Consultado el 25 de noviembre de 2023 .
Scassellati, Brian (2002). "Teoría de la mente para un robot humanoide". Robots autónomos . 12 (1): 13–24. doi :10.1023/A:1013298507114. S2CID 1979315.
Schmidhuber, J. (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85–117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
Schmidhuber, Jürgen (2022). «Historia comentada de la IA moderna y el aprendizaje profundo». Archivado desde el original el 7 de agosto de 2023. Consultado el 5 de octubre de 2024 .
Searle, John (1980). «Mentes, cerebros y programas» (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi :10.1017/S0140525X00005756. S2CID 55303721. Archivado (PDF) del original el 17 de marzo de 2019. Consultado el 22 de agosto de 2020 .
Searle, John (1999). Mente, lenguaje y sociedad. Nueva York: Basic Books. ISBN 978-0-4650-4521-1. OCLC 231867665. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
Simon, HA (1965), La forma de la automatización para los hombres y la gestión , Nueva York: Harper & Row
Simonite, Tom (31 de marzo de 2016). «Cómo planea Google resolver la inteligencia artificial». MIT Technology Review . Archivado desde el original el 16 de septiembre de 2024. Consultado el 5 de octubre de 2024 .
Smith, Craig S. (15 de marzo de 2023). «El creador de ChatGPT-4, Ilya Sutskever, habla de las alucinaciones de la IA y de la democracia de la IA». Forbes . Archivado desde el original el 18 de septiembre de 2024 . Consultado el 25 de diciembre de 2023 .
Smoliar, Stephen W.; Zhang, HongJiang (1994). "Indexación y recuperación de vídeo basada en contenido". IEEE MultiMedia . 1 (2): 62–72. doi :10.1109/93.311653. S2CID 32710913.
Solomonoff, Ray (1956). Una máquina de inferencia inductiva (PDF) . Conferencia de investigación de verano de Dartmouth sobre inteligencia artificial. Archivado (PDF) del original el 26 de abril de 2011. Consultado el 22 de marzo de 2011 a través de std.com, copia escaneada en formato PDF del original.Publicado posteriormente como Solomonoff, Ray (1957). "Una máquina de inferencia inductiva". IRE Convention Record . Vol. Sección sobre teoría de la información, parte 2. págs. 56–62.
Universidad de Stanford (2023). «Informe del Índice de Inteligencia Artificial 2023/Capítulo 6: Política y gobernanza» (PDF) . AI Index. Archivado (PDF) del original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
Tao, Jianhua; Tan, Tieniu (2005). Computación afectiva e interacción inteligente . Computación afectiva: una revisión. Apuntes de clase en informática. Vol. 3784. Springer. págs. 981–995. doi :10.1007/11573548. ISBN.978-3-5402-9621-8.
Taylor, Josh; Hern, Alex (2 de mayo de 2023). «El 'padrino de la IA' Geoffrey Hinton abandona Google y advierte sobre los peligros de la desinformación». The Guardian . Archivado desde el original el 5 de octubre de 2024. Consultado el 5 de octubre de 2024 .
Thompson, Derek (23 de enero de 2014). «What Jobs Will the Robots Take?» [¿Qué trabajos ocuparán los robots?]. The Atlantic . Archivado desde el original el 24 de abril de 2018. Consultado el 24 de abril de 2018 .
Thro, Ellen (1993). Robótica: la unión de las computadoras y las máquinas. Nueva York: Facts on File. ISBN 978-0-8160-2628-9Archivado del original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
Toews, Rob (3 de septiembre de 2023). "Transformers revolucionó la IA. ¿Qué los reemplazará?". Forbes . Archivado desde el original el 8 de diciembre de 2023. Consultado el 8 de diciembre de 2023 .
Turing, Alan (octubre de 1950). "Maquinaria informática e inteligencia". Mind . 59 (236): 433–460. doi :10.1093/mind/LIX.236.433. ISSN 1460-2113. JSTOR 2251299. S2CID 14636783.
Informe de la UNESCO sobre la ciencia: la carrera contra el tiempo hacia un desarrollo más inteligente. París: UNESCO. 2021. ISBN 978-9-2310-0450-6Archivado desde el original el 18 de junio de 2022 . Consultado el 18 de septiembre de 2021 .
Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7 de marzo de 2022). "Uso dual del descubrimiento de fármacos impulsado por inteligencia artificial". Nature Machine Intelligence . 4 (3): 189–191. doi :10.1038/s42256-022-00465-9. PMC 9544280 . PMID 36211133. S2CID 247302391.
Valance, Christ (30 de mayo de 2023). «La inteligencia artificial podría conducir a la extinción, advierten los expertos». BBC News . Archivado desde el original el 17 de junio de 2023. Consultado el 18 de junio de 2023 .
Valinsky, Jordan (11 de abril de 2019), "Según se informa, Amazon emplea a miles de personas para escuchar sus conversaciones de Alexa", CNN.com , archivado del original el 26 de enero de 2024 , consultado el 5 de octubre de 2024
Verma, Yugesh (25 de diciembre de 2021). "Una guía completa de SHAP: explicaciones de SHAPley Additive para profesionales". Revista Analytics India . Archivado desde el original el 25 de noviembre de 2023. Consultado el 25 de noviembre de 2023 .
Vincent, James (7 de noviembre de 2019). «OpenAI ha publicado la IA generadora de texto que, según afirma, es demasiado peligrosa para compartir». The Verge . Archivado desde el original el 11 de junio de 2020. Consultado el 11 de junio de 2020 .
Vincent, James (15 de noviembre de 2022). «La aterradora verdad sobre los derechos de autor de la IA es que nadie sabe qué pasará a continuación». The Verge . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
Vincent, James (3 de abril de 2023). «La IA está entrando en una era de control corporativo». The Verge . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
Vinge, Vernor (1993). "La singularidad tecnológica que se avecina: cómo sobrevivir en la era posthumana". Visión 21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio : 11. Bibcode :1993vise.nasa...11V. Archivado desde el original el 1 de enero de 2007 . Consultado el 14 de noviembre de 2011 .
Waddell, Kaveh (2018). «Los chatbots han entrado en el valle inquietante». The Atlantic . Archivado desde el original el 24 de abril de 2018. Consultado el 24 de abril de 2018 .
Wallach, Wendell (2010). Máquinas morales . Oxford University Press.
Wason, PC ; Shapiro, D. (1966). "Reasoning" . En Foss, BM (ed.). New horizons in psychology . Harmondsworth: Penguin. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). "Desarrollo mental autónomo por robots y animales" (PDF) . Science . 291 (5504): 599–600. doi :10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archivado (PDF) desde el original el 4 de septiembre de 2013 . Consultado el 4 de junio de 2013 en msu.edu.
"¿Qué es la 'lógica difusa'? ¿Existen ordenadores que sean inherentemente difusos y no apliquen la lógica binaria habitual?". Scientific American . 21 de octubre de 1999. Archivado desde el original el 6 de mayo de 2018. Consultado el 5 de mayo de 2018 .
Williams, Rhiannon (28 de junio de 2023), "Los humanos pueden tener más probabilidades de creer en la desinformación generada por la IA", MIT Technology Review , archivado del original el 16 de septiembre de 2024 , consultado el 5 de octubre de 2024
Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 de julio de 2018). «Inteligencia artificial y el sector público: aplicaciones y desafíos». Revista Internacional de Administración Pública . 42 (7): 596–615. doi :10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archivado desde el original el 18 de agosto de 2020 . Consultado el 22 de agosto de 2020 .
Wong, Matteo (19 de mayo de 2023), "ChatGPT ya está obsoleto", The Atlantic , archivado del original el 18 de septiembre de 2024 , consultado el 5 de octubre de 2024
Yudkowsky, E (2008), "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) , Global Catastrophic Risks , Oxford University Press, 2008, Bibcode :2008gcr..book..303Y, archivado (PDF) del original el 19 de octubre de 2013 , consultado el 24 de septiembre de 2021
Lectura adicional
Autor, David H. , "¿Por qué todavía hay tantos empleos? La historia y el futuro de la automatización del lugar de trabajo" (2015) 29(3) Journal of Economic Perspectives 3.
Berlinski, David (2000). El advenimiento del algoritmo. Harcourt Books. ISBN 978-0-1560-1391-8. OCLC 46890682. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
Cukier, Kenneth , "Ready for Robots? How to Think about the Future of AI", Foreign Affairs , vol. 98, no. 4 (julio/agosto de 2019), pp. 192-198. George Dyson , historiador de la informática, escribe (en lo que podría llamarse la "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado como para comportarse de manera inteligente, mientras que cualquier sistema lo suficientemente complicado como para comportarse de manera inteligente será demasiado complicado para entenderlo". (p. 197.) El científico informático Alex Pentland escribe: " Los algoritmos actuales de aprendizaje automático de IA son, en esencia, completamente estúpidos. Funcionan, pero funcionan por fuerza bruta". (p. 198.)
Evans, Woody (2015). "Derechos posthumanos: dimensiones de mundos transhumanos". Teknokultura . 12 (2). doi : 10.5209/rev_TK.2015.v12.n2.49072 . S2CID 147612763.
Frank, Michael (22 de septiembre de 2023). "El liderazgo de Estados Unidos en inteligencia artificial puede dar forma al orden global del siglo XXI". The Diplomat . Archivado del original el 16 de septiembre de 2024 . Consultado el 8 de diciembre de 2023 . En cambio, Estados Unidos ha desarrollado una nueva área de dominio que el resto del mundo ve con una mezcla de asombro, envidia y resentimiento: la inteligencia artificial... Desde los modelos y la investigación de IA hasta la computación en la nube y el capital de riesgo, las empresas, universidades y laboratorios de investigación estadounidenses (y sus filiales en países aliados) parecen tener una enorme ventaja tanto en el desarrollo de IA de vanguardia como en su comercialización. El valor de las inversiones de capital de riesgo estadounidenses en empresas emergentes de IA supera al del resto del mundo en conjunto.
Gertner, Jon. (2023) "El momento de la verdad de Wikipedia: ¿puede la enciclopedia en línea ayudar a enseñar a los chatbots de IA a obtener datos correctos, sin destruirse a sí mismos en el proceso?" New York Times Magazine (18 de julio de 2023) en línea Archivado el 20 de julio de 2023 en Wayback Machine
Gleick, James , "The Fate of Free Will" (reseña de Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will , Princeton University Press, 2023, 333 pp.), The New York Review of Books , vol. LXXI, no. 1 (18 de enero de 2024), pp. 27-28, 30. " La agencia es lo que nos distingue de las máquinas. Para las criaturas biológicas, la razón y el propósito provienen de actuar en el mundo y experimentar las consecuencias. Las inteligencias artificiales -incorpóreas, ajenas a la sangre, el sudor y las lágrimas- no tienen necesidad de eso". (p. 30.)
Halpern, Sue, "La autocracia tecnológica que se avecina" (reseña de Verity Harding , AI Needs You: How We Can Change AI's Future and Save Our Own , Princeton University Press, 274 pp.; Gary Marcus , Taming Silicon Valley: How We Can Ensure That AI Works for Us , MIT Press, 235 pp.; Daniela Rus y Gregory Mone, The Mind's Mirror: Risk and Reward in the Age of AI , Norton, 280 pp.; Madhumita Murgia , Code Dependent: Living in the Shadow of AI , Henry Holt, 311 pp.), The New York Review of Books , vol. LXXI, núm. 17 (7 de noviembre de 2024), pp. 44-46. "'No podemos esperar de manera realista que aquellos que esperan enriquecerse con la IA tengan los intereses del resto de nosotros en el corazón'... escribe [Gary Marcus]. 'No podemos contar con que los gobiernos impulsados por las contribuciones de financiación de campañas [de las empresas tecnológicas] contraataquen'... Marcus detalla las demandas que los ciudadanos deberían hacer a sus gobiernos y a las empresas tecnológicas . Incluyen transparencia sobre cómo funcionan los sistemas de IA; compensación para las personas si sus datos [se] utilizan para entrenar a los LLM ( modelos de lenguaje grandes ) y el derecho a consentir este uso; y la capacidad de responsabilizar a las empresas tecnológicas por los daños que causan eliminando la Sección 230 , imponiendo sanciones monetarias y aprobando leyes de responsabilidad del producto más estrictas ... Marcus también sugiere... que una nueva agencia federal específica para la IA, similar a la FDA , la FCC o la FTC , podría proporcionar la supervisión más sólida... [E]l profesor de derecho de Fordham Chinmayi Sharma... sugiere... establecer un régimen de licencias profesionales para ingenieros que funcionaría de manera similar a las licencias médicas , demandas por mala praxis y el juramento hipocrático en medicina. “¿Qué pasaría si, como los médicos”, pregunta…, “los ingenieros de IA también se comprometieran a no hacer daño ?” (p. 46).
Henderson, Mark (24 de abril de 2007). «¿Derechos humanos para los robots? Nos estamos dejando llevar». The Times Online . Londres. Archivado desde el original el 31 de mayo de 2014 . Consultado el 31 de mayo de 2014 .
Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone , which has stumped human humans for decenios, revealed the limitations of natural-language-processing algorithms", Scientific American , vol. 329, no. 4 (noviembre de 2023), pp. 81–82. "Esta competición de misterio de asesinato ha revelado que, aunque los modelos de PNL ( procesamiento del lenguaje natural ) son capaces de hazañas increíbles, sus capacidades están muy limitadas por la cantidad de contexto que reciben. Esto [...] podría causar [dificultades] para los investigadores que esperan usarlos para hacer cosas como analizar lenguas antiguas . En algunos casos, hay pocos registros históricos sobre civilizaciones desaparecidas hace mucho tiempo que sirvan como datos de entrenamiento para tal propósito". (p. 82.)
Immerwahr, Daniel , "Your Lying Eyes: People now use AI to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker , 20 de noviembre de 2023, pp. 54-59. "Si por ' deepfakes ' nos referimos a videos realistas producidos usando inteligencia artificial que realmente engañan a la gente, entonces apenas existen. Las falsificaciones no son profundas, y las profundidades no son falsas. [...] Los videos generados por IA no están, en general, operando en nuestros medios como evidencia falsificada. Su papel se asemeja más al de las caricaturas , especialmente las obscenas". (p. 59.)
Johnston, John (2008) El atractivo de la vida maquínica: cibernética, vida artificial y la nueva IA , MIT Press.
Jumper, John; Evans, Richard; Pritzel, Alexander; et al. (26 de agosto de 2021). "Predicción de la estructura de proteínas de alta precisión con AlphaFold". Nature . 596 (7873): 583–589. Bibcode :2021Natur.596..583J. doi :10.1038/s41586-021-03819-2. PMC 8371605 . PMID 34265844. S2CID 235959867.
LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (28 de mayo de 2015). «Aprendizaje profundo». Nature . 521 (7553): 436–444. Bibcode :2015Natur.521..436L. doi :10.1038/nature14539. PMID 26017442. S2CID 3074096. Archivado desde el original el 5 de junio de 2023 . Consultado el 19 de junio de 2023 .
Leffer, Lauren, "Los riesgos de confiar en la IA: debemos evitar humanizar los modelos de aprendizaje automático utilizados en la investigación científica", Scientific American , vol. 330, núm. 6 (junio de 2024), págs. 80–81.
Lepore, Jill , "El Chit-Chatbot: ¿Hablar con una máquina es una conversación?", The New Yorker , 7 de octubre de 2024, págs. 12-16.
Maschafilm (2010). «Contenido: Película Plug & Pray – Inteligencia artificial – Robots». plugandpray-film.de . Archivado desde el original el 12 de febrero de 2016.
Marcus, Gary , "Confianza artificial: incluso los sistemas de inteligencia artificial general más nuevos y populares se ven obstaculizados por los mismos viejos problemas", Scientific American , vol. 327, núm. 4 (octubre de 2022), págs. 42–45.
Mitchell, Melanie (2019). Inteligencia artificial: una guía para humanos pensantes . Nueva York: Farrar, Straus and Giroux. ISBN 978-0-3742-5783-5.
Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; et al. (26 de febrero de 2015). «Control a nivel humano mediante aprendizaje de refuerzo profundo». Nature . 518 (7540): 529–533. Bibcode :2015Natur.518..529M. doi :10.1038/nature14236. PMID 25719670. S2CID 205242740. Archivado desde el original el 19 de junio de 2023 . Consultado el 19 de junio de 2023 .Se introdujo DQN , que produjo un rendimiento a nivel humano en algunos juegos de Atari.
Press, Eyal , "Frente a sus caras: ¿La tecnología de reconocimiento facial lleva a la policía a ignorar evidencia contradictoria?", The New Yorker , 20 de noviembre de 2023, págs. 20-26.
"Los robots podrían exigir derechos legales". BBC News . 21 de diciembre de 2006. Archivado desde el original el 15 de octubre de 2019 . Consultado el 3 de febrero de 2011 .
Roivainen, Eka, "AI's IQ: ChatGPT superó con éxito una prueba [de inteligencia estándar] pero demostró que la inteligencia no se puede medir solo por el CI ", Scientific American , vol. 329, no. 1 (julio/agosto de 2023), p. 7. "A pesar de su alto CI, ChatGPT falla en tareas que requieren un razonamiento humano real o una comprensión del mundo físico y social.... ChatGPT parecía incapaz de razonar de manera lógica y trató de confiar en su vasta base de datos de... hechos derivados de textos en línea".
Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98, no. 3 (mayo/junio de 2019), pp. 135-144. "Las tecnologías de IA actuales son poderosas pero poco fiables. Los sistemas basados en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos con los que fueron entrenados. Los fallos de la IA ya han provocado tragedias. Las funciones avanzadas de piloto automático en los automóviles, aunque funcionan bien en algunas circunstancias, han hecho que los automóviles se estrellen sin previo aviso contra camiones, barreras de hormigón y automóviles estacionados. En la situación equivocada, los sistemas de IA pasan de ser superinteligentes a ser supertontos en un instante. Cuando un enemigo intenta manipular y piratear un sistema de IA, los riesgos son aún mayores". (p. 140.)
Schulz, Hannes; Behnke, Sven (1 de noviembre de 2012). "Aprendizaje profundo". KI – Künstliche Intelligenz . 26 (4): 357–363. doi :10.1007/s13218-012-0198-z. ISSN 1610-1987. S2CID 220523562.
Serenko, Alexander; Michael Dohan (2011). "Comparación de los métodos de encuesta a expertos y de clasificación de revistas por impacto de citas: ejemplo del campo de la inteligencia artificial" (PDF) . Journal of Informetrics . 5 (4): 629–649. doi :10.1016/j.joi.2011.06.002. Archivado (PDF) desde el original el 4 de octubre de 2013 . Consultado el 12 de septiembre de 2013 .
Silver, David; Huang, Aja; Maddison, Chris J.; et al. (28 de enero de 2016). «Dominar el juego de Go con redes neuronales profundas y búsqueda en árboles». Nature . 529 (7587): 484–489. Bibcode :2016Natur.529..484S. doi :10.1038/nature16961. PMID 26819042. S2CID 515925. Archivado desde el original el 18 de junio de 2023 . Consultado el 19 de junio de 2023 .
Vincent, James, "Horny Robot Baby Voice: James Vincent on AI chatbots", London Review of Books , vol. 46, núm. 19 (10 de octubre de 2024), pp. 29-32. "Los programas [de chatbots de IA] son posibles gracias a las nuevas tecnologías, pero dependen de la eterna tendencia humana a antropomorfizarse ". (p. 29.)
Libro Blanco: Inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza (PDF) . Bruselas: Comisión Europea. 2020. Archivado (PDF) del original el 20 de febrero de 2020 . Consultado el 20 de febrero de 2020 .