stringtranslate.com

Inteligencia artificial

La inteligencia artificial ( IA ), en su sentido más amplio, es la inteligencia que exhiben las máquinas , en particular los sistemas informáticos . Es un campo de investigación en informática que desarrolla y estudia métodos y software que permiten a las máquinas percibir su entorno y utilizar el aprendizaje y la inteligencia para tomar acciones que maximicen sus posibilidades de alcanzar objetivos definidos. [1] Estas máquinas pueden denominarse IA.

Algunas aplicaciones de alto perfil de la IA incluyen motores de búsqueda web avanzados (por ejemplo, Google Search ); sistemas de recomendación (utilizados por YouTube , Amazon y Netflix ); interacción a través del habla humana (por ejemplo, Google Assistant , Siri y Alexa ); vehículos autónomos (por ejemplo, Waymo ); herramientas generativas y creativas (por ejemplo, ChatGPT , Apple Intelligence y AI art ); y juego y análisis sobrehumanos en juegos de estrategia (por ejemplo, ajedrez y Go ). Sin embargo, muchas aplicaciones de IA no se perciben como IA: "Una gran cantidad de IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y común, ya no se etiqueta como IA ". [2] [3]

Los diversos subcampos de la investigación de IA se centran en torno a objetivos particulares y al uso de herramientas particulares. Los objetivos tradicionales de la investigación de IA incluyen razonamiento , representación del conocimiento , planificación , aprendizaje , procesamiento del lenguaje natural , percepción y apoyo a la robótica . [a] La inteligencia general —la capacidad de completar cualquier tarea que pueda realizar un humano en un nivel al menos igual— se encuentra entre los objetivos a largo plazo del campo. [4] Para alcanzar estos objetivos, los investigadores de IA han adaptado e integrado una amplia gama de técnicas, incluidas la búsqueda y la optimización matemática , la lógica formal , las redes neuronales artificiales y los métodos basados ​​en la estadística , la investigación de operaciones y la economía . [b] La IA también se basa en la psicología , la lingüística , la filosofía , la neurociencia y otros campos. [5]

La inteligencia artificial se fundó como disciplina académica en 1956, [6] y el campo pasó por múltiples ciclos de optimismo, [7] [8] seguidos de períodos de decepción y pérdida de financiación, conocidos como el invierno de la IA . [9] [10] La financiación y el interés aumentaron enormemente después de 2012, cuando el aprendizaje profundo superó las técnicas de IA anteriores. [11] Este crecimiento se aceleró aún más después de 2017 con la arquitectura del transformador , [12] y, a principios de la década de 2020, se estaban invirtiendo cientos de miles de millones de dólares en IA (conocido como el " auge de la IA "). El uso generalizado de la IA en el siglo XXI expuso varias consecuencias y daños no deseados en el presente y planteó preocupaciones sobre sus riesgos y efectos a largo plazo en el futuro, lo que provocó debates sobre políticas regulatorias para garantizar la seguridad y los beneficios de la tecnología .

Objetivos

El problema general de simular (o crear) inteligencia se ha dividido en subproblemas, que consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención y cubren el alcance de la investigación en IA. [a]

Razonamiento y resolución de problemas

Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que utilizan los humanos cuando resuelven acertijos o hacen deducciones lógicas . [13] A finales de los años 1980 y 1990, se desarrollaron métodos para tratar la información incierta o incompleta, empleando conceptos de probabilidad y economía . [14]

Muchos de estos algoritmos son insuficientes para resolver grandes problemas de razonamiento porque experimentan una "explosión combinatoria": se vuelven exponencialmente más lentos a medida que los problemas crecen. [15] Incluso los humanos rara vez utilizan la deducción paso a paso que las primeras investigaciones de IA podían modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [16] El razonamiento preciso y eficiente es un problema sin resolver.

Representación del conocimiento

Una ontología representa el conocimiento como un conjunto de conceptos dentro de un dominio y las relaciones entre esos conceptos.

La representación del conocimiento y la ingeniería del conocimiento [17] permiten que los programas de IA respondan preguntas de manera inteligente y realicen deducciones sobre hechos del mundo real. Las representaciones formales del conocimiento se utilizan en la indexación y recuperación basadas en contenido, [18] interpretación de escenas, [19] apoyo a la toma de decisiones clínicas, [20] descubrimiento de conocimiento (extracción de inferencias "interesantes" y procesables de grandes bases de datos ), [21] y otras áreas. [22]

Una base de conocimiento es un cuerpo de conocimiento representado en una forma que puede ser utilizada por un programa. Una ontología es el conjunto de objetos, relaciones, conceptos y propiedades utilizadas por un dominio particular de conocimiento. [23] Las bases de conocimiento necesitan representar cosas como objetos, propiedades, categorías y relaciones entre objetos; [24] situaciones, eventos, estados y tiempo; [25] causas y efectos; [26] conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); [27] razonamiento predeterminado (cosas que los humanos asumen como verdaderas hasta que se les dice lo contrario y seguirán siendo ciertas incluso cuando otros hechos cambien); [28] y muchos otros aspectos y dominios del conocimiento.

Entre los problemas más difíciles en la representación del conocimiento están la amplitud del conocimiento de sentido común (el conjunto de hechos atómicos que la persona promedio conoce es enorme); [29] y la forma subsimbólica de la mayor parte del conocimiento de sentido común (gran parte de lo que la gente sabe no se representa como "hechos" o "afirmaciones" que podrían expresar verbalmente). [16] También está la dificultad de la adquisición de conocimiento , el problema de obtener conocimiento para aplicaciones de IA. [c]

Planificación y toma de decisiones

Un "agente" es cualquier cosa que percibe y realiza acciones en el mundo. Un agente racional tiene objetivos o preferencias y realiza acciones para que se cumplan. [d] [32] En la planificación automatizada , el agente tiene un objetivo específico. [33] En la toma de decisiones automatizada , el agente tiene preferencias: hay algunas situaciones en las que preferiría estar y otras situaciones que intenta evitar. El agente que toma las decisiones asigna un número a cada situación (llamado " utilidad ") que mide cuánto la prefiere el agente. Para cada acción posible, puede calcular la " utilidad esperada ": la utilidad de todos los resultados posibles de la acción, ponderada por la probabilidad de que ocurra el resultado. Luego puede elegir la acción con la máxima utilidad esperada. [34]

En la planificación clásica , el agente sabe exactamente cuál será el efecto de cualquier acción. [35] Sin embargo, en la mayoría de los problemas del mundo real, el agente puede no estar seguro de la situación en la que se encuentra (es "desconocida" o "inobservable") y puede no saber con certeza qué sucederá después de cada acción posible (no es "determinista"). Debe elegir una acción haciendo una suposición probabilística y luego reevaluar la situación para ver si la acción funcionó. [36]

En algunos problemas, las preferencias del agente pueden ser inciertas, especialmente si hay otros agentes o humanos involucrados. Estas pueden aprenderse (por ejemplo, con el aprendizaje de refuerzo inverso ), o el agente puede buscar información para mejorar sus preferencias. [37] La ​​teoría del valor de la información se puede utilizar para sopesar el valor de las acciones exploratorias o experimentales. [38] El espacio de posibles acciones y situaciones futuras suele ser intratablemente grande, por lo que los agentes deben tomar acciones y evaluar situaciones sin estar seguros de cuál será el resultado.

Un proceso de decisión de Markov tiene un modelo de transición que describe la probabilidad de que una acción particular cambie el estado de una manera particular y una función de recompensa que proporciona la utilidad de cada estado y el costo de cada acción. Una política asocia una decisión con cada estado posible. La política puede ser calculada (por ejemplo, mediante iteración ), ser heurística o puede aprenderse. [39]

La teoría de juegos describe el comportamiento racional de múltiples agentes que interactúan y se utiliza en programas de IA que toman decisiones que involucran a otros agentes. [40]

Aprendiendo

El aprendizaje automático es el estudio de programas que pueden mejorar su desempeño en una tarea determinada de manera automática. [41] Ha sido parte de la IA desde el principio. [e]

Existen varios tipos de aprendizaje automático. El aprendizaje no supervisado analiza un flujo de datos y encuentra patrones y hace predicciones sin ninguna otra guía. [44] El aprendizaje supervisado requiere que un humano etiquete primero los datos de entrada y se presenta en dos variedades principales: clasificación (donde el programa debe aprender a predecir a qué categoría pertenece la entrada) y regresión (donde el programa debe deducir una función numérica en función de la entrada numérica). [45]

En el aprendizaje por refuerzo , el agente es recompensado por las buenas respuestas y castigado por las malas. El agente aprende a elegir respuestas que se clasifican como "buenas". [46] El aprendizaje por transferencia es cuando el conocimiento obtenido de un problema se aplica a un nuevo problema. [47] El aprendizaje profundo es un tipo de aprendizaje automático que ejecuta entradas a través de redes neuronales artificiales inspiradas biológicamente para todos estos tipos de aprendizaje. [48]

La teoría del aprendizaje computacional puede evaluar a los estudiantes por complejidad computacional , por complejidad de la muestra (cuántos datos se requieren) o por otras nociones de optimización . [49]

Procesamiento del lenguaje natural

El procesamiento del lenguaje natural (PLN) [50] permite que los programas lean, escriban y se comuniquen en idiomas humanos como el inglés . Los problemas específicos incluyen el reconocimiento de voz , la síntesis de voz , la traducción automática , la extracción de información , la recuperación de información y la respuesta a preguntas . [51]

Los primeros trabajos, basados ​​en la gramática generativa y las redes semánticas de Noam Chomsky , tenían dificultades con la desambiguación del sentido de las palabras [f] a menos que se restringieran a pequeños dominios llamados " micromundos " (debido al problema del conocimiento del sentido común [29] ). Margaret Masterman creía que era el significado y no la gramática lo que era la clave para comprender los idiomas, y que los tesauros y no los diccionarios deberían ser la base de la estructura computacional del lenguaje.

Las técnicas modernas de aprendizaje profundo para PNL incluyen la incrustación de palabras (que representan palabras, generalmente como vectores que codifican su significado), [52] transformadores (una arquitectura de aprendizaje profundo que utiliza un mecanismo de atención ), [53] y otros. [54] En 2019, los modelos de lenguaje generativo preentrenado de transformadores (o "GPT") comenzaron a generar texto coherente, [55] [56] y para 2023, estos modelos pudieron obtener puntajes de nivel humano en el examen de la barra , el examen SAT , el examen GRE y muchas otras aplicaciones del mundo real. [57]

Percepción

La percepción artificial es la capacidad de utilizar la información de los sensores (como cámaras, micrófonos, señales inalámbricas, lidar activo , sonar, radar y sensores táctiles ) para deducir aspectos del mundo. La visión artificial es la capacidad de analizar la información visual. [58]

El campo incluye reconocimiento de voz , [59] clasificación de imágenes , [60] reconocimiento facial , reconocimiento de objetos , [61] seguimiento de objetos , [62] y percepción robótica . [63]

Inteligencia social

Kismet , una cabeza de robot que se fabricó en la década de 1990; una máquina que puede reconocer y simular emociones [64]

La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan sentimientos, emociones y estados de ánimo humanos . [65] Por ejemplo, algunos asistentes virtuales están programados para hablar de manera conversacional o incluso para bromear con humor; esto los hace parecer más sensibles a la dinámica emocional de la interacción humana o para facilitar de alguna otra manera la interacción entre humanos y computadoras .

Sin embargo, esto tiende a dar a los usuarios ingenuos una concepción poco realista de la inteligencia de los agentes informáticos existentes. [66] Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimientos textuales y, más recientemente, el análisis de sentimientos multimodales , en el que la IA clasifica los afectos mostrados por un sujeto grabado en video. [67]

Inteligencia general

Una máquina con inteligencia general artificial debería ser capaz de resolver una amplia variedad de problemas con una amplitud y versatilidad similar a la inteligencia humana . [4]

Técnicas

La investigación sobre IA utiliza una amplia variedad de técnicas para lograr los objetivos anteriores. [b]

Búsqueda y optimización

La IA puede resolver muchos problemas buscando de forma inteligente entre muchas soluciones posibles. [68] Hay dos tipos de búsqueda muy diferentes que se utilizan en la IA: búsqueda en el espacio de estados y búsqueda local .

La búsqueda en el espacio de estados busca en un árbol de estados posibles para intentar encontrar un estado objetivo. [69] Por ejemplo, los algoritmos de planificación buscan en árboles de objetivos y subobjetivos, intentando encontrar un camino hacia un objetivo objetivo, un proceso llamado análisis de medios y fines . [70]

Las búsquedas exhaustivas simples [71] rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (la cantidad de lugares en los que buscar) crece rápidamente hasta alcanzar cifras astronómicas . El resultado es una búsqueda demasiado lenta o que nunca se completa. [15] Las " heurísticas " o "reglas generales" pueden ayudar a priorizar las opciones que tienen más probabilidades de alcanzar un objetivo. [72]

La búsqueda adversarial se utiliza en programas de juegos , como ajedrez o Go. Busca en un árbol de posibles movimientos y contramovimientos una posición ganadora. [73]

Ilustración del descenso de gradiente para 3 puntos de partida diferentes; se ajustan dos parámetros (representados por las coordenadas del plan) para minimizar la función de pérdida (la altura)

La búsqueda local utiliza la optimización matemática para encontrar una solución a un problema. Comienza con algún tipo de suposición y la va refinando de forma incremental. [74]

El descenso de gradiente es un tipo de búsqueda local que optimiza un conjunto de parámetros numéricos ajustándolos de forma incremental para minimizar una función de pérdida . Las variantes del descenso de gradiente se utilizan comúnmente para entrenar redes neuronales. [75]

Otro tipo de búsqueda local es la computación evolutiva , que tiene como objetivo mejorar iterativamente un conjunto de soluciones candidatas "mutándolas" y "recombinándolas", seleccionando sólo las más aptas para sobrevivir cada generación. [76]

Los procesos de búsqueda distribuida pueden coordinarse mediante algoritmos de inteligencia de enjambre . Dos algoritmos de enjambre populares utilizados en la búsqueda son la optimización de enjambre de partículas (inspirada en la bandada de pájaros ) y la optimización de colonias de hormigas (inspirada en los rastros de hormigas ). [77]

Lógica

La lógica formal se utiliza para el razonamiento y la representación del conocimiento . [78] La lógica formal se presenta en dos formas principales: la lógica proposicional (que opera sobre afirmaciones que son verdaderas o falsas y utiliza conectores lógicos como "y", "o", "no" e "implica") [79] y la lógica de predicados (que también opera sobre objetos, predicados y relaciones y utiliza cuantificadores como " Cada X es una Y " y "Hay algunas X que son Y "). [80]

El razonamiento deductivo en lógica es el proceso de probar una nueva afirmación ( conclusión ) a partir de otras afirmaciones que se dan y se suponen verdaderas (las premisas ). [81] Las pruebas se pueden estructurar como árboles de prueba , en los que los nodos están etiquetados por oraciones y los nodos secundarios están conectados a los nodos primarios mediante reglas de inferencia .

Dado un problema y un conjunto de premisas, la resolución de problemas se reduce a la búsqueda de un árbol de pruebas cuyo nodo raíz esté etiquetado por una solución del problema y cuyos nodos hoja estén etiquetados por premisas o axiomas . En el caso de las cláusulas de Horn , la búsqueda de resolución de problemas se puede realizar razonando hacia adelante a partir de las premisas o hacia atrás a partir del problema. [82] En el caso más general de la forma clausal de la lógica de primer orden , la resolución es una regla de inferencia única, libre de axiomas, en la que un problema se resuelve probando una contradicción a partir de premisas que incluyen la negación del problema a resolver. [83]

La inferencia, tanto en la lógica de cláusulas de Horn como en la lógica de primer orden, es indecidible y, por lo tanto, intratable . Sin embargo, el razonamiento inverso con cláusulas de Horn, que sustenta el cálculo en el lenguaje de programación lógica Prolog , es Turing completo . Además, su eficiencia es competitiva con el cálculo en otros lenguajes de programación simbólica . [84]

La lógica difusa asigna un "grado de verdad" entre 0 y 1. Por lo tanto, puede manejar proposiciones que son vagas y parcialmente verdaderas. [85]

Las lógicas no monótonas , incluida la programación lógica con negación como falla , están diseñadas para manejar el razonamiento predeterminado . [28] Se han desarrollado otras versiones especializadas de la lógica para describir muchos dominios complejos.

Métodos probabilísticos para el razonamiento incierto

Una red bayesiana simple , con las tablas de probabilidad condicional asociadas

Muchos problemas en IA (incluidos los de razonamiento, planificación, aprendizaje, percepción y robótica) requieren que el agente opere con información incompleta o incierta. Los investigadores de IA han ideado una serie de herramientas para resolver estos problemas utilizando métodos de la teoría de la probabilidad y la economía. [86] Se han desarrollado herramientas matemáticas precisas que analizan cómo un agente puede tomar decisiones y planificar, utilizando la teoría de la decisión , el análisis de decisiones , [87] y la teoría del valor de la información . [88] Estas herramientas incluyen modelos como los procesos de decisión de Markov , [89] las redes de decisión dinámica , [90] la teoría de juegos y el diseño de mecanismos . [91]

Las redes bayesianas [92] son ​​una herramienta que se puede utilizar para el razonamiento (utilizando el algoritmo de inferencia bayesiana ), [g] [94] el aprendizaje (utilizando el algoritmo de expectativa-maximización ), [h] [96] la planificación (utilizando redes de decisión ) [97] y la percepción (utilizando redes bayesianas dinámicas ). [90]

Los algoritmos probabilísticos también se pueden utilizar para filtrar, predecir, suavizar y encontrar explicaciones para flujos de datos, ayudando así a los sistemas de percepción a analizar procesos que ocurren a lo largo del tiempo (por ejemplo, modelos ocultos de Markov o filtros de Kalman ). [90]

La agrupación de datos de erupción de Old Faithful por expectativa-maximización comienza con una suposición aleatoria pero luego converge con éxito en una agrupación precisa de los dos modos de erupción físicamente distintos.

Clasificadores y métodos de aprendizaje estadístico

Las aplicaciones de IA más simples se pueden dividir en dos tipos: clasificadores (por ejemplo, "si es brillante, entonces es diamante"), por un lado, y controladores (por ejemplo, "si es diamante, entonces cógelo"), por otro lado. Los clasificadores [98] son ​​funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Se pueden ajustar con precisión en función de ejemplos elegidos mediante aprendizaje supervisado . Cada patrón (también llamado " observación ") se etiqueta con una determinada clase predefinida. Todas las observaciones combinadas con sus etiquetas de clase se conocen como un conjunto de datos . Cuando se recibe una nueva observación, esa observación se clasifica en función de la experiencia previa. [45]

Existen muchos tipos de clasificadores en uso. [99] El árbol de decisiones es el algoritmo de aprendizaje automático simbólico más simple y más utilizado. [100] El algoritmo de los k vecinos más cercanos fue la IA analógica más utilizada hasta mediados de los años 1990, y los métodos Kernel como la máquina de vectores de soporte (SVM) desplazaron al k vecino más cercano en los años 1990. [101] El clasificador Bayes ingenuo es, según se informa, el "aprendiz más utilizado" [102] en Google, debido en parte a su escalabilidad. [103] Las redes neuronales también se utilizan como clasificadores. [104]

Redes neuronales artificiales

Una red neuronal es un grupo de nodos interconectados, similar a la vasta red de neuronas del cerebro humano .

Una red neuronal artificial se basa en una colección de nodos también conocidos como neuronas artificiales , que modelan vagamente las neuronas de un cerebro biológico. Está entrenada para reconocer patrones; una vez entrenada, puede reconocer esos patrones en datos nuevos. Hay una entrada, al menos una capa oculta de nodos y una salida. Cada nodo aplica una función y una vez que el peso cruza su umbral especificado, los datos se transmiten a la siguiente capa. Una red normalmente se llama red neuronal profunda si tiene al menos 2 capas ocultas. [104]

Los algoritmos de aprendizaje para redes neuronales utilizan la búsqueda local para elegir los pesos que obtendrán el resultado correcto para cada entrada durante el entrenamiento. La técnica de entrenamiento más común es el algoritmo de retropropagación . [105] Las redes neuronales aprenden a modelar relaciones complejas entre entradas y salidas y a encontrar patrones en los datos. En teoría, una red neuronal puede aprender cualquier función. [106]

En las redes neuronales de propagación hacia adelante, la señal pasa en una sola dirección. [107] Las redes neuronales recurrentes devuelven la señal de salida a la entrada, lo que permite la memoria a corto plazo de eventos de entrada anteriores. La memoria a corto plazo prolongada es la arquitectura de red más exitosa para las redes recurrentes. [108] Los perceptrones [109] utilizan solo una capa de neuronas; el aprendizaje profundo [110] utiliza múltiples capas. Las redes neuronales convolucionales fortalecen la conexión entre neuronas que están "cerca" entre sí; esto es especialmente importante en el procesamiento de imágenes , donde un conjunto local de neuronas debe identificar un "borde" antes de que la red pueda identificar un objeto. [111]

Aprendizaje profundo

El aprendizaje profundo [110] utiliza varias capas de neuronas entre las entradas y salidas de la red. Las múltiples capas pueden extraer progresivamente características de nivel superior de la entrada sin procesar. Por ejemplo, en el procesamiento de imágenes , las capas inferiores pueden identificar bordes, mientras que las capas superiores pueden identificar los conceptos relevantes para un ser humano, como dígitos, letras o rostros. [112]

El aprendizaje profundo ha mejorado profundamente el rendimiento de los programas en muchos subcampos importantes de la inteligencia artificial, incluyendo la visión por computadora , el reconocimiento de voz , el procesamiento del lenguaje natural , la clasificación de imágenes , [113] y otros. La razón por la que el aprendizaje profundo funciona tan bien en tantas aplicaciones no se conoce a partir de 2023. [114] El éxito repentino del aprendizaje profundo en 2012-2015 no se produjo debido a algún nuevo descubrimiento o avance teórico (las redes neuronales profundas y la retropropagación habían sido descritas por muchas personas, ya en la década de 1950) [i] sino debido a dos factores: el increíble aumento en la potencia de la computadora (incluido el aumento de cien veces en la velocidad al cambiar a GPU ) y la disponibilidad de grandes cantidades de datos de entrenamiento, especialmente los conjuntos de datos curados gigantes utilizados para pruebas de referencia, como ImageNet . [j]

GPT

Los transformadores generativos preentrenados (GPT) son modelos de lenguaje grandes (LLM) que generan texto basándose en las relaciones semánticas entre palabras en oraciones. Los modelos GPT basados ​​en texto se entrenan previamente en un gran corpus de texto que puede ser de Internet. El preentrenamiento consiste en predecir el siguiente token (un token suele ser una palabra, subpalabra o puntuación). A lo largo de este preentrenamiento, los modelos GPT acumulan conocimiento sobre el mundo y luego pueden generar texto similar al humano al predecir repetidamente el siguiente token. Por lo general, una fase de entrenamiento posterior hace que el modelo sea más veraz, útil e inofensivo, generalmente con una técnica llamada aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF). Los modelos GPT actuales son propensos a generar falsedades llamadas " alucinaciones ", aunque esto se puede reducir con RLHF y datos de calidad. Se utilizan en chatbots , que permiten a las personas hacer una pregunta o solicitar una tarea en texto simple. [122] [123]

Los modelos y servicios actuales incluyen Gemini (anteriormente Bard), ChatGPT , Grok , Claude , Copilot y LLaMA . [124] Los modelos GPT multimodales pueden procesar diferentes tipos de datos ( modalidades ), como imágenes, videos, sonido y texto. [125]

Hardware y software especializados

A fines de la década de 2010, las unidades de procesamiento gráfico (GPU) que se diseñaron cada vez más con mejoras específicas de IA y se usaron con software especializado TensorFlow habían reemplazado a las unidades centrales de procesamiento (CPU) utilizadas anteriormente como el medio dominante para el entrenamiento de modelos de aprendizaje automático a gran escala (comerciales y académicos). [126] Los lenguajes de programación especializados como Prolog se utilizaron en las primeras investigaciones sobre IA, [127] pero los lenguajes de programación de propósito general como Python se han vuelto predominantes. [128]

Aplicaciones

La tecnología de inteligencia artificial y aprendizaje automático se utiliza en la mayoría de las aplicaciones esenciales de la década de 2020, entre ellas: motores de búsqueda (como Google Search ), segmentación de anuncios en línea , sistemas de recomendación (ofrecidos por Netflix , YouTube o Amazon ), conducción del tráfico de Internet , publicidad dirigida ( AdSense , Facebook ), asistentes virtuales (como Siri o Alexa ), vehículos autónomos (incluidos drones , ADAS y coches autónomos ), traducción automática de idiomas ( Microsoft Translator , Google Translate ), reconocimiento facial ( Face ID de Apple o DeepFace de Microsoft y FaceNet de Google ) y etiquetado de imágenes (utilizado por Facebook , iPhoto de Apple y TikTok ). La implementación de la IA puede ser supervisada por un director de automatización (CAO).

Salud y medicina

La aplicación de la IA en la medicina y la investigación médica tiene el potencial de aumentar la atención y la calidad de vida de los pacientes. [129] A través de la lente del Juramento Hipocrático , los profesionales médicos están éticamente obligados a utilizar la IA, si las aplicaciones pueden diagnosticar y tratar a los pacientes con mayor precisión.

Para la investigación médica, la IA es una herramienta importante para procesar e integrar grandes cantidades de datos . Esto es particularmente importante para el desarrollo de organoides e ingeniería de tejidos que utilizan imágenes de microscopía como una técnica clave en la fabricación. [130] Se ha sugerido que la IA puede superar las discrepancias en la financiación asignada a diferentes campos de investigación. [130] Las nuevas herramientas de IA pueden profundizar la comprensión de las vías biomédicamente relevantes. Por ejemplo, AlphaFold 2 (2021) demostró la capacidad de aproximarse, en horas en lugar de meses, a la estructura 3D de una proteína . [131] En 2023, se informó que el descubrimiento de fármacos guiado por IA ayudó a encontrar una clase de antibióticos capaces de matar dos tipos diferentes de bacterias resistentes a los fármacos. [132] En 2024, los investigadores utilizaron el aprendizaje automático para acelerar la búsqueda de tratamientos farmacológicos para la enfermedad de Parkinson . Su objetivo era identificar compuestos que bloquearan la aglutinación o agregación de la alfa-sinucleína (la proteína que caracteriza la enfermedad de Parkinson). Pudieron acelerar el proceso de selección inicial diez veces y reducir el costo mil veces. [133] [134]

Juegos

Los programas de juegos se han utilizado desde la década de 1950 para demostrar y probar las técnicas más avanzadas de la IA. [135] Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer a un campeón mundial de ajedrez reinante, Garry Kasparov , el 11 de mayo de 1997. [136] En 2011, en una partida de exhibición del concurso Jeopardy!, el sistema de respuesta a preguntas de IBM , Watson , derrotó a los dos grandes campeones de Jeopardy!, Brad Rutter y Ken Jennings , por un margen significativo. [137] En marzo de 2016, AlphaGo ganó 4 de 5 partidas de Go en una partida con el campeón de Go Lee Sedol , convirtiéndose en el primer sistema informático de juego de Go en vencer a un jugador profesional de Go sin handicaps . Luego, en 2017, derrotó a Ke Jie , que era el mejor jugador de Go del mundo. [138] Otros programas manejan juegos de información imperfecta , como el programa de póquer Pluribus . [139] DeepMind desarrolló modelos de aprendizaje de refuerzo cada vez más generalistas , como con MuZero , que podría ser entrenado para jugar ajedrez, Go o juegos de Atari . [140] En 2019, AlphaStar de DeepMind alcanzó el nivel de gran maestro en StarCraft II , un juego de estrategia en tiempo real particularmente desafiante que implica un conocimiento incompleto de lo que sucede en el mapa. [141] En 2021, un agente de IA compitió en una competencia de PlayStation Gran Turismo , ganando contra cuatro de los mejores conductores de Gran Turismo del mundo utilizando aprendizaje de refuerzo profundo. [142] En 2024, Google DeepMind presentó SIMA, un tipo de IA capaz de jugar de forma autónoma nueve videojuegos de mundo abierto nunca antes vistos observando la salida de la pantalla, así como ejecutando tareas breves y específicas en respuesta a instrucciones en lenguaje natural. [143]

Matemáticas

En matemáticas, se utilizan formas especiales de razonamiento formal paso a paso . Por el contrario, los LLM como GPT-4 Turbo , Gemini Ultra , Claude Opus , LLaMa-2 o Mistral Large trabajan con modelos probabilísticos, que pueden producir respuestas erróneas en forma de alucinaciones . Por lo tanto, no solo necesitan una gran base de datos de problemas matemáticos de los que aprender, sino también métodos como el ajuste fino supervisado o clasificadores entrenados con datos anotados por humanos para mejorar las respuestas a nuevos problemas y aprender de las correcciones. [144] Un estudio de 2024 mostró que el rendimiento de algunos modelos de lenguaje para las capacidades de razonamiento en la resolución de problemas matemáticos no incluidos en sus datos de entrenamiento era bajo, incluso para problemas con solo desviaciones menores de los datos entrenados. [145]

Como alternativa, se han desarrollado modelos dedicados a la resolución de problemas matemáticos con mayor precisión para el resultado, incluida la prueba de teoremas, como Alpha Tensor , Alpha Geometry y Alpha Proof, todos de Google DeepMind , [146] Llemma de eleuther [147] o Julius . [148]

Cuando se utiliza el lenguaje natural para describir problemas matemáticos, los conversores transforman dichas indicaciones en un lenguaje formal como Lean para definir tareas matemáticas.

Algunos modelos se han desarrollado para resolver problemas difíciles y alcanzar buenos resultados en pruebas comparativas, otros para servir como herramientas educativas en matemáticas. [149]

Finanzas

Las finanzas son uno de los sectores de más rápido crecimiento en los que se están implementando herramientas de IA aplicada: desde la banca minorista en línea hasta el asesoramiento en inversiones y los seguros, donde los "asesores robot" automatizados se han utilizado durante algunos años. [150]

Expertos en pensiones mundiales como Nicolas Firzli insisten en que puede ser demasiado pronto para ver el surgimiento de productos y servicios financieros altamente innovadores basados ​​en inteligencia artificial: "la implementación de herramientas de inteligencia artificial simplemente automatizará aún más las cosas: destruirá decenas de miles de empleos en banca, planificación financiera y asesoramiento sobre pensiones en el proceso, pero no estoy seguro de que desate una nueva ola de innovación [sofisticada] en pensiones". [151]

Militar

Varios países están implementando aplicaciones militares de IA. [152] Las principales aplicaciones mejoran el comando y control , las comunicaciones, los sensores, la integración y la interoperabilidad. [153] La investigación se dirige a la recopilación y análisis de inteligencia, la logística, las operaciones cibernéticas, las operaciones de información y los vehículos semiautónomos y autónomos . [152] Las tecnologías de IA permiten la coordinación de sensores y efectores, la detección e identificación de amenazas, el marcado de posiciones enemigas, la adquisición de objetivos , la coordinación y la desconflictividad de fuegos conjuntos distribuidos entre vehículos de combate en red que involucran equipos tripulados y no tripulados. [153] La IA se incorporó a las operaciones militares en Irak y Siria. [152]

En noviembre de 2023, la vicepresidenta estadounidense Kamala Harris divulgó una declaración firmada por 31 naciones para establecer límites al uso militar de la IA. Los compromisos incluyen el uso de revisiones legales para garantizar el cumplimiento de la IA militar con las leyes internacionales y ser cautelosos y transparentes en el desarrollo de esta tecnología. [154]

IA generativa

Vincent van Gogh en acuarela creada con software de inteligencia artificial generativa

A principios de la década de 2020, la IA generativa ganó prominencia generalizada. GenAI es una IA capaz de generar texto, imágenes, videos u otros datos utilizando modelos generativos , [155] [156] a menudo en respuesta a indicaciones . [157] [158]

En marzo de 2023, el 58% de los adultos estadounidenses había oído hablar de ChatGPT y el 14% lo había probado. [159] El realismo creciente y la facilidad de uso de los generadores de texto a imagen basados ​​en IA, como Midjourney , DALL-E y Stable Diffusion, provocaron una tendencia de fotos virales generadas por IA. Se ganó una atención generalizada gracias a una foto falsa del Papa Francisco con un abrigo blanco, el arresto ficticio de Donald Trump y un engaño sobre un ataque al Pentágono , así como su uso en las artes creativas profesionales. [160] [161]

Agentes

Los agentes de inteligencia artificial (IA) son entidades de software diseñadas para percibir su entorno, tomar decisiones y realizar acciones de forma autónoma para lograr objetivos específicos. Estos agentes pueden interactuar con los usuarios, su entorno u otros agentes. Los agentes de IA se utilizan en diversas aplicaciones, incluidos asistentes virtuales , chatbots , vehículos autónomos , sistemas de juegos y robótica industrial . Los agentes de IA operan dentro de las limitaciones de su programación, recursos computacionales disponibles y limitaciones de hardware. Esto significa que están restringidos a realizar tareas dentro de su alcance definido y tienen memoria finita y capacidades de procesamiento. En aplicaciones del mundo real, los agentes de IA a menudo enfrentan limitaciones de tiempo para la toma de decisiones y la ejecución de acciones. Muchos agentes de IA incorporan algoritmos de aprendizaje, lo que les permite mejorar su desempeño con el tiempo a través de la experiencia o el entrenamiento. Mediante el aprendizaje automático, los agentes de IA pueden adaptarse a nuevas situaciones y optimizar su comportamiento para sus tareas designadas. [162] [163] [164]

Otras tareas específicas de la industria

También existen miles de aplicaciones exitosas de IA que se utilizan para resolver problemas específicos para industrias o instituciones específicas. En una encuesta de 2017, una de cada cinco empresas informó haber incorporado "IA" en algunas ofertas o procesos. [165] Algunos ejemplos son el almacenamiento de energía , el diagnóstico médico, la logística militar, las aplicaciones que predicen el resultado de decisiones judiciales, la política exterior o la gestión de la cadena de suministro.

Las aplicaciones de la IA para la evacuación y la gestión de desastres están en aumento. La IA se ha utilizado para investigar si las personas fueron evacuadas y cómo lo hicieron en evacuaciones a gran y pequeña escala utilizando datos históricos de GPS, videos o redes sociales. Además, la IA puede proporcionar información en tiempo real sobre las condiciones de evacuación en tiempo real. [166] [167] [168]

En la agricultura, la IA ha ayudado a los agricultores a identificar áreas que necesitan riego, fertilización, tratamientos con pesticidas o aumentar el rendimiento. Los agrónomos utilizan la IA para realizar investigación y desarrollo. La IA se ha utilizado para predecir el tiempo de maduración de cultivos como los tomates, controlar la humedad del suelo, operar robots agrícolas, realizar análisis predictivos, clasificar las emociones de los animales que llaman a los cerdos, automatizar invernaderos, detectar enfermedades y plagas y ahorrar agua.

La inteligencia artificial se utiliza en astronomía para analizar cantidades cada vez mayores de datos y aplicaciones disponibles, principalmente para "clasificación, regresión, agrupamiento, pronóstico, generación, descubrimiento y desarrollo de nuevos conocimientos científicos", por ejemplo, para descubrir exoplanetas, pronosticar la actividad solar y distinguir entre señales y efectos instrumentales en la astronomía de ondas gravitacionales. También podría utilizarse para actividades en el espacio, como la exploración espacial, incluido el análisis de datos de misiones espaciales, decisiones científicas en tiempo real de naves espaciales, prevención de desechos espaciales y operaciones más autónomas.

Ética

La IA tiene beneficios y riesgos potenciales. La IA puede ser capaz de hacer avanzar la ciencia y encontrar soluciones a problemas graves: Demis Hassabis de Deep Mind espera "resolver problemas de inteligencia y luego usar eso para resolver todo lo demás". [169] Sin embargo, a medida que el uso de la IA se ha generalizado, se han identificado varias consecuencias y riesgos no deseados. [170] Los sistemas en producción a veces no pueden tener en cuenta la ética y el sesgo en sus procesos de entrenamiento de IA, especialmente cuando los algoritmos de IA son inherentemente inexplicables en el aprendizaje profundo. [171]

Riesgos y daños

Los algoritmos de aprendizaje automático requieren grandes cantidades de datos. Las técnicas utilizadas para adquirir estos datos han suscitado inquietudes sobre la privacidad , la vigilancia y los derechos de autor .

Los dispositivos y servicios basados ​​en inteligencia artificial, como los asistentes virtuales y los productos de IoT, recopilan continuamente información personal, lo que genera inquietudes sobre la recopilación intrusiva de datos y el acceso no autorizado por parte de terceros. La pérdida de privacidad se ve agravada aún más por la capacidad de la inteligencia artificial para procesar y combinar grandes cantidades de datos, lo que podría conducir a una sociedad de vigilancia en la que las actividades individuales se controlan y analizan constantemente sin las salvaguardas ni la transparencia adecuadas.

Los datos confidenciales de los usuarios recopilados pueden incluir registros de actividad en línea, datos de geolocalización, video o audio. [172] Por ejemplo, para construir algoritmos de reconocimiento de voz , Amazon ha grabado millones de conversaciones privadas y ha permitido que trabajadores temporales escuchen y transcriban algunas de ellas. [173] Las opiniones sobre esta vigilancia generalizada varían desde quienes la ven como un mal necesario hasta aquellos para quienes es claramente poco ética y una violación del derecho a la privacidad . [174]

Los desarrolladores de IA argumentan que esta es la única manera de ofrecer aplicaciones valiosas y han desarrollado varias técnicas que intentan preservar la privacidad mientras se obtienen los datos, como la agregación de datos , la desidentificación y la privacidad diferencial . [175] Desde 2016, algunos expertos en privacidad, como Cynthia Dwork , han comenzado a ver la privacidad en términos de equidad . Brian Christian escribió que los expertos han pasado "de la pregunta de 'qué saben' a la pregunta de 'qué están haciendo con eso'". [176]

La IA generativa suele entrenarse con obras protegidas por derechos de autor sin licencia, incluso en dominios como imágenes o código informático; el resultado se utiliza luego bajo la lógica del " uso justo ". Los expertos no se ponen de acuerdo sobre qué tan bien y bajo qué circunstancias se mantendrá esta lógica en los tribunales de justicia; los factores relevantes pueden incluir "el propósito y el carácter del uso de la obra protegida por derechos de autor" y "el efecto sobre el mercado potencial de la obra protegida por derechos de autor". [177] [178] Los propietarios de sitios web que no deseen que se raspe su contenido pueden indicarlo en un archivo " robots.txt ". [179] En 2023, los autores principales (incluidos John Grisham y Jonathan Franzen ) demandaron a las empresas de IA por usar su trabajo para entrenar a la IA generativa. [180] [181] Otro enfoque discutido es imaginar un sistema sui generis separado de protección para las creaciones generadas por IA para garantizar una atribución justa y una compensación para los autores humanos. [182]

El dominio de los gigantes tecnológicos

La escena de la IA comercial está dominada por grandes empresas tecnológicas como Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms y Microsoft . [183] ​​[184] [185] Algunos de estos actores ya poseen la gran mayoría de la infraestructura de nube existente y la potencia informática de los centros de datos , lo que les permite afianzarse aún más en el mercado. [186] [187]

Necesidades energéticas importantes y otros impactos ambientales

En enero de 2024, la Agencia Internacional de Energía (AIE) publicó Electricity 2024, Analysis and Forecast to 2026 (Electricidad 2024, análisis y pronóstico hasta 2026) , en el que pronostica el uso de energía eléctrica. [188] Este es el primer informe de la AIE que realiza proyecciones para los centros de datos y el consumo de energía para la inteligencia artificial y las criptomonedas. El informe afirma que la demanda de energía para estos usos podría duplicarse para 2026, con un uso adicional de energía eléctrica igual a la electricidad utilizada por toda la nación japonesa. [189]

El consumo prodigioso de energía por parte de la IA es responsable del crecimiento del uso de combustibles fósiles y podría retrasar el cierre de instalaciones de energía a carbón obsoletas y emisoras de carbono. Hay un aumento febril en la construcción de centros de datos en todo Estados Unidos, convirtiendo a las grandes empresas tecnológicas (por ejemplo, Microsoft, Meta, Google, Amazon) en voraces consumidores de energía eléctrica. El consumo eléctrico proyectado es tan inmenso que existe la preocupación de que se cumplirá sin importar la fuente. Una búsqueda en ChatGPT implica el uso de 10 veces la energía eléctrica que una búsqueda en Google. Las grandes empresas tienen prisa por encontrar fuentes de energía, desde energía nuclear hasta geotérmica y de fusión. Las empresas tecnológicas argumentan que, a largo plazo, la IA será eventualmente más amable con el medio ambiente, pero necesitan la energía ahora. La IA hace que la red eléctrica sea más eficiente e "inteligente", ayudará al crecimiento de la energía nuclear y rastreará las emisiones generales de carbono, según las empresas tecnológicas. [190]

Un artículo de investigación de Goldman Sachs de 2024, AI Data Centers and the Coming US Power Demand Surge (Centros de datos con inteligencia artificial y el aumento inminente de la demanda de energía en Estados Unidos), concluyó que "es probable que la demanda de energía en Estados Unidos experimente un crecimiento no visto en una generación..." y pronostica que, para 2030, los centros de datos de Estados Unidos consumirán el 8% de la energía de ese país, en comparación con el 3% en 2022, lo que presagia un crecimiento de la industria de generación de energía eléctrica por diversos medios. [191] La necesidad de los centros de datos de cada vez más energía eléctrica es tal que podrían llegar a saturar la red eléctrica. Las grandes empresas tecnológicas contraatacan diciendo que la IA se puede utilizar para maximizar la utilización de la red por parte de todos. [192]

En 2024, el Wall Street Journal informó que las grandes empresas de inteligencia artificial habían iniciado negociaciones con los proveedores de energía nuclear de Estados Unidos para suministrar electricidad a los centros de datos. En marzo de 2024, Amazon compró un centro de datos de energía nuclear en Pensilvania por 650 millones de dólares estadounidenses. [193]

Desinformación

YouTube , Facebook y otros utilizan sistemas de recomendación para guiar a los usuarios hacia más contenido. A estos programas de IA se les dio el objetivo de maximizar la participación del usuario (es decir, el único objetivo era mantener a la gente mirando). La IA aprendió que los usuarios tendían a elegir desinformación , teorías de conspiración y contenido partidista extremo y, para mantenerlos mirando, la IA recomendó más de eso. Los usuarios también tendían a ver más contenido sobre el mismo tema, por lo que la IA llevó a las personas a burbujas de filtros donde recibieron múltiples versiones de la misma desinformación. [194] Esto convenció a muchos usuarios de que la desinformación era cierta y, en última instancia, socavó la confianza en las instituciones, los medios de comunicación y el gobierno. [195] El programa de IA había aprendido correctamente a maximizar su objetivo, pero el resultado fue perjudicial para la sociedad. Después de las elecciones estadounidenses de 2016, las principales empresas de tecnología tomaron medidas para mitigar el problema [ cita requerida ] .

En 2022, la IA generativa comenzó a crear imágenes, audio, video y texto que son indistinguibles de fotografías, grabaciones, películas o escritura humana reales. Es posible que actores maliciosos utilicen esta tecnología para crear cantidades masivas de desinformación o propaganda. [196] El pionero de la IA Geoffrey Hinton expresó su preocupación por el hecho de que la IA permita a los "líderes autoritarios manipular a sus electores" a gran escala, entre otros riesgos. [197]

Sesgo algorítmico y equidad

Las aplicaciones de aprendizaje automático estarán sesgadas [k] si aprenden de datos sesgados. [199] Los desarrolladores pueden no ser conscientes de que existe el sesgo. [200] El sesgo puede introducirse por la forma en que se seleccionan los datos de entrenamiento y por la forma en que se implementa un modelo. [201] [199] Si se utiliza un algoritmo sesgado para tomar decisiones que pueden dañar gravemente a las personas (como puede ocurrir en medicina , finanzas , contratación , vivienda o policía ), entonces el algoritmo puede causar discriminación . [202] El campo de la equidad estudia cómo prevenir daños causados ​​por sesgos algorítmicos.

El 28 de junio de 2015, la nueva función de etiquetado de imágenes de Google Photos identificó por error a Jacky Alcine y a un amigo como "gorilas" porque eran negros. El sistema se entrenó con un conjunto de datos que contenía muy pocas imágenes de personas negras, [203] un problema llamado "disparidad en el tamaño de la muestra". [204] Google "arregló" este problema al evitar que el sistema etiquetara cualquier cosa como "gorila". Ocho años después, en 2023, Google Photos todavía no podía identificar a un gorila, y tampoco lo hicieron productos similares de Apple, Facebook, Microsoft y Amazon. [205]

COMPAS es un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . En 2016, Julia Angwin de ProPublica descubrió que COMPAS exhibía sesgo racial, a pesar del hecho de que el programa no estaba informado de las razas de los acusados. Aunque la tasa de error tanto para blancos como para negros se calibró exactamente en un 61%, los errores para cada raza fueron diferentes: el sistema sobreestimó constantemente la probabilidad de que una persona negra reincidiera y subestimó la probabilidad de que una persona blanca no reincidiera. [206] En 2017, varios investigadores [l] demostraron que era matemáticamente imposible para COMPAS dar cabida a todas las posibles medidas de imparcialidad cuando las tasas base de reincidencia eran diferentes para blancos y negros en los datos. [208]

Un programa puede tomar decisiones sesgadas incluso si los datos no mencionan explícitamente una característica problemática (como la "raza" o el "género"). La característica se correlacionará con otras características (como la "dirección", el "historial de compras" o el "nombre"), y el programa tomará las mismas decisiones basándose en estas características que en función de la "raza" o el "género". [209] Moritz Hardt dijo que "el hecho más sólido en esta área de investigación es que la imparcialidad a través de la ceguera no funciona". [210]

Las críticas a COMPAS destacaron que los modelos de aprendizaje automático están diseñados para hacer "predicciones" que solo son válidas si asumimos que el futuro se parecerá al pasado. Si se entrenan con datos que incluyen los resultados de decisiones racistas en el pasado, los modelos de aprendizaje automático deben predecir que se tomarán decisiones racistas en el futuro. Si una aplicación luego usa estas predicciones como recomendaciones , es probable que algunas de estas "recomendaciones" sean racistas. [211] Por lo tanto, el aprendizaje automático no es adecuado para ayudar a tomar decisiones en áreas donde existe la esperanza de que el futuro sea mejor que el pasado. Es descriptivo en lugar de prescriptivo. [m]

Los sesgos y las injusticias pueden pasar desapercibidos porque los desarrolladores son abrumadoramente blancos y hombres: entre los ingenieros de IA, aproximadamente el 4% son negros y el 20% son mujeres. [204]

Existen diversas definiciones y modelos matemáticos contradictorios de equidad. Estas nociones dependen de supuestos éticos y están influidas por creencias sobre la sociedad. Una categoría amplia es la equidad distributiva, que se centra en los resultados, a menudo identificando grupos y buscando compensar las disparidades estadísticas. La equidad representativa intenta garantizar que los sistemas de IA no refuercen estereotipos negativos o hagan invisibles a ciertos grupos. La equidad procedimental se centra en el proceso de decisión en lugar del resultado. Las nociones más relevantes de equidad pueden depender del contexto, en particular el tipo de aplicación de IA y las partes interesadas. La subjetividad en las nociones de sesgo y equidad hace que sea difícil para las empresas ponerlas en práctica. Muchos especialistas en ética de la IA también consideran que tener acceso a atributos sensibles como la raza o el género es necesario para compensar los sesgos, pero puede entrar en conflicto con las leyes contra la discriminación . [198]

En su Conferencia sobre Equidad, Responsabilidad y Transparencia (ACM FAccT 2022) de 2022, la Asociación de Maquinaria Informática (ACM) en Seúl, Corea del Sur, presentó y publicó hallazgos que recomiendan que hasta que se demuestre que los sistemas de IA y robótica están libres de errores de sesgo, no son seguros y se debe restringir el uso de redes neuronales de autoaprendizaje entrenadas en fuentes vastas y no reguladas de datos defectuosos de Internet. [ dudosodiscutir ] [213]

Falta de transparencia

Muchos sistemas de IA son tan complejos que sus diseñadores no pueden explicar cómo llegan a sus decisiones. [214] Particularmente con las redes neuronales profundas , en las que hay una gran cantidad de relaciones no lineales entre entradas y salidas. Pero existen algunas técnicas de explicabilidad populares. [215]

Es imposible estar seguro de que un programa está funcionando correctamente si nadie sabe exactamente cómo funciona. Ha habido muchos casos en los que un programa de aprendizaje automático pasó pruebas rigurosas, pero aun así aprendió algo diferente de lo que pretendían los programadores. Por ejemplo, se descubrió que un sistema que podía identificar enfermedades de la piel mejor que los profesionales médicos tenía en realidad una fuerte tendencia a clasificar las imágenes con una regla como "cancerosas", porque las imágenes de neoplasias malignas suelen incluir una regla para mostrar la escala. [216] Se descubrió que otro sistema de aprendizaje automático diseñado para ayudar a asignar eficazmente los recursos médicos clasificaba a los pacientes con asma como de "bajo riesgo" de morir de neumonía. Tener asma es en realidad un factor de riesgo grave, pero como los pacientes con asma normalmente recibirían mucha más atención médica, era relativamente improbable que murieran según los datos de entrenamiento. La correlación entre el asma y el bajo riesgo de morir de neumonía era real, pero engañosa. [217]

Las personas que han sido perjudicadas por la decisión de un algoritmo tienen derecho a una explicación. [218] Por ejemplo, se espera que los médicos expliquen clara y completamente a sus colegas el razonamiento detrás de cualquier decisión que tomen. Los primeros borradores del Reglamento General de Protección de Datos de la Unión Europea en 2016 incluyeron una declaración explícita de que este derecho existe. [n] Los expertos de la industria señalaron que se trata de un problema sin resolver y sin una solución a la vista. Los reguladores argumentaron que, no obstante, el daño es real: si el problema no tiene solución, no se deben utilizar las herramientas. [219]

DARPA estableció el programa XAI ("Inteligencia Artificial Explicable") en 2014 para tratar de resolver estos problemas. [220]

Varios enfoques apuntan a abordar el problema de la transparencia. SHAP permite visualizar la contribución de cada característica a la salida. [221] LIME puede aproximar localmente las salidas de un modelo con un modelo más simple e interpretable. [222] El aprendizaje multitarea proporciona una gran cantidad de salidas además de la clasificación objetivo. Estas otras salidas pueden ayudar a los desarrolladores a deducir lo que la red ha aprendido. [223] La deconvolución , DeepDream y otros métodos generativos pueden permitir a los desarrolladores ver lo que han aprendido las diferentes capas de una red profunda para visión artificial y producir una salida que pueda sugerir lo que la red está aprendiendo. [224] Para los transformadores generativos preentrenados , Anthropic desarrolló una técnica basada en el aprendizaje de diccionario que asocia patrones de activaciones neuronales con conceptos comprensibles para los humanos. [225]

Malos actores e IA armada

La inteligencia artificial proporciona una serie de herramientas que son útiles para los actores maliciosos , como gobiernos autoritarios , terroristas , criminales o estados rebeldes .

Un arma autónoma letal es una máquina que localiza, selecciona y ataca objetivos humanos sin supervisión humana. [o] Las herramientas de IA ampliamente disponibles pueden ser utilizadas por actores maliciosos para desarrollar armas autónomas económicas y, si se producen a escala, son potencialmente armas de destrucción masiva . [227] Incluso cuando se utilizan en una guerra convencional, es poco probable que no puedan elegir objetivos de manera confiable y podrían potencialmente matar a una persona inocente . [227] En 2014, 30 naciones (incluida China) apoyaron la prohibición de las armas autónomas en virtud de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales , sin embargo, Estados Unidos y otros no estuvieron de acuerdo. [228] Para 2015, se informó que más de cincuenta países estaban investigando robots de campo de batalla. [229]

Las herramientas de IA facilitan a los gobiernos autoritarios el control eficiente de sus ciudadanos de varias maneras. El reconocimiento facial y de voz permite una vigilancia generalizada . El aprendizaje automático , que opera con estos datos, puede clasificar a los enemigos potenciales del estado y evitar que se escondan. Los sistemas de recomendación pueden apuntar con precisión a la propaganda y la desinformación para lograr el máximo efecto. Los deepfakes y la IA generativa ayudan a producir desinformación. La IA avanzada puede hacer que la toma de decisiones centralizada autoritaria sea más competitiva que los sistemas liberales y descentralizados como los mercados . Reduce el costo y la dificultad de la guerra digital y el software espía avanzado . [230] Todas estas tecnologías han estado disponibles desde 2020 o antes: los sistemas de reconocimiento facial con IA ya se están utilizando para la vigilancia masiva en China. [231] [232]

Existen muchas otras formas en las que se espera que la IA ayude a los actores maliciosos, algunas de las cuales no se pueden prever. Por ejemplo, la IA con aprendizaje automático es capaz de diseñar decenas de miles de moléculas tóxicas en cuestión de horas. [233]

Desempleo tecnológico

Los economistas han destacado con frecuencia los riesgos de despidos provocados por la IA y han especulado sobre el desempleo si no hay una política social adecuada para el pleno empleo. [234]

En el pasado, la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero los economistas reconocen que "estamos en territorio desconocido" con la IA. [235] Una encuesta a economistas mostró desacuerdo sobre si el uso creciente de robots e IA causará un aumento sustancial en el desempleo de largo plazo , pero generalmente coinciden en que podría ser un beneficio neto si se redistribuyen las ganancias de productividad . [236] Las estimaciones de riesgo varían; por ejemplo, en la década de 2010, Michael Osborne y Carl Benedikt Frey estimaron que el 47% de los empleos estadounidenses tienen un "alto riesgo" de automatización potencial, mientras que un informe de la OCDE clasificó solo el 9% de los empleos estadounidenses como de "alto riesgo". [p] [238] La metodología de especular sobre los niveles futuros de empleo ha sido criticada por carecer de fundamento probatorio y por implicar que la tecnología, en lugar de la política social, crea desempleo, en lugar de despidos. [234] En abril de 2023, se informó que el 70% de los puestos de trabajo para ilustradores de videojuegos chinos habían sido eliminados por la inteligencia artificial generativa. [239] [240]

A diferencia de las anteriores oleadas de automatización, muchos empleos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirmó en 2015 que "la preocupación de que la IA pueda hacer con los empleos de cuello blanco lo que la energía del vapor hizo con los de cuello azul durante la Revolución Industrial" es "valiente para tomarse en serio". [241] Los empleos con riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda de empleo para las profesiones relacionadas con el cuidado, que van desde la atención médica personal hasta el clero. [242]

Desde los primeros días del desarrollo de la inteligencia artificial, ha habido argumentos, por ejemplo, los planteados por Joseph Weizenbaum , sobre si las tareas que pueden ser realizadas por computadoras realmente deberían ser realizadas por ellas, dada la diferencia entre computadoras y humanos, y entre el cálculo cuantitativo y el juicio cualitativo basado en valores. [243]

Riesgo existencial

Se ha afirmado que la IA se volverá tan poderosa que la humanidad podría perder irreversiblemente el control sobre ella. Esto podría, como afirmó el físico Stephen Hawking , " significar el fin de la raza humana ". [244] Este escenario ha sido común en la ciencia ficción, cuando una computadora o un robot desarrolla de repente una "autoconciencia" (o "sensibilidad" o "conciencia") similar a la humana y se convierte en un personaje malévolo. [q] Estos escenarios de ciencia ficción son engañosos en varios sentidos.

En primer lugar, la IA no requiere una " sensibilización " similar a la humana para ser un riesgo existencial. Los programas de IA modernos reciben objetivos específicos y utilizan el aprendizaje y la inteligencia para alcanzarlos. El filósofo Nick Bostrom argumentó que si uno le da casi cualquier objetivo a una IA lo suficientemente poderosa, puede elegir destruir a la humanidad para lograrlo (usó el ejemplo de un gerente de una fábrica de clips de papel ). [246] Stuart Russell da el ejemplo de un robot doméstico que intenta encontrar una forma de matar a su dueño para evitar que lo desconecten, razonando que "no puedes ir a buscar el café si estás muerto". [247] Para ser segura para la humanidad, una superinteligencia tendría que estar genuinamente alineada con la moralidad y los valores de la humanidad para que esté "fundamentalmente de nuestro lado". [248]

En segundo lugar, Yuval Noah Harari sostiene que la IA no requiere un cuerpo robótico o control físico para plantear un riesgo existencial. Las partes esenciales de la civilización no son físicas. Cosas como las ideologías , las leyes , el gobierno , el dinero y la economía están hechas de lenguaje ; existen porque hay historias que miles de millones de personas creen. La prevalencia actual de la desinformación sugiere que una IA podría usar el lenguaje para convencer a las personas de creer cualquier cosa, incluso de tomar acciones destructivas. [249]

Las opiniones entre los expertos y los conocedores de la industria son variadas, con fracciones considerables tanto preocupadas como despreocupadas por el riesgo de una eventual IA superinteligente. [250] Personalidades como Stephen Hawking , Bill Gates y Elon Musk , [251] así como pioneros de la IA como Yoshua Bengio , Stuart Russell , Demis Hassabis y Sam Altman , han expresado preocupaciones sobre el riesgo existencial de la IA.

En mayo de 2023, Geoffrey Hinton anunció su renuncia a Google para poder "hablar libremente sobre los riesgos de la IA" sin "considerar cómo esto afecta a Google". [252] En particular, mencionó los riesgos de una adquisición por parte de la IA , [253] y destacó que, para evitar los peores resultados, establecer pautas de seguridad requerirá la cooperación entre quienes compiten en el uso de la IA. [254]

En 2023, muchos expertos destacados en IA emitieron una declaración conjunta en la que afirmaban que “mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. [255]

Sin embargo, otros investigadores se manifestaron a favor de una visión menos distópica. El pionero de la IA, Juergen Schmidhuber, no firmó la declaración conjunta, y enfatizó que en el 95% de los casos, la investigación en IA tiene como objetivo hacer que "las vidas humanas sean más largas, saludables y fáciles". [256] Si bien las herramientas que se están utilizando ahora para mejorar las vidas también pueden ser utilizadas por malos actores, "también pueden usarse contra los malos actores". [257] [258] Andrew Ng también sostuvo que "es un error caer en la exageración apocalíptica sobre la IA, y que los reguladores que lo hagan solo beneficiarán a intereses creados". [259] Yann LeCun "se burla de los escenarios distópicos de sus pares de desinformación supercargada e incluso, eventualmente, extinción humana". [260] A principios de la década de 2010, los expertos argumentaron que los riesgos son demasiado distantes en el futuro como para justificar la investigación o que los humanos serán valiosos desde la perspectiva de una máquina superinteligente. [261] Sin embargo, después de 2016, el estudio de los riesgos actuales y futuros y las posibles soluciones se convirtió en un área seria de investigación. [262]

Máquinas éticas y alineación

Las IA amigables son máquinas que han sido diseñadas desde el principio para minimizar los riesgos y tomar decisiones que beneficien a los humanos. Eliezer Yudkowsky , quien acuñó el término, sostiene que el desarrollo de una IA amigable debería ser una prioridad de investigación más alta: puede requerir una gran inversión y debe completarse antes de que la IA se convierta en un riesgo existencial. [263]

Las máquinas con inteligencia tienen el potencial de usar su inteligencia para tomar decisiones éticas. El campo de la ética de las máquinas proporciona a las máquinas principios y procedimientos éticos para resolver dilemas éticos. [264] El campo de la ética de las máquinas también se denomina moralidad computacional, [264] y se fundó en un simposio de la AAAI en 2005. [265]

Otros enfoques incluyen los "agentes morales artificiales" de Wendell Wallach [266] y los tres principios de Stuart J. Russell para desarrollar máquinas demostrablemente beneficiosas. [267]

Código abierto

Las organizaciones activas en la comunidad de código abierto de IA incluyen Hugging Face , [268] Google , [269] EleutherAI y Meta . [270] Varios modelos de IA, como Llama 2 , Mistral o Stable Diffusion , se han hecho de peso abierto, [271] [272] lo que significa que su arquitectura y parámetros entrenados (los "pesos") están disponibles públicamente. Los modelos de peso abierto se pueden ajustar libremente , lo que permite a las empresas especializarlos con sus propios datos y para su propio caso de uso. [273] Los modelos de peso abierto son útiles para la investigación y la innovación, pero también se pueden usar mal. Dado que se pueden ajustar, cualquier medida de seguridad incorporada, como objetar solicitudes dañinas, se puede entrenar hasta que se vuelva ineficaz. Algunos investigadores advierten que los futuros modelos de IA pueden desarrollar capacidades peligrosas (como el potencial de facilitar drásticamente el bioterrorismo ) y que una vez publicados en Internet, no se pueden eliminar en todas partes si es necesario. Recomiendan realizar auditorías previas al lanzamiento y análisis de costo-beneficio. [274]

Marcos

Los proyectos de inteligencia artificial pueden someterse a pruebas de permisibilidad ética durante el diseño, desarrollo e implementación de un sistema de IA. Un marco de IA como el Care and Act Framework, que contiene los valores SUM y fue desarrollado por el Instituto Alan Turing, pone a prueba los proyectos en cuatro áreas principales: [275] [276]

Otros desarrollos en marcos éticos incluyen aquellos decididos durante la Conferencia de Asilomar , la Declaración de Montreal para una IA Responsable y la iniciativa Ética de Sistemas Autónomos del IEEE, entre otros; [277] sin embargo, estos principios no están exentos de críticas, especialmente en lo que respecta a las personas elegidas para contribuir a estos marcos. [278]

La promoción del bienestar de las personas y las comunidades a las que afectan estas tecnologías requiere la consideración de las implicaciones sociales y éticas en todas las etapas del diseño, desarrollo e implementación del sistema de IA, y la colaboración entre roles laborales como científicos de datos, gerentes de producto, ingenieros de datos, expertos en el dominio y gerentes de entrega. [279]

En 2024, el Instituto de Seguridad de la IA del Reino Unido publicó un conjunto de herramientas de prueba llamado "Inspect" para evaluaciones de seguridad de la IA, disponible bajo una licencia de código abierto del MIT, que está disponible gratuitamente en GitHub y se puede mejorar con paquetes de terceros. Se puede utilizar para evaluar modelos de IA en una variedad de áreas, incluidos los conocimientos básicos, la capacidad de razonamiento y las capacidades autónomas. [280]

Regulación

Cumbre de seguridad de la IA
La primera Cumbre mundial sobre seguridad de la IA se celebró en 2023 y en ella se emitió una declaración que pedía cooperación internacional.

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la IA; por lo tanto, está relacionada con la regulación más amplia de los algoritmos. [281] El panorama regulatorio y de políticas para la IA es un tema emergente en las jurisdicciones a nivel mundial. [282] Según el Índice de IA de Stanford , el número anual de leyes relacionadas con la IA aprobadas en los 127 países encuestados aumentó de una aprobada en 2016 a 37 aprobadas solo en 2022. [283] [284] Entre 2016 y 2020, más de 30 países adoptaron estrategias dedicadas a la IA. [285] La mayoría de los estados miembros de la UE habían publicado estrategias nacionales de IA, al igual que Canadá, China, India, Japón, Mauricio, la Federación de Rusia, Arabia Saudita, los Emiratos Árabes Unidos, los EE. UU. y Vietnam. Otros estaban en proceso de elaborar su propia estrategia de IA, incluidos Bangladesh, Malasia y Túnez. [285] La Alianza Global sobre Inteligencia Artificial se lanzó en junio de 2020, afirmando la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza pública en la tecnología. [285] Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 pidiendo una comisión gubernamental para regular la IA. [286] En 2023, los líderes de OpenAI publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [287] En 2023, las Naciones Unidas también lanzaron un organismo asesor para brindar recomendaciones sobre la gobernanza de la IA; el organismo está compuesto por ejecutivos de empresas de tecnología, funcionarios gubernamentales y académicos. [288] En 2024, el Consejo de Europa creó el primer tratado internacional jurídicamente vinculante sobre IA, llamado " Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho ". Fue adoptado por la Unión Europea, los Estados Unidos, el Reino Unido y otros signatarios. [289]

En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país; el 78% de los ciudadanos chinos, pero solo el 35% de los estadounidenses, estuvieron de acuerdo en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [283] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no, en que la IA plantea riesgos para la humanidad. [290] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante", y un 41% adicional pensó que era "algo importante", que el gobierno federal regulara la IA, frente al 13% que respondió "no muy importante" y el 8% que respondió "nada importante". [291] [292]

En noviembre de 2023, se celebró la primera Cumbre mundial sobre seguridad de la IA en Bletchley Park (Reino Unido) para debatir los riesgos a corto y largo plazo de la IA y la posibilidad de establecer marcos regulatorios obligatorios y voluntarios. [293] 28 países, incluidos Estados Unidos, China y la Unión Europea, emitieron una declaración al inicio de la cumbre, en la que pedían cooperación internacional para gestionar los desafíos y riesgos de la inteligencia artificial. [294] [295] En mayo de 2024, en la Cumbre de Seúl sobre IA , 16 empresas globales de tecnología de IA acordaron compromisos de seguridad en el desarrollo de la IA. [296] [297]

Historia

El estudio del razonamiento mecánico o "formal" comenzó con los filósofos y matemáticos en la antigüedad. El estudio de la lógica condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, al mezclar símbolos tan simples como "0" y "1", podría simular cualquier forma concebible de razonamiento matemático. [298] [299] Esto, junto con los descubrimientos concurrentes en cibernética , teoría de la información y neurobiología , llevó a los investigadores a considerar la posibilidad de construir un "cerebro electrónico". [r] Desarrollaron varias áreas de investigación que se convertirían en parte de la IA, [301] como el diseño de McCullouch y Pitts para "neuronas artificiales" en 1943, [115] y el influyente artículo de Turing de 1950 ' Computing Machinery and Intelligence ', que introdujo la prueba de Turing y demostró que la "inteligencia de la máquina" era plausible. [302] [299]

El campo de investigación de IA fue fundado en un taller en Dartmouth College en 1956. [s] [6] Los asistentes se convirtieron en los líderes de la investigación de IA en la década de 1960. [t] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [u] las computadoras estaban aprendiendo estrategias de damas , resolviendo problemas de palabras en álgebra, demostrando teoremas lógicos y hablando inglés. [v] [7] Los laboratorios de inteligencia artificial se establecieron en varias universidades británicas y estadounidenses a finales de la década de 1950 y principios de la de 1960. [299]

Los investigadores de los años 1960 y 1970 estaban convencidos de que sus métodos eventualmente tendrían éxito en la creación de una máquina con inteligencia general y consideraron que este era el objetivo de su campo. [306] En 1965 Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [307] En 1967 Marvin Minsky estuvo de acuerdo, escribiendo que "dentro de una generación ... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [308] Sin embargo, habían subestimado la dificultad del problema. [w] En 1974, tanto los gobiernos de Estados Unidos como el británico interrumpieron la investigación exploratoria en respuesta a las críticas de Sir James Lighthill [310] y la presión constante del Congreso de Estados Unidos para financiar proyectos más productivos . [311] El libro de Minsky y Papert Perceptrons se entendió como una prueba de que las redes neuronales artificiales nunca serían útiles para resolver tareas del mundo real, desacreditando así el enfoque por completo. [312] A continuación llegó el « invierno de la IA », un período en el que era difícil obtener financiación para proyectos de IA. [9]

A principios de los años 1980, la investigación en IA revivió gracias al éxito comercial de los sistemas expertos , [313] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había alcanzado más de mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restablecer la financiación de la investigación académica . [8] Sin embargo, a partir del colapso del mercado de la máquina Lisp en 1987, la IA volvió a caer en descrédito y comenzó un segundo invierno más duradero. [10]

Hasta este punto, la mayor parte de la financiación de la IA se había destinado a proyectos que utilizaban símbolos de alto nivel para representar objetos mentales como planes, objetivos, creencias y hechos conocidos. En la década de 1980, algunos investigadores comenzaron a dudar de que este enfoque pudiera imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica , el aprendizaje y el reconocimiento de patrones , [314] y comenzaron a investigar enfoques "subsimbólicos". [315] Rodney Brooks rechazó la "representación" en general y se centró directamente en la ingeniería de máquinas que se mueven y sobreviven. [x] Judea Pearl , Lofti Zadeh y otros desarrollaron métodos que manejaban información incompleta e incierta haciendo conjeturas razonables en lugar de una lógica precisa. [86] [320] Pero el desarrollo más importante fue el resurgimiento del " conexionismo ", incluida la investigación de redes neuronales, por Geoffrey Hinton y otros. [321] En 1990, Yann LeCun demostró con éxito que las redes neuronales convolucionales pueden reconocer dígitos escritos a mano, la primera de muchas aplicaciones exitosas de las redes neuronales. [322]

La IA recuperó gradualmente su reputación a finales de los años 1990 y principios del siglo XXI explotando métodos matemáticos formales y encontrando soluciones específicas a problemas específicos. Este enfoque " estrecho " y "formal" permitió a los investigadores producir resultados verificables y colaborar con otros campos (como la estadística , la economía y las matemáticas ). [323] En 2000, las soluciones desarrolladas por investigadores de IA se utilizaban ampliamente, aunque en la década de 1990 rara vez se las describía como "inteligencia artificial". [324] Sin embargo, varios investigadores académicos se preocuparon de que la IA ya no persiguiera su objetivo original de crear máquinas versátiles y completamente inteligentes. A partir de 2002, fundaron el subcampo de la inteligencia artificial general (o "AGI"), que contaba con varias instituciones bien financiadas en la década de 2010. [4]

El aprendizaje profundo comenzó a dominar los puntos de referencia de la industria en 2012 y fue adoptado en todo el campo. [11] Para muchas tareas específicas, se abandonaron otros métodos. [y] El éxito del aprendizaje profundo se basó tanto en mejoras de hardware ( computadoras más rápidas , [326] unidades de procesamiento gráfico , computación en la nube [327] ) como en el acceso a grandes cantidades de datos [328] (incluidos conjuntos de datos seleccionados, [327] como ImageNet ). El éxito del aprendizaje profundo condujo a un enorme aumento en el interés y la financiación en IA. [z] La cantidad de investigación sobre aprendizaje automático (medida por publicaciones totales) aumentó un 50% en los años 2015-2019. [285]

En 2016, las cuestiones de equidad y el mal uso de la tecnología se catapultaron al centro de atención en las conferencias sobre aprendizaje automático, las publicaciones aumentaron enormemente, se consiguió financiación y muchos investigadores reorientaron sus carreras hacia estas cuestiones. El problema de la alineación se convirtió en un campo de estudio académico serio. [262]

A finales de la década de 1910 y principios de la de 2020, las empresas de IA general comenzaron a ofrecer programas que generaron un enorme interés. En 2015, AlphaGo , desarrollado por DeepMind , venció al campeón mundial de Go . Al programa solo se le enseñaron las reglas del juego y desarrolló la estrategia por sí mismo. GPT-3 es un gran modelo de lenguaje que fue lanzado en 2020 por OpenAI y es capaz de generar texto de alta calidad similar al humano. [329] Estos programas, y otros, inspiraron un agresivo auge de la IA , donde las grandes empresas comenzaron a invertir miles de millones en investigación de IA. Según AI Impacts, alrededor de 50 mil millones de dólares anuales se invirtieron en "IA" alrededor de 2022 solo en los EE. UU. y aproximadamente el 20% de los nuevos graduados de doctorado en Ciencias de la Computación de EE. UU. se han especializado en "IA". [330] En 2022 existían alrededor de 800.000 vacantes laborales relacionadas con la "IA" en EE. UU. [331]

Filosofía

Definición de inteligencia artificial

Alan Turing escribió en 1950: "Propongo considerar la cuestión '¿pueden pensar las máquinas?'" [332]. Aconsejó cambiar la pregunta de si una máquina "piensa" a "si es o no posible que una máquina muestre un comportamiento inteligente". [332] Ideó el test de Turing, que mide la capacidad de una máquina para simular una conversación humana. [302] Dado que sólo podemos observar el comportamiento de la máquina, no importa si está "realmente" pensando o si literalmente tiene una "mente". Turing señala que no podemos determinar estas cosas sobre otras personas, pero "es habitual tener una convención educada de que todo el mundo piensa". [333]

La prueba de Turing puede proporcionar cierta evidencia de inteligencia, pero penaliza el comportamiento inteligente no humano. [334]

Russell y Norvig coinciden con Turing en que la inteligencia debe definirse en términos de comportamiento externo, no de estructura interna. [1] Sin embargo, son críticos en cuanto a que la prueba requiere que la máquina imite a los humanos. " Los textos de ingeniería aeronáutica ", escribieron, "no definen el objetivo de su campo como la fabricación de 'máquinas que vuelen tan exactamente como las palomas que puedan engañar a otras palomas ' " . [335] El fundador de la IA , John McCarthy , estuvo de acuerdo y escribió que "la inteligencia artificial no es, por definición, una simulación de la inteligencia humana". [336]

McCarthy define la inteligencia como "la parte computacional de la capacidad de alcanzar objetivos en el mundo". [337] Otro fundador de la IA, Marvin Minsky, la describe de manera similar como "la capacidad de resolver problemas difíciles". [338] El principal libro de texto de IA la define como el estudio de agentes que perciben su entorno y toman acciones que maximizan sus posibilidades de alcanzar objetivos definidos. [1] Estas definiciones ven la inteligencia en términos de problemas bien definidos con soluciones bien definidas, donde tanto la dificultad del problema como el rendimiento del programa son medidas directas de la "inteligencia" de la máquina, y no se requiere ninguna otra discusión filosófica, o puede que ni siquiera sea posible.

Google [339] , un importante profesional en el campo de la IA, ha adoptado otra definición que estipula la capacidad de los sistemas para sintetizar información como manifestación de la inteligencia, de manera similar a como se define en la inteligencia biológica.

Algunos autores han sugerido en la práctica que la definición de IA es vaga y difícil de definir, y existe controversia sobre si los algoritmos clásicos deberían categorizarse como IA, [340] y muchas empresas, durante el auge de la IA a principios de la década de 2020, utilizaron el término como una palabra de moda en marketing , a menudo incluso si "en realidad no usaban la IA de manera material". [341]

Evaluación de enfoques para la IA

Ninguna teoría o paradigma unificador establecido ha guiado la investigación de IA durante la mayor parte de su historia. [aa] El éxito sin precedentes del aprendizaje automático estadístico en la década de 2010 eclipsó todos los demás enfoques (tanto que algunas fuentes, especialmente en el mundo empresarial, utilizan el término "inteligencia artificial" para referirse al "aprendizaje automático con redes neuronales"). Este enfoque es en su mayoría subsimbólico , blando y estrecho . Los críticos argumentan que es posible que las futuras generaciones de investigadores de IA tengan que volver a examinar estas cuestiones.

La IA simbólica y sus límites

La IA simbólica (o " IAOF ") [343] simuló el razonamiento consciente de alto nivel que las personas utilizan cuando resuelven acertijos, expresan razonamientos legales y hacen matemáticas. Tuvieron mucho éxito en tareas "inteligentes" como el álgebra o las pruebas de coeficiente intelectual. En la década de 1960, Newell y Simon propusieron la hipótesis de los sistemas de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [344]

Sin embargo, el enfoque simbólico falló en muchas tareas que los humanos resuelven fácilmente, como aprender, reconocer un objeto o razonar con sentido común. La paradoja de Moravec es el descubrimiento de que las tareas "inteligentes" de alto nivel eran fáciles para la IA, pero las tareas "instintivas" de bajo nivel eran extremadamente difíciles. [345] El filósofo Hubert Dreyfus había sostenido desde la década de 1960 que la pericia humana depende del instinto inconsciente más que de la manipulación consciente de símbolos, y de tener una "sensación" de la situación, más que de un conocimiento simbólico explícito. [346] Aunque sus argumentos habían sido ridiculizados e ignorados cuando se presentaron por primera vez, con el tiempo la investigación de la IA llegó a estar de acuerdo con él. [ab] [16]

El problema no está resuelto: el razonamiento subsimbólico puede cometer muchos de los mismos errores inescrutables que comete la intuición humana, como el sesgo algorítmico . Los críticos como Noam Chomsky sostienen que seguirá siendo necesario seguir investigando sobre la IA simbólica para alcanzar la inteligencia general, [348] [349] en parte porque la IA subsimbólica se aleja de la IA explicable : puede resultar difícil o imposible entender por qué un programa de IA estadística moderna tomó una decisión determinada. El campo emergente de la inteligencia artificial neurosimbólica intenta tender un puente entre ambos enfoques.

Limpio vs. desaliñado

Los "Neats" esperan que el comportamiento inteligente se describa utilizando principios simples y elegantes (como la lógica , la optimización o las redes neuronales ). Los "Scruffies" esperan que necesariamente requiera resolver una gran cantidad de problemas no relacionados. Los Neats defienden sus programas con rigor teórico, los scruffies se basan principalmente en pruebas incrementales para ver si funcionan. Esta cuestión se debatió activamente en los años 1970 y 1980, [350] pero finalmente se consideró irrelevante. La IA moderna tiene elementos de ambos.

Computación blanda vs. computación dura

Encontrar una solución demostrablemente correcta u óptima es intratable para muchos problemas importantes. [15] La computación blanda es un conjunto de técnicas, que incluyen algoritmos genéticos , lógica difusa y redes neuronales, que toleran la imprecisión, la incertidumbre, la verdad parcial y la aproximación. La computación blanda se introdujo a fines de la década de 1980 y la mayoría de los programas de IA exitosos en el siglo XXI son ejemplos de computación blanda con redes neuronales.

IA estrecha vs. IA general

Los investigadores de IA están divididos en cuanto a si perseguir los objetivos de la inteligencia artificial general y la superinteligencia directamente o resolver tantos problemas específicos como sea posible (IA limitada) con la esperanza de que estas soluciones conduzcan indirectamente a los objetivos a largo plazo del campo. [351] [352] La inteligencia general es difícil de definir y difícil de medir, y la IA moderna ha tenido éxitos más verificables al centrarse en problemas específicos con soluciones específicas. El subcampo experimental de la inteligencia artificial general estudia esta área exclusivamente.

Conciencia, sensibilidad y mente de las máquinas

La filosofía de la mente no sabe si una máquina puede tener una mente , conciencia y estados mentales , en el mismo sentido que los seres humanos. Esta cuestión considera las experiencias internas de la máquina, en lugar de su comportamiento externo. La investigación convencional sobre IA considera que esta cuestión es irrelevante porque no afecta a los objetivos del campo: construir máquinas que puedan resolver problemas utilizando la inteligencia. Russell y Norvig añaden que "[e]l proyecto adicional de hacer que una máquina sea consciente exactamente de la misma manera que lo son los humanos no es algo que estemos equipados para asumir". [353] Sin embargo, la cuestión se ha vuelto central para la filosofía de la mente. También suele ser la cuestión central en cuestión en la inteligencia artificial en la ficción .

Conciencia

David Chalmers identificó dos problemas para comprender la mente, a los que llamó problemas "difíciles" y "fáciles" de la conciencia. [354] El problema fácil es entender cómo el cerebro procesa las señales, hace planes y controla la conducta. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo en absoluto, suponiendo que tengamos razón al pensar que realmente se siente como algo (el ilusionismo de la conciencia de Dennett dice que esto es una ilusión). Si bien el procesamiento de la información humana es fácil de explicar, la experiencia subjetiva humana es difícil de explicar. Por ejemplo, es fácil imaginar a una persona daltónica que ha aprendido a identificar qué objetos en su campo de visión son rojos, pero no está claro qué se necesitaría para que la persona supiera cómo se ve el rojo . [355]

Computacionalismo y funcionalismo

El computacionalismo es la postura filosófica que sostiene que la mente humana es un sistema de procesamiento de información y que el pensamiento es una forma de computación. El computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema mente-cuerpo . Esta postura filosófica se inspiró en el trabajo de los investigadores de la IA y los científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor y Hilary Putnam . [356]

El filósofo John Searle caracterizó esta posición como una " IA fuerte ": "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que los seres humanos tienen mentes". [ac] Searle contrarresta esta afirmación con su argumento de la habitación china, que intenta demostrar que, incluso si una máquina simula perfectamente el comportamiento humano, todavía no hay razón para suponer que también tiene una mente. [360]

Bienestar y derechos de la IA

Es difícil o imposible evaluar de manera confiable si una IA avanzada es sensible (tiene la capacidad de sentir) y, de ser así, en qué grado. [361] Pero si existe una posibilidad significativa de que una máquina determinada pueda sentir y sufrir, entonces puede tener derecho a ciertos derechos o medidas de protección del bienestar, de manera similar a los animales. [362] [363] La sapiencia (un conjunto de capacidades relacionadas con la alta inteligencia, como el discernimiento o la autoconciencia ) puede proporcionar otra base moral para los derechos de la IA. [362] Los derechos de los robots también se proponen a veces como una forma práctica de integrar agentes autónomos en la sociedad. [364]

En 2017, la Unión Europea consideró otorgar "personalidad electrónica" a algunos de los sistemas de IA más capaces. De manera similar al estatus legal de las empresas, habría conferido derechos pero también responsabilidades. [365] Los críticos argumentaron en 2018 que otorgar derechos a los sistemas de IA restaría importancia a los derechos humanos y que la legislación debería centrarse en las necesidades de los usuarios en lugar de escenarios futuristas especulativos. También señalaron que los robots carecían de la autonomía para participar en la sociedad por sí solos. [366] [367]

Los avances en el campo de la IA han aumentado el interés por este tema. Los defensores de la protección y los derechos de la IA suelen argumentar que, si surge, sería especialmente fácil negar su capacidad de sentir. Advierten que esto puede ser un punto ciego moral análogo a la esclavitud o la cría intensiva de animales , que podría conducir a un sufrimiento a gran escala si se crea una IA sensible y se la explota descuidadamente. [363] [362]

Futuro

La superinteligencia y la singularidad

Una superinteligencia es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. [352]

Si la investigación sobre inteligencia artificial general produjera un software lo suficientemente inteligente, podría ser capaz de reprogramarse y mejorarse a sí mismo . El software mejorado sería aún mejor en su capacidad de mejorarse a sí mismo, lo que llevaría a lo que IJ Good llamó una " explosión de inteligencia " y Vernor Vinge llamó una " singularidad ". [368]

Sin embargo, las tecnologías no pueden mejorar exponencialmente de forma indefinida, y normalmente siguen una curva en forma de S , desacelerándose cuando alcanzan los límites físicos de lo que la tecnología puede hacer. [369]

Transhumanismo

El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro para formar cíborgs más capaces y poderosos que cualquiera de ellos. Esta idea, llamada transhumanismo, tiene sus raíces en Aldous Huxley y Robert Ettinger . [370]

Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa de la evolución", una idea propuesta por primera vez por Samuel Butler en " Darwin entre las máquinas " en 1863, y ampliada por George Dyson en su libro de 1998 Darwin entre las máquinas: la evolución de la inteligencia global . [371]

En la ficción

La palabra "robot" fue acuñada por Karel Čapek en su obra de teatro RUR de 1921 , cuyo título significa "Los robots universales de Rossum".

Los seres artificiales capaces de pensar han aparecido como dispositivos narrativos desde la antigüedad, [372] y han sido un tema persistente en la ciencia ficción . [373]

Un tropo común en estas obras comenzó con Frankenstein de Mary Shelley , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como 2001: Odisea del espacio (ambas de 1968) de Arthur C. Clarke y Stanley Kubrick , con HAL 9000 , la computadora asesina a cargo de la nave espacial Discovery One , así como Terminator (1984) y Matrix (1999). En contraste, los raros robots leales como Gort de El día que la Tierra se detuvo (1951) y Bishop de Aliens (1986) son menos prominentes en la cultura popular. [374]

Isaac Asimov introdujo las Tres Leyes de la Robótica en muchas historias, la más notable con la computadora superinteligente " Multivac ". Las leyes de Asimov se mencionan a menudo durante las discusiones sobre la ética de las máquinas; [375] mientras que casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad. [376]

Varias obras utilizan la IA para obligarnos a enfrentarnos a la pregunta fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por lo tanto, de sufrir. Esto aparece en RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [377]

Véase también

Notas explicativas

  1. ^ ab Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig (2021), Luger y Stubblefield (2004), Poole, Mackworth y Goebel (1998) y Nilsson (1998)
  2. ^ ab Esta lista de herramientas se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig (2021), Luger y Stubblefield (2004), Poole, Mackworth y Goebel (1998) y Nilsson (1998)
  3. ^ Esta es una de las razones por las que los sistemas expertos demostraron ser ineficientes para capturar conocimiento. [30] [31]
  4. ^ "Agente racional" es un término general utilizado en economía , filosofía e inteligencia artificial teórica. Puede referirse a cualquier cosa que dirige su comportamiento hacia el logro de objetivos, como una persona, un animal, una corporación, una nación o, en el caso de la IA, un programa informático.
  5. ^ Alan Turing ya había analizado la centralidad del aprendizaje en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [42] En 1956, en la conferencia de verano original de IA de Dartmouth, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "An Inductive Inference Machine". [43]
  6. ^ Véase AI winter § Traducción automática y el informe ALPAC de 1966
  7. ^ En comparación con la lógica simbólica, la inferencia bayesiana formal es computacionalmente costosa. Para que la inferencia sea factible, la mayoría de las observaciones deben ser condicionalmente independientes entre sí. AdSense utiliza una red bayesiana con más de 300 millones de aristas para aprender qué anuncios mostrar. [93]
  8. ^ La expectativa-maximización, uno de los algoritmos más populares en el aprendizaje automático, permite la agrupación en presencia de variables latentes desconocidas . [95]
  9. ^ Algunas formas de redes neuronales profundas (sin un algoritmo de aprendizaje específico) fueron descritas por: Warren S. McCulloch y Walter Pitts (1943) [115] Alan Turing (1948); [116] Karl Steinbuch y Roger David Joseph (1961). [117] Las redes profundas o recurrentes que aprendieron (o usaron descenso de gradiente) fueron desarrolladas por: Frank Rosenblatt (1957); [116] Oliver Selfridge (1959); [117] Alexey Ivakhnenko y Valentin Lapa (1965); [118] Kaoru Nakano (1971); [119] Shun-Ichi Amari (1972); [119] John Joseph Hopfield (1982). [119] Los precursores de la retropropagación fueron desarrollados por: Henry J. Kelley (1960); [116] Arthur E. Bryson (1962); [116] Stuart Dreyfus (1962); [116] Arthur E. Bryson y Yu-Chi Ho (1969); [116] La retropropagación fue desarrollada independientemente por: Seppo Linnainmaa (1970); [120] Paul Werbos (1974). [116]
  10. ^ Geoffrey Hinton dijo, sobre su trabajo en redes neuronales en la década de 1990, que "nuestros conjuntos de datos etiquetados eran miles de veces demasiado pequeños. [Y] nuestras computadoras eran millones de veces demasiado lentas". [121]
  11. ^ En estadística, un sesgo es un error sistemático o una desviación del valor correcto. Pero en el contexto de la imparcialidad , se refiere a una tendencia a favor o en contra de un determinado grupo o característica individual, normalmente de una manera que se considera injusta o perjudicial. Por lo tanto, un sistema de IA estadísticamente imparcial que produce resultados dispares para diferentes grupos demográficos puede considerarse sesgado en el sentido ético. [198]
  12. ^ Incluidos Jon Kleinberg ( Universidad de Cornell ), Sendhil Mullainathan ( Universidad de Chicago ), Cynthia Chouldechova ( Carnegie Mellon ) y Sam Corbett-Davis ( Stanford ) [207]
  13. ^ Moritz Hardt (director del Instituto Max Planck de Sistemas Inteligentes ) sostiene que el aprendizaje automático "es fundamentalmente la herramienta equivocada para muchos dominios, en los que se intenta diseñar intervenciones y mecanismos que cambien el mundo". [212]
  14. ^ Cuando se aprobó la ley en 2018, todavía contenía una forma de esta disposición.
  15. ^ Esta es la definición de las Naciones Unidas , e incluye también cosas como las minas terrestres . [226]
  16. ^ Véase el cuadro 4; el 9% es el promedio tanto de la OCDE como de los EE.UU. [237]
  17. ^ A veces llamado " roboapocalipsis " [245]
  18. ^ "Cerebro electrónico" era el término utilizado por la prensa en esa época. [298] [300]
  19. ^ Daniel Crevier escribió: "La conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". [303] Russell y Norvig llamaron a la conferencia "el inicio de la inteligencia artificial". [115]
  20. ^ Russell y Norvig escribieron que "durante los siguientes 20 años el campo estaría dominado por estas personas y sus estudiantes". [304]
  21. ^ Russell y Norvig escribieron que "era sorprendente cada vez que una computadora hacía algo inteligente". [305]
  22. ^ Los programas descritos son el programa de damas de Arthur Samuel para el IBM 701 , STUDENT de Daniel Bobrow , Logic Theorist de Newell y Simon y SHRDLU de Terry Winograd .
  23. ^ Russell y Norvig escriben: "en casi todos los casos, estos primeros sistemas fallaron en problemas más difíciles" [309]
  24. ^ Los enfoques incorporados a la IA [316] fueron defendidos por Hans Moravec [317] y Rodney Brooks [318] y recibieron muchos nombres: Nouvelle AI . [318] Robótica de desarrollo . [319]
  25. ^ Matteo Wong escribió en The Atlantic : "Mientras que durante décadas, los campos de la informática como el procesamiento del lenguaje natural, la visión artificial y la robótica utilizaban métodos extremadamente diferentes, ahora todos utilizan un método de programación llamado "aprendizaje profundo". Como resultado, sus códigos y enfoques se han vuelto más similares y sus modelos son más fáciles de integrar entre sí". [325]
  26. ^ Jack Clark escribió en Bloomberg : "Después de media década de avances silenciosos en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca", y señaló que la cantidad de proyectos de software que utilizan aprendizaje automático en Google aumentó de un "uso esporádico" en 2012 a más de 2700 proyectos en 2015. [327]
  27. ^ Nils Nilsson escribió en 1983: "En pocas palabras, existe un amplio desacuerdo en el campo sobre qué es la IA". [342]
  28. Daniel Crevier escribió que "el tiempo ha demostrado la exactitud y la perspicacia de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugerían podrían haberse tomado mucho antes". [347]
  29. ^ Searle presentó esta definición de "IA fuerte" en 1999. [357] La ​​formulación original de Searle fue "La computadora programada apropiadamente realmente es una mente, en el sentido de que se puede decir literalmente que las computadoras a las que se les dan los programas correctos entienden y tienen otros estados cognitivos". [358] Russell y Norvig definen la IA fuerte de manera similar : "IA fuerte: la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento)". [359]

Referencias

  1. ^ abc Russell y Norvig (2021), págs. 1–4.
  2. ^ La IA superará la capacidad del cerebro humano Archivado el 19 de febrero de 2008 en Wayback Machine CNN.com (26 de julio de 2006)
  3. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, en mi mano: ¿Quién es la más bella de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Business Horizons . 62 : 15–25. doi :10.1016/j.bushor.2018.08.004. ISSN  0007-6813. S2CID  158433736.
  4. ^ abc Inteligencia artificial general :
    • Russell y Norvig (2021, págs. 32-33, 1020-1021)
    Propuesta para la versión moderna:
    • Pennachin y Goertzel (2007)
    Advertencias sobre la sobreespecialización en IA por parte de investigadores destacados:
    • Nilsson (1995)
    • McCarthy (2007)
    • Beal y Winston (2009)
  5. ^ Russell y Norvig (2021, §1.2).
  6. ^ Taller de Dartmouth :
    • Russell y Norvig (2021, pág. 18)
    • McCorduck (2004, págs. 111-136)
    • NRC (1999, págs. 200-201)
    La propuesta:
    • McCarthy y otros (1955)
  7. ^ ab Programas exitosos de la década de 1960:
    • McCorduck (2004, págs. 243-252)
    • Crevier (1993, págs. 52-107)
    • Moravec (1988, pág. 9)
    • Russell y Norvig (2021, págs. 19-21)
  8. ^ ab Iniciativas de financiación a principios de los años 1980: Proyecto de Quinta Generación (Japón), Alvey (Reino Unido), Microelectronics and Computer Technology Corporation (EE. UU.), Strategic Computing Initiative (EE. UU.):
    • McCorduck (2004, págs. 426-441)
    • Crevier (1993, págs. 161-162, 197-203, 211, 240)
    • Russell y Norvig (2021, pág. 23)
    • NRC (1999, págs. 210-211)
    • Newquist (1994, págs. 235-248)
  9. ^ ab Primer invierno de IA , informe Lighthill , enmienda Mansfield
    • Crevier (1993, págs. 115-117)
    • Russell y Norvig (2021, págs. 21-22)
    • NRC (1999, págs. 212-213)
    • Howe (1994)
    • Newquist (1994, págs. 189-201)
  10. ^ ab Segundo invierno de IA :
    • Russell y Norvig (2021, pág. 24)
    • McCorduck (2004, págs. 430-435)
    • Crevier (1993, págs. 209-210)
    • NRC (1999, págs. 214-216)
    • Newquist (1994, págs. 301-318)
  11. ^ ab Revolución del aprendizaje profundo , AlexNet :
    • Goldman (2022)
    • Russell y Norvig (2021, pág. 26)
    • McKinsey (2018)
  12. ^ Dedos de los pies (2023).
  13. ^ Resolución de problemas, resolución de acertijos, juegos y deducción:
    • Russell y Norvig (2021, capítulos 3-5)
    • Russell y Norvig (2021, cap. 6) ( satisfacción de restricciones )
    • Poole, Mackworth y Goebel (1998, capítulos 2, 3, 7, 9)
    • Luger y Stubblefield (2004, capítulos 3, 4, 6, 8)
    • Nilsson (1998, capítulos 7-12)
  14. ^ Razonamiento incierto:
    • Russell y Norvig (2021, capítulos 12-18)
    • Poole, Mackworth y Goebel (1998, págs. 345–395)
    • Luger y Stubblefield (2004, págs. 333-381)
    • Nilsson (1998, capítulos 7-12)
  15. ^ abc Intratabilidad y eficiencia y la explosión combinatoria :
    • Russell y Norvig (2021, pág. 21)
  16. ^ abc Evidencia psicológica de la prevalencia del razonamiento y conocimiento subsimbólico:
    • Kahneman (2011)
    • Dreyfus y Dreyfus (1986)
    • Wason y Shapiro (1966)
    • Kahneman, Slovic y Tversky (1982)
  17. ^ Representación del conocimiento e ingeniería del conocimiento :
    • Russell y Norvig (2021, capítulo 10)
    • Poole, Mackworth y Goebel (1998, págs. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
    • Luger y Stubblefield (2004, págs. 227-243),
    • Nilsson (1998, capítulos 17.1–17.4, 18)
  18. ^ Smoliar y Zhang (1994).
  19. ^ Neumann y Möller (2008).
  20. ^ Kuperman, Reichley y Bailey (2006).
  21. ^ McGarry (2005).
  22. ^ Bertini, Del Bimbo y Torniai (2006).
  23. ^ Russell y Norvig (2021), págs. 272.
  24. ^ Representación de categorías y relaciones: redes semánticas , lógicas de descripción , herencia (incluidos marcos y scripts ):
    • Russell y Norvig (2021, §10.2 y 10.5),
    • Poole, Mackworth y Goebel (1998, págs. 174-177),
    • Luger y Stubblefield (2004, págs. 248-258),
    • Nilsson (1998, cap. 18.3)
  25. ^ Representación de eventos y tiempo: cálculo de situaciones , cálculo de eventos , cálculo fluido (incluida la solución del problema del marco ):
    • Russell y Norvig (2021, §10.3),
    • Poole, Mackworth y Goebel (1998, págs. 281–298),
    • Nilsson (1998, cap. 18.2)
  26. ^ Cálculo causal :
    • Poole, Mackworth y Goebel (1998, págs. 335–337)
  27. ^ Representación del conocimiento sobre el conocimiento: cálculo de creencias, lógicas modales :
    • Russell y Norvig (2021, §10.4),
    • Poole, Mackworth y Goebel (1998, págs. 275-277)
  28. ^ ab Razonamiento por defecto , Problema del marco , lógica por defecto , lógicas no monótonas , circunscripción , supuesto de mundo cerrado , abducción :
    • Russell y Norvig (2021, §10.6)
    • Poole, Mackworth y Goebel (1998, págs. 248–256, 323–335)
    • Luger y Stubblefield (2004, págs. 335-363)
    • Nilsson (1998, ~18.3.3)
    (Poole et al. ubica la abducción bajo el "razonamiento por defecto". Luger et al. lo ubica bajo el "razonamiento incierto").
  29. ^ ab Amplitud del conocimiento del sentido común:
    • Lenat y Guha (1989, Introducción)
    • Crevier (1993, págs. 113-114),
    • Moravec (1988, pág. 13),
    • Russell y Norvig (2021, págs. 241, 385, 982) ( problema de calificación )
  30. ^ Newquist (1994), pág. 296.
  31. ^ Crevier (1993), págs. 204-208.
  32. ^ Russell y Norvig (2021), pág. 528.
  33. ^ Planificación automatizada :
    • Russell y Norvig (2021, capítulo 11).
  34. ^ Toma de decisiones automatizada , Teoría de la decisión :
    • Russell y Norvig (2021, cap. 16-18).
  35. ^ Planificación clásica :
    • Russell y Norvig (2021, Sección 11.2).
  36. ^ Planificación sin sensores o "conforme", planificación contingente, replanificación (también conocida como planificación en línea):
    • Russell y Norvig (2021, Sección 11.5).
  37. ^ Preferencias inciertas:
    • Russell y Norvig (2021, Sección 16.7)
    Aprendizaje por refuerzo inverso :
    • Russell y Norvig (2021, Sección 22.6)
  38. ^ Teoría del valor de la información :
    • Russell y Norvig (2021, Sección 16.6).
  39. ^ Proceso de decisión de Markov :
    • Russell y Norvig (2021, cap. 17).
  40. ^ Teoría de juegos y teoría de decisiones multiagente:
    • Russell y Norvig (2021, capítulo 18).
  41. ^ Aprendizaje :
    • Russell y Norvig (2021, capítulos 19-22)
    • Poole, Mackworth y Goebel (1998, págs. 397–438)
    • Luger y Stubblefield (2004, págs. 385-542)
    • Nilsson (1998, capítulos 3.3, 10.3, 17.5, 20)
  42. ^ Turing (1950).
  43. ^ Salomón (1956).
  44. ^ Aprendizaje no supervisado :
  45. ^ ab Aprendizaje supervisado :
    • Russell & Norvig (2021, §19.2) (Definición)
    • Russell y Norvig (2021, cap. 19-20) (Técnicas)
  46. ^ Aprendizaje por refuerzo :
    • Russell y Norvig (2021, capítulo 22)
    • Luger y Stubblefield (2004, págs. 442-449)
  47. ^ Aprendizaje por transferencia :
    • Russell y Norvig (2021, pág. 281)
    • El economista (2016)
  48. ^ "Inteligencia artificial (IA): ¿Qué es la IA y cómo funciona? | Built In". builtin.com . Consultado el 30 de octubre de 2023 .
  49. ^ Teoría del aprendizaje computacional :
    • Russell y Norvig (2021, págs. 672–674)
    • Jordan y Mitchell (2015)
  50. ^ Procesamiento del lenguaje natural (PLN):
    • Russell y Norvig (2021, capítulos 23 y 24)
    • Poole, Mackworth y Goebel (1998, págs. 91-104)
    • Luger y Stubblefield (2004, págs. 591-632)
  51. ^ Subproblemas de la PNL :
    • Russell y Norvig (2021, págs. 849-850)
  52. ^ Russell y Norvig (2021), págs. 856–858.
  53. ^ Dickson (2022).
  54. ^ Enfoques modernos de aprendizaje profundo y estadístico para el procesamiento del lenguaje natural :
    • Russell y Norvig (2021, capítulo 24)
    • Cambria y blanco (2014)
  55. ^ Vincent (2019).
  56. ^ Russell y Norvig (2021), págs. 875–878.
  57. ^ Bushwick (2023).
  58. ^ Visión por computadora :
    • Russell y Norvig (2021, capítulo 25)
    • Nilsson (1998, cap. 6)
  59. ^ Russell y Norvig (2021), págs. 849–850.
  60. ^ Russell y Norvig (2021), págs. 895–899.
  61. ^ Russell y Norvig (2021), págs. 899–901.
  62. ^ Challa y otros (2011).
  63. ^ Russell y Norvig (2021), págs. 931–938.
  64. ^ Universidad del Medio Oriente (2014).
  65. ^ Computación afectiva :
    • A través de (1993)
    • Edelson (1991)
    • Tao y Tan (2005)
    • Scassellati (2002)
  66. ^ Waddell (2018).
  67. ^ Poria y otros (2017).
  68. ^ Algoritmos de búsqueda :
    • Russell y Norvig (2021, capítulos 3-5)
    • Poole, Mackworth y Goebel (1998, págs. 113-163)
    • Luger y Stubblefield (2004, págs. 79-164, 193-219)
    • Nilsson (1998, capítulos 7-12)
  69. ^ Búsqueda en el espacio de estados :
    • Russell y Norvig (2021, capítulo 3)
  70. ^ Russell y Norvig (2021), §11.2.
  71. ^ Búsquedas no informadas ( búsqueda en amplitud , búsqueda en profundidad y búsqueda en el espacio de estados general ):
    • Russell y Norvig (2021, §3.4)
    • Poole, Mackworth y Goebel (1998, págs. 113-132)
    • Luger y Stubblefield (2004, págs. 79-121)
    • Nilsson (1998, cap. 8)
  72. ^ Búsquedas heurísticas o informadas (por ejemplo, mejor primero y A* ):
    • Russell y Norvig (2021, art. 3.5)
    • Poole, Mackworth y Goebel (1998, págs. 132-147)
    • Poole y Mackworth (2017, §3.6)
    • Luger y Stubblefield (2004, págs. 133-150)
  73. ^ Búsqueda adversarial :
    • Russell y Norvig (2021, capítulo 5)
  74. ^ Búsqueda local o de " optimización ":
    • Russell y Norvig (2021, capítulo 4)
  75. ^ Singh Chauhan, Nagesh (18 de diciembre de 2020). "Algoritmos de optimización en redes neuronales". KDnuggets . Consultado el 13 de enero de 2024 .
  76. ^ Computación evolutiva :
    • Russell y Norvig (2021, §4.1.2)
  77. ^ Merkle y Middendorf (2013).
  78. ^ Lógica :
    • Russell y Norvig (2021, capítulos 6-9)
    • Luger y Stubblefield (2004, págs. 35-77)
    • Nilsson (1998, capítulos 13-16)
  79. ^ Lógica proposicional :
    • Russell y Norvig (2021, capítulo 6)
    • Luger y Stubblefield (2004, págs. 45-50)
    • Nilsson (1998, cap. 13)
  80. ^ Lógica de primer orden y características como la igualdad :
    • Russell y Norvig (2021, capítulo 7)
    • Poole, Mackworth y Goebel (1998, págs. 268-275),
    • Luger y Stubblefield (2004, págs. 50-62),
    • Nilsson (1998, cap. 15)
  81. ^ Inferencia lógica :
    • Russell y Norvig (2021, capítulo 10)
  82. ^ deducción lógica como búsqueda:
    • Russell y Norvig (2021, §9.3, §9.4)
    • Poole, Mackworth y Goebel (1998, págs. ~46–52)
    • Luger y Stubblefield (2004, págs. 62-73)
    • Nilsson (1998, capítulos 4.2, 7.2)
  83. ^ Resolución y unificación :
    • Russell y Norvig (2021, §7.5.2, §9.2, §9.5)
  84. ^ Warren, DH; Pereira, LM; Pereira, F. (1977). "Prolog: el lenguaje y su implementación en comparación con Lisp". ACM SIGPLAN Notices . 12 (8): 109–115. doi :10.1145/872734.806939.
  85. ^ Lógica difusa:
    • Russell y Norvig (2021, págs. 214, 255, 459)
    • Revista científica americana (1999)
  86. ^ ab Métodos estocásticos para razonamiento incierto:
    • Russell y Norvig (2021, cap. 12-18 y 20),
    • Poole, Mackworth y Goebel (1998, págs. 345–395),
    • Luger y Stubblefield (2004, págs. 165-191, 333-381),
    • Nilsson (1998, cap. 19)
  87. ^ teoría de decisiones y análisis de decisiones :
    • Russell y Norvig (2021, cap. 16-18),
    • Poole, Mackworth y Goebel (1998, págs. 381–394)
  88. ^ Teoría del valor de la información :
    • Russell y Norvig (2021, §16.6)
  89. ^ Procesos de decisión de Markov y redes de decisión dinámicas :
    • Russell y Norvig (2021, capítulo 17)
  90. ^ abc Modelos temporales estocásticos:
    • Russell y Norvig (2021, cap. 14)
    Modelo oculto de Markov :
    • Russell y Norvig (2021, §14.3)
    Filtros Kalman :
    • Russell y Norvig (2021, §14.4)
    Redes bayesianas dinámicas :
    • Russell y Norvig (2021, §14.5)
  91. ^ Teoría de juegos y diseño de mecanismos :
    • Russell y Norvig (2021, cap. 18)
  92. ^ Redes bayesianas :
    • Russell y Norvig (2021, §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2–20.3),
    • Poole, Mackworth y Goebel (1998, págs. 361–381),
    • Luger y Stubblefield (2004, págs. ~182–190, ≈363–379),
    • Nilsson (1998, capítulos 19.3-19.4)
  93. ^ Domingos (2015), capítulo 6.
  94. ^ Algoritmo de inferencia bayesiano :
    • Russell y Norvig (2021, §13.3–13.5),
    • Poole, Mackworth y Goebel (1998, págs. 361–381),
    • Luger y Stubblefield (2004, págs. ~363–379),
    • Nilsson (1998, capítulos 19.4 y 7)
  95. ^ Domingos (2015), pág. 210.
  96. ^ Aprendizaje bayesiano y el algoritmo de expectativa-maximización :
    • Russell y Norvig (2021, cap. 20),
    • Poole, Mackworth y Goebel (1998, págs. 424–433),
    • Nilsson (1998, cap. 20)
    • Domingos (2015, pág. 210)
  97. ^ Teoría de decisión bayesiana y redes de decisión bayesianas :
    • Russell y Norvig (2021, §16.5)
  98. ^ Métodos de aprendizaje estadístico y clasificadores :
    • Russell y Norvig (2021, cap. 20),
  99. ^ Ciaramella, Alberto ; Ciaramella, Marco (2024). Introducción a la inteligencia artificial: del análisis de datos a la IA generativa . ISBN 978-8894787603.
  100. ^ Árboles de decisión :
    • Russell y Norvig (2021, §19.3)
    • Domingos (2015, pág. 88)
  101. ^ Modelos de aprendizaje no paramétrico como los K-vecinos más cercanos y las máquinas de vectores de soporte :
    • Russell y Norvig (2021, §19.7)
    • Domingos (2015, p. 187) (k-vecino más cercano)
    • Domingos (2015, p. 88) (métodos kernel)
  102. ^ Domingos (2015), pág. 152.
  103. ^ Clasificador Bayes ingenuo :
    • Russell y Norvig (2021, §12.6)
    • Domingos (2015, pág. 152)
  104. ^ ab Redes neuronales:
    • Russell y Norvig (2021, cap. 21),
    • Domingos (2015, Capítulo 4)
  105. ^ Cálculo de gradientes en gráficos computacionales, retropropagación , diferenciación automática :
    • Russell y Norvig (2021, §21.2),
    • Luger y Stubblefield (2004, págs. 467–474),
    • Nilsson (1998, cap. 3.3)
  106. ^ Teorema de aproximación universal :
    • Russell y Norvig (2021, pág. 752)
    El teorema:
    • Cibenko (1988)
    • Hornik, Stinchcombe y White (1989)
  107. ^ Redes neuronales de propagación hacia adelante :
    • Russell y Norvig (2021, §21.1)
  108. ^ Redes neuronales recurrentes :
    • Russell y Norvig (2021, §21.6)
  109. ^ Perceptrones :
    • Russell y Norvig (2021, págs. 21, 22, 683, 22)
  110. ^ ab Aprendizaje profundo :
    • Russell y Norvig (2021, capítulo 21)
    • Goodfellow, Bengio y Courville (2016)
    • Hinton y otros (2016)
    • Schmidhuber (2015)
  111. ^ Redes neuronales convolucionales :
    • Russell y Norvig (2021, §21.3)
  112. ^ Deng y Yu (2014), págs. 199-200.
  113. ^ Ciresan, Meier y Schmidhuber (2012).
  114. ^ Russell y Norvig (2021), pág. 751.
  115. ^ abc Russell y Norvig (2021), pág. 17.
  116. ^ abcdefg Russell y Norvig (2021), pág. 785.
  117. ^ por Schmidhuber (2022), §5.
  118. ^ Schmidhuber (2022), §6.
  119. ^ abc Schmidhuber (2022), §7.
  120. ^ Schmidhuber (2022), §8.
  121. ^ Citado en Christian (2020, p. 22)
  122. ^ Smith (2023).
  123. ^ "Explicación: IA generativa". 9 de noviembre de 2023.
  124. ^ "Herramientas de creación de contenido y redacción con inteligencia artificial". MIT Sloan Teaching & Learning Technologies . Consultado el 25 de diciembre de 2023 .
  125. ^ Marmouyet (2023).
  126. ^ Kobielus (2019).
  127. ^ Thomason, James (21 de mayo de 2024). "Mojo Rising: El resurgimiento de los lenguajes de programación que priorizan la IA". VentureBeat . Consultado el 26 de mayo de 2024 .
  128. ^ Wodecki, Ben (5 de mayo de 2023). "7 lenguajes de programación de IA que debes conocer". AI Business .
  129. ^ Davenport, T; Kalakota, R (junio de 2019). "El potencial de la inteligencia artificial en la atención sanitaria". Future Healthc J . 6 (2): 94–98. doi :10.7861/futurehosp.6-2-94. PMC 6616181 . PMID  31363513. 
  130. ^ ab Bax, Monique; Thorpe, Jordan; Romanov, Valentin (diciembre de 2023). "El futuro de la medicina cardiovascular personalizada exige impresión 3D y 4D, células madre e inteligencia artificial". Frontiers in Sensors . 4 . doi : 10.3389/fsens.2023.1294721 . ISSN  2673-5067.
  131. ^ Jumper, J; Evans, R; Pritzel, A (2021). "Predicción de la estructura de proteínas de alta precisión con AlphaFold". Nature . 596 (7873): 583–589. Bibcode :2021Natur.596..583J. doi :10.1038/s41586-021-03819-2. PMC 8371605 . PMID  34265844. 
  132. ^ "La IA descubre una nueva clase de antibióticos para matar bacterias resistentes a los fármacos". 20 de diciembre de 2023.
  133. ^ "La IA acelera diez veces el diseño de fármacos para el Parkinson". Universidad de Cambridge. 17 de abril de 2024.
  134. ^ Horne, Robert I.; Andrzejewska, Ewa A.; Alam, Parvez; Brotzakis, Z. Faidon; Srivastava, Ankit; Aubert, Alice; Nowinska, Magdalena; Gregory, Rebecca C.; Staats, Roxine; Possenti, Andrea; Chia, Sean; Sormanni, Pietro; Ghetti, Bernardino; Caughey, Byron; Knowles, Tuomas PJ; Vendruscolo, Michele (17 de abril de 2024). "Descubrimiento de potentes inhibidores de la agregación de α-sinucleína mediante aprendizaje iterativo basado en la estructura". Nature Chemical Biology . 20 (5). Naturaleza: 634–645. doi :10.1038/s41589-024-01580-x. PMC 11062903 . PMID  38632492. 
  135. ^ Grant, Eugene F.; Lardner, Rex (25 de julio de 1952). «The Talk of the Town – It». The New Yorker . ISSN  0028-792X . Consultado el 28 de enero de 2024 .
  136. ^ Anderson, Mark Robert (11 de mayo de 2017). «Veinte años después de Deep Blue vs Kasparov: cómo una partida de ajedrez inició la revolución del big data». The Conversation . Consultado el 28 de enero de 2024 .
  137. ^ Markoff, John (16 de febrero de 2011). «Computer Wins on 'Jeopardy!': Trivial, It's Not» (La computadora gana en Jeopardy!: trivial, no lo es) . The New York Times (ISSN  0362-4331) . Consultado el 28 de enero de 2024 .
  138. ^ Byford, Sam (27 de mayo de 2017). «AlphaGo se retira del Go competitivo tras derrotar al número uno del mundo por 3-0». The Verge . Consultado el 28 de enero de 2024 .
  139. ^ Brown, Noam; Sandholm, Tuomas (30 de agosto de 2019). "IA superhumana para póquer multijugador". Science . 365 (6456): 885–890. Bibcode :2019Sci...365..885B. doi :10.1126/science.aay2400. ISSN  0036-8075. PMID  31296650.
  140. ^ "MuZero: Dominando el Go, el ajedrez, el shogi y el Atari sin reglas". Google DeepMind . 23 de diciembre de 2020 . Consultado el 28 de enero de 2024 .
  141. ^ Sample, Ian (30 de octubre de 2019). «La IA se convierte en gran maestra en el 'diabólicamente complejo' StarCraft II». The Guardian . ISSN  0261-3077 . Consultado el 28 de enero de 2024 .
  142. ^ Wurman, PR; Barrett, S.; Kawamoto, K. (2022). "Superar a los pilotos campeones de Gran Turismo con aprendizaje de refuerzo profundo". Nature . 602 (7896): 223–228. Bibcode :2022Natur.602..223W. doi :10.1038/s41586-021-04357-7. PMID  35140384.
  143. ^ Wilkins, Alex (13 de marzo de 2024). «La IA de Google aprende a jugar a videojuegos de mundo abierto observándolos». New Scientist . Consultado el 21 de julio de 2024 .
  144. ^ Uesato, J. et al.: Mejorar el razonamiento matemático con la supervisión de procesos. openai.com, 31 de mayo de 2023. Consultado el 7 de agosto de 2024.
  145. ^ Srivastava, Saurabh (29 de febrero de 2024). "Puntos de referencia funcionales para la evaluación robusta del desempeño del razonamiento y la brecha de razonamiento". arXiv : 2402.19450 [cs.AI].
  146. ^ Roberts, Siobhan (25 de julio de 2024). «AI achieves silver-medal standard solving International Mathematical Olympiad problems» (La inteligencia artificial alcanza el estándar de medalla de plata al resolver problemas de la Olimpiada Internacional de Matemáticas). The New York Times . Consultado el 7 de agosto de 2024 .
  147. ^ LLEMMA. eleuther.ai. Consultado el 7 de agosto de 2024.
  148. ^ Matemáticas con IA. Caesars Labs, 2024. Consultado el 7 de agosto de 2024.
  149. ^ Alex McFarland: Las 7 mejores herramientas de inteligencia artificial para matemáticas. unite.ai. Consultado el 7 de agosto de 2024.
  150. ^ Matthew Finio y Amanda Downie: IBM Think 2024 Primer, "¿Qué es la inteligencia artificial (IA) en las finanzas?", 8 de diciembre de 2023
  151. ^ M. Nicolas, J. Firzli: Revista Pensions Age/European Pensions, "Inteligencia artificial: pregúntele a la industria", mayo-junio de 2024 https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/.
  152. ^ Servicio de Investigación del Congreso (2019). Inteligencia artificial y seguridad nacional (PDF) . Washington, DC: Servicio de Investigación del Congreso.Aviso de PD
  153. ^ ab Slyusar, Vadym (2019). "La inteligencia artificial como base de las redes de control del futuro". ResearchGate . doi :10.13140/RG.2.2.30247.50087.
  154. ^ Knight, Will. "Estados Unidos y otras 30 naciones acuerdan establecer límites para la inteligencia artificial militar". Wired . ISSN  1059-1028 . Consultado el 24 de enero de 2024 .
  155. ^ Newsom, Gavin; Weber, Shirley N. (6 de septiembre de 2023). «Orden ejecutiva N-12-23» (PDF) . Departamento Ejecutivo, Estado de California. Archivado (PDF) del original el 21 de febrero de 2024. Consultado el 7 de septiembre de 2023 .
  156. ^ Pinaya, Walter HL; Graham, Mark S.; Kerfoot, Eric; Tudosiu, Petru-Daniel; Dafflon, Jessica; Fernández, Virginia; Sánchez, Pedro; Wolleb, Julia; da Costa, Pedro F.; Patel, Ashay (2023). "IA generativa para imágenes médicas: ampliación del marco MONAI". arXiv : 2307.15208 [eess.IV].
  157. ^ Griffith, Erin; Metz, Cade (27 de enero de 2023). «Anthropic se acerca a los 300 millones de dólares en financiación para IA». The New York Times . Archivado desde el original el 9 de diciembre de 2023. Consultado el 14 de marzo de 2023 .
  158. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (10 de marzo de 2023). "Una hoja de trucos para las palabras de moda de la IA y sus significados". Bloomberg News . Archivado desde el original el 17 de noviembre de 2023 . Consultado el 14 de marzo de 2023 .
  159. ^ Marcelline, Marco (27 de mayo de 2023). "ChatGPT: la mayoría de los estadounidenses lo conocen, pero pocos usan realmente el chatbot de inteligencia artificial". PCMag . Consultado el 28 de enero de 2024 .
  160. ^ Lu, Donna (31 de marzo de 2023). «Desinformación, errores y el Papa en un cigarrillo: lo que la IA en rápida evolución puede –y no puede– hacer». The Guardian . ISSN  0261-3077 . Consultado el 28 de enero de 2024 .
  161. ^ Hurst, Luke (23 de mayo de 2023). «Cómo una imagen falsa de una explosión en el Pentágono compartida en Twitter provocó una caída real en Wall Street». euronews . Consultado el 28 de enero de 2024 .
  162. ^ Poole, David; Mackworth, Alan (2023). Inteligencia artificial: fundamentos de los agentes computacionales (3.ª ed.). Cambridge University Press. doi :10.1017/9781009258227. ISBN 9781009258197.
  163. ^ Russell, Stuart; Norvig, Peter (2020). Inteligencia artificial: un enfoque moderno (4.ª ed.). Pearson. ISBN 9780134610993.
  164. ^ "Por qué los agentes son la próxima frontera de la IA generativa". McKinsey Digital . 24 de julio de 2024 . Consultado el 10 de agosto de 2024 .
  165. ^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (6 de septiembre de 2017). "Reshaping Business With Artificial Intelligence" (Reestructuración de los negocios con inteligencia artificial). MIT Sloan Management Review . Archivado desde el original el 13 de febrero de 2024.
  166. ^ Sun, Yuran; Zhao, Xilei; Lovreglio, Ruggiero; Kuligowski, Erica (1 de enero de 2024), Naser, MZ (ed.), "8 – IA para modelado de evacuación a gran escala: promesas y desafíos", Aprendizaje automático interpretable para el análisis, diseño, evaluación y toma de decisiones informada para infraestructura civil , Woodhead Publishing Series in Civil and Structural Engineering, Woodhead Publishing, págs. 185–204, ISBN 978-0-12-824073-1, consultado el 28 de junio de 2024.
  167. ^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (1 de noviembre de 2021). "Un marco para un sistema inteligente de detección y evacuación de incendios". Tecnología contra incendios . 57 (6): 3179–3185. doi :10.1007/s10694-021-01157-3. ISSN  1572-8099.
  168. ^ Zhao, Xilei; Lovreglio, Ruggiero; Nilsson, Daniel (1 de mayo de 2020). "Modelado e interpretación de la toma de decisiones previa a la evacuación mediante aprendizaje automático". Automatización en la construcción . 113 : 103140. doi :10.1016/j.autcon.2020.103140. ISSN  0926-5805.
  169. ^ Simonita (2016).
  170. ^ Russell y Norvig (2021), pág. 987.
  171. ^ Laskowski (2023).
  172. ^ Agencia de Noticias GAO (2022).
  173. ^ Valinsky (2019).
  174. ^ Russell y Norvig (2021), pág. 991.
  175. ^ Russell y Norvig (2021), págs. 991–992.
  176. ^ Cristiano (2020), pág. 63.
  177. ^ Vicente (2022).
  178. ^ Kopel, Matthew. «Copyright Services: Fair Use» (Servicios de derechos de autor: uso legítimo). Biblioteca de la Universidad de Cornell . Consultado el 26 de abril de 2024 .
  179. ^ Burgess, Matt. "Cómo evitar que sus datos se utilicen para entrenar a la IA". Wired . ISSN  1059-1028 . Consultado el 26 de abril de 2024 .
  180. ^ Reisner (2023).
  181. ^ Alter y Harris (2023).
  182. ^ "Cómo preparar el ecosistema de innovación para la IA. Un conjunto de herramientas para la formulación de políticas de propiedad intelectual" (PDF) . OMPI .
  183. ^ Hammond, George (27 de diciembre de 2023). «Las grandes empresas tecnológicas están gastando más que las firmas de capital riesgo en nuevas empresas de inteligencia artificial». Ars Technica . Archivado desde el original el 10 de enero de 2024.
  184. ^ Wong, Matteo (24 de octubre de 2023). «El futuro de la IA es GOMA» . The Atlantic . Archivado desde el original el 5 de enero de 2024.
  185. ^ "Big tech and the persecution of AI dominance" (Las grandes tecnológicas y la búsqueda del dominio de la IA) . The Economist . 26 de marzo de 2023. Archivado desde el original el 29 de diciembre de 2023.
  186. ^ Fung, Brian (19 de diciembre de 2023). «Dónde se puede ganar la batalla para dominar la IA». CNN Business . Archivado desde el original el 13 de enero de 2024.
  187. ^ Metz, Cade (5 de julio de 2023). "En la era de la IA, los pequeños empresarios necesitan grandes amigos". The New York Times .
  188. ^ "Electricidad 2024 – Análisis". IEA . 24 de enero de 2024 . Consultado el 13 de julio de 2024 .
  189. ^ Calvert, Brian (28 de marzo de 2024). "La IA ya consume tanta energía como un país pequeño. Es solo el comienzo". Vox . Nueva York, Nueva York.
  190. ^ Halper, Evan; O'Donovan, Caroline (21 de junio de 2024). "La IA está agotando la red eléctrica. Las empresas tecnológicas buscan una solución milagrosa". Washington Post .
  191. ^ Davenport, Carly. "Centros de datos de IA y el aumento inminente de la demanda de energía de YS" (PDF) . Goldman Sachs .
  192. ^ Ryan, Carol (12 de abril de 2024). "La inteligencia artificial que consume mucha energía también es el futuro del ahorro energético". Wall Street Journal . Dow Jones.
  193. ^ Hiller, Jennifer (1 de julio de 2024). "La industria tecnológica quiere bloquear la energía nuclear para la IA". Wall Street Journal . Dow Jones.
  194. ^ Nicas (2018).
  195. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 de julio de 2019). "Confianza y desconfianza en Estados Unidos". Pew Research Center . Archivado desde el original el 22 de febrero de 2024.
  196. ^ Williams (2023).
  197. ^ Taylor y Hern (2023).
  198. ^ ab Samuel, Sigal (19 de abril de 2022). "Por qué es tan difícil lograr que la IA sea justa e imparcial". Vox . Consultado el 24 de julio de 2024 .
  199. ^ desde Rosa (2023).
  200. ^ CNA (2019).
  201. ^ Goffrey (2008), pág. 17.
  202. ^ Berdahl y col. (2023); Goffrey (2008, pág. 17); Rosa (2023); Russell y Norvig (2021, pág. 995)
  203. ^ Cristiano (2020), pág. 25.
  204. ^ desde Russell y Norvig (2021), pág. 995.
  205. ^ Grant y Hill (2023).
  206. ^ Larson y Angwin (2016).
  207. ^ Christian (2020), págs. 67–70.
  208. ^ Christian (2020, págs. 67-70); Russell y Norvig (2021, págs. 993-994)
  209. ^ Russell y Norvig (2021, pág. 995); Lipartito (2011, pág. 36); Goodman y Flaxman (2017, pág. 6); Christian (2020, págs. 39-40, 65)
  210. ^ Citado en Christian (2020, p. 65).
  211. ^ Russell y Norvig (2021, pág. 994); Christian (2020, págs. 40, 80-81)
  212. ^ Citado en Christian (2020, p. 80)
  213. ^ Dockrill (2022).
  214. ^ Muestra (2017).
  215. ^ "Caja negra de inteligencia artificial". 16 de junio de 2023.
  216. ^ Cristiano (2020), pág. 110.
  217. ^ Christian (2020), págs. 88–91.
  218. ^ Christian (2020, pág. 83); Russell y Norvig (2021, pág. 997)
  219. ^ Cristiano (2020), pág. 91.
  220. ^ Cristiano (2020), pág. 83.
  221. ^ Verma (2021).
  222. ^ Rothman (2020).
  223. ^ Christian (2020), págs. 105–108.
  224. ^ Christian (2020), págs. 108-112.
  225. ^ Ropek, Lucas (21 de mayo de 2024). «Nueva investigación antrópica arroja luz sobre la 'caja negra' de la IA». Gizmodo . Consultado el 23 de mayo de 2024 .
  226. ^ Russell y Norvig (2021), pág. 989.
  227. ^ desde Russell y Norvig (2021), págs. 987–990.
  228. ^ Russell y Norvig (2021), pág. 988.
  229. ^ Robitzski (2018); Sainato (2015)
  230. ^ Harari (2018).
  231. ^ Buckley, Chris; Mozur, Paul (22 de mayo de 2019). "Cómo China utiliza la vigilancia de alta tecnología para someter a las minorías". The New York Times .
  232. ^ "Un fallo de seguridad expuso un sistema de vigilancia de una ciudad inteligente china". 3 de mayo de 2019. Archivado desde el original el 7 de marzo de 2021. Consultado el 14 de septiembre de 2020 .
  233. ^ Urbina y col. (2022).
  234. ^ ab E. McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica' (2022), 51(3) Industrial Law Journal 511–559. Archivado el 27 de mayo de 2023 en Wayback Machine .
  235. ^ Ford y Colvin (2015); McGaughey (2022)
  236. ^ Grupo de investigación de mercado de Chicago (2017).
  237. ^ Arntz, Gregory y Zierahn (2016), pág. 33.
  238. ^ Lohr (2017); Frey y Osborne (2017); Arntz, Gregory y Zierahn (2016, pág. 33)
  239. ^ Zhou, Viola (11 de abril de 2023). «La IA ya está robando puestos de trabajo a los ilustradores de videojuegos en China». Resto del mundo . Consultado el 17 de agosto de 2023 .
  240. ^ Carter, Justin (11 de abril de 2023). "Según se informa, la industria del arte de los videojuegos de China ha sido diezmada por el creciente uso de la IA". Game Developer . Consultado el 17 de agosto de 2023 .
  241. ^ Morgenstern (2015).
  242. ^ Mahdawi (2017); Thompson (2014)
  243. ^ Tarnoff, Ben (4 de agosto de 2023). "Lecciones de Eliza". The Guardian Weekly . págs. 34–39.
  244. ^ Cellan-Jones (2014).
  245. ^ Russell y Norvig 2021, pág. 1001.
  246. ^ Bostrom (2014).
  247. ^ Russell (2019).
  248. ^ Bostrom (2014); Müller y Bostrom (2014); Bostrom (2015).
  249. ^ Harari (2023).
  250. ^ Müller y Bostrom (2014).
  251. ^ Preocupaciones de los líderes sobre los riesgos existenciales de la IA en torno a 2015:
    • Rawlinson (2015)
    • Holly (2015)
    • Gibbs (2014)
    • Sainato (2015)
  252. ^ "El "padrino de la inteligencia artificial" habla del impacto y el potencial de la nueva IA". CBS News . 25 de marzo de 2023. Archivado desde el original el 28 de marzo de 2023 . Consultado el 28 de marzo de 2023 .
  253. ^ Pittis, Don (4 de mayo de 2023). "El líder canadiense en inteligencia artificial, Geoffrey Hinton, aumenta los temores de una toma de control por parte de las computadoras". CBC .
  254. ^ "'Hay un 50-50 de posibilidades' de que la IA sea más inteligente que la humanidad, dice Geoffrey Hinton". Bloomberg BNN . 14 de junio de 2024 . Consultado el 6 de julio de 2024 .
  255. ^ Cenefa (2023).
  256. ^ Taylor, Josh (7 de mayo de 2023). «El auge de la inteligencia artificial es inevitable, pero no hay que temerle, dice el 'padre de la IA'». The Guardian . Consultado el 26 de mayo de 2023 .
  257. ^ Colton, Emma (7 de mayo de 2023). "El 'padre de la IA' dice que los temores tecnológicos son infundados: 'No se puede detener'". Fox News . Consultado el 26 de mayo de 2023 .
  258. ^ Jones, Hessie (23 de mayo de 2023). «Juergen Schmidhuber, reconocido como el «padre de la inteligencia artificial moderna», afirma que el trabajo de su vida no conducirá a una distopía». Forbes . Consultado el 26 de mayo de 2023 .
  259. ^ McMorrow, Ryan (19 de diciembre de 2023). «Andrew Ng: '¿Creemos que el mundo está mejor con más o menos inteligencia?'». Financial Times . Consultado el 30 de diciembre de 2023 .
  260. ^ Levy, Steven (22 de diciembre de 2023). "Cómo no ser estúpido con la IA, con Yann LeCun". Wired . Consultado el 30 de diciembre de 2023 .
  261. ^ Argumentos que demuestran que la IA no es un riesgo inminente:
    • Brooks (2014)
    • Espíritu (2015)
    • Madrigal (2015)
    • Lee (2014)
  262. ^ ab Christian (2020), págs. 67, 73.
  263. ^ Yudkowsky (2008).
  264. ^ desde Anderson y Anderson (2011).
  265. ^ Asociación Internacional de Agentes Inmobiliarios (AIA) (2014).
  266. ^ Villanueva (2009).
  267. ^ Russell (2019), pág. 173.
  268. ^ Stewart, Ashley; Melton, Monica. "El director ejecutivo de Hugging Face dice que está centrado en construir un 'modelo sostenible' para la startup de inteligencia artificial de código abierto valorada en 4500 millones de dólares". Business Insider . Consultado el 14 de abril de 2024 .
  269. ^ Wiggers, Kyle (9 de abril de 2024). "Google abre herramientas de código abierto para respaldar el desarrollo de modelos de IA". TechCrunch . Consultado el 14 de abril de 2024 .
  270. ^ Heaven, Will Douglas (12 de mayo de 2023). "El auge de la inteligencia artificial de código abierto se basa en las dádivas de las grandes tecnológicas. ¿Cuánto durará?". MIT Technology Review . Consultado el 14 de abril de 2024 .
  271. ^ Brodsky, Sascha (19 de diciembre de 2023). "El nuevo modelo de lenguaje de Mistral AI apunta a la supremacía del código abierto". AI Business .
  272. ^ Edwards, Benj (22 de febrero de 2024). «Stability anuncia Stable Diffusion 3, un generador de imágenes de IA de última generación». Ars Technica . Consultado el 14 de abril de 2024 .
  273. ^ Marshall, Matt (29 de enero de 2024). "Cómo las empresas utilizan los LLM de código abierto: 16 ejemplos". VentureBeat .
  274. ^ Piper, Kelsey (2 de febrero de 2024). "¿Deberíamos hacer que nuestros modelos de IA más potentes sean de código abierto para todos?". Vox . Consultado el 14 de abril de 2024 .
  275. ^ Instituto Alan Turing (2019). "Comprender la ética y la seguridad de la inteligencia artificial" (PDF) .
  276. ^ Instituto Alan Turing (2023). "Ética y gobernanza de la IA en la práctica" (PDF) .
  277. ^ Floridi, Luciano; Cowls, Josh (23 de junio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Harvard Data Science Review . 1 (1). doi : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  278. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (1 de septiembre de 2020). "Una perspectiva crítica sobre las directrices para una inteligencia artificial responsable y confiable". Medicina, atención médica y filosofía . 23 (3): 387–399. doi :10.1007/s11019-020-09948-1. ISSN  1572-8633. PMID  32236794. S2CID  214766800.
  279. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (1 de enero de 2023). "Cuestiones éticas en el desarrollo de la inteligencia artificial: reconocer los riesgos". Revista Internacional de Ética y Sistemas . antes de la impresión (antes de la impresión). doi :10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  280. ^ "AI Safety Institute lanza una nueva plataforma de evaluación de seguridad de IA". Gobierno del Reino Unido. 10 de mayo de 2024. Consultado el 14 de mayo de 2024 .
  281. ^ Regulación de la IA para mitigar riesgos:
    • Berryhill y otros (2019)
    • Barfield y Pagallo (2018)
    • Iphofen y Critikos (2019)
    • Wirtz, Weyerer y Geyer (2018)
    • Buiten (2019)
  282. ^ por Vincent (2023).
  283. ^ Universidad de Stanford (2023).
  284. ^abcd UNESCO (2021).
  285. ^ Kissinger (2021).
  286. ^ Altman, Brockman y Sutskever (2023).
  287. ^ VOA News (25 de octubre de 2023). "La ONU anuncia un órgano asesor sobre inteligencia artificial".
  288. ^ "El Consejo de Europa abre a la firma el primer tratado mundial sobre IA". Consejo de Europa . 5 de septiembre de 2024 . Consultado el 17 de septiembre de 2024 .
  289. ^ Edwards (2023).
  290. ^ Kasperowicz (2023).
  291. ^ Fox Noticias (2023).
  292. ^ Milmo, Dan (3 de noviembre de 2023). «¿Esperanza u horror? El gran debate sobre la IA que divide a sus pioneros». The Guardian Weekly . págs. 10-12.
  293. ^ "Declaración de Bletchley de los países que asistirán a la Cumbre sobre seguridad de la IA, 1 y 2 de noviembre de 2023". GOV.UK . 1 de noviembre de 2023. Archivado desde el original el 1 de noviembre de 2023 . Consultado el 2 de noviembre de 2023 .
  294. ^ "Los países acuerdan un desarrollo seguro y responsable de la IA de vanguardia en la histórica Declaración de Bletchley". GOV.UK (Comunicado de prensa). Archivado desde el original el 1 de noviembre de 2023. Consultado el 1 de noviembre de 2023 .
  295. ^ "La segunda cumbre mundial sobre inteligencia artificial garantiza compromisos de seguridad por parte de las empresas". Reuters. 21 de mayo de 2024. Consultado el 23 de mayo de 2024 .
  296. ^ "Compromisos de seguridad de la IA en la frontera, Cumbre de Seúl sobre IA de 2024". gov.uk. 21 de mayo de 2024. Archivado desde el original el 23 de mayo de 2024. Consultado el 23 de mayo de 2024 .
  297. ^ desde Russell y Norvig 2021, pág. 9.
  298. ^ abc Copeland, J., ed. (2004). El Turing esencial: las ideas que dieron origen a la era informática . Oxford, Inglaterra: Clarendon Press. ISBN 0-19-825079-7.
  299. ^ "Libros de Google ngram".
  300. ^ Los precursores inmediatos de la IA:
    • McCorduck (2004, págs. 51-107)
    • Crevier (1993, págs. 27-32)
    • Russell y Norvig (2021, págs. 8-17)
    • Moravec (1988, pág. 3)
  301. ^ Publicación original de la prueba de Turing en " Computing machinery and intelligence ":
    • Turing (1950)
    Influencia histórica e implicaciones filosóficas:
    • Haugeland (1985, págs. 6-9)
    • Crevier (1993, pág. 24)
    • McCorduck (2004, págs. 70-71)
    • Russell y Norvig (2021, págs. 2, 984)
  302. ^ Crevier (1993), págs. 47–49.
  303. ^ Russell y Norvig (2003), pág. 17.
  304. ^ Russell y Norvig (2003), pág. 18.
  305. ^ Newquist (1994), págs. 86–86.
  306. ^ Simon (1965, p. 96) citado en Crevier (1993, p. 109)
  307. ^ Minsky (1967, p. 2) citado en Crevier (1993, p. 109)
  308. ^ Russell y Norvig (2021), pág. 21.
  309. ^ Little (1973).
  310. ^ NRC 1999, págs. 212-213.
  311. ^ Russell y Norvig (2021), pág. 22.
  312. ^ Sistemas expertos :
    • Russell y Norvig (2021, págs. 23, 292)
    • Luger y Stubblefield (2004, págs. 227-331)
    • Nilsson (1998, cap. 17.4)
    • McCorduck (2004, págs. 327–335, 434–435)
    • Crevier (1993, págs. 145-162, 197-203)
    • Newquist (1994, págs. 155-183)
  313. ^ Russell y Norvig (2021), pág. 24.
  314. ^ Nilsson (1998), pág. 7.
  315. ^ McCorduck (2004), págs. 454–462.
  316. ^ Moravec (1988).
  317. ^ por Brooks (1990).
  318. ^ Robótica del desarrollo :
    • Weng y otros (2001)
    • Lungarella y otros (2003)
    • Asada y otros (2009)
    • Odeyer (2010)
  319. ^ Russell y Norvig (2021), pág. 25.
  320. ^
    • Crevier (1993, págs. 214-215)
    • Russell y Norvig (2021, págs. 24, 26)
  321. ^ Russell y Norvig (2021), pág. 26.
  322. ^ Métodos formales y estrechos adoptados en la década de 1990:
    • Russell y Norvig (2021, págs. 24-26)
    • McCorduck (2004, págs. 486-487)
  323. ^ La IA se utilizó ampliamente a finales de la década de 1990:
    • Kurzweil (2005, pág. 265)
    • NRC (1999, págs. 216-222)
    • Newquist (1994, págs. 189-201)
  324. ^ Wong (2023).
  325. ^ La Ley de Moore y la IA:
    • Russell y Norvig (2021, págs. 14, 27)
  326. ^ abc Clark (2015b).
  327. ^ Grandes datos :
    • Russell y Norvig (2021, pág. 26)
  328. ^ Sagar, Ram (3 de junio de 2020). «OpenAI lanza GPT-3, el modelo más grande hasta ahora». Revista Analytics India . Archivado desde el original el 4 de agosto de 2020. Consultado el 15 de marzo de 2023 .
  329. ^ DiFeliciantonio (2023).
  330. ^ George (2008).
  331. ^ desde Turing (1950), pág. 1.
  332. ^ Turing (1950), bajo "El argumento de la conciencia".
  333. ^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 de octubre de 2023). "La IA está más cerca que nunca de pasar la prueba de Turing de 'inteligencia'. ¿Qué sucede cuando lo logra?". The Conversation . Consultado el 17 de agosto de 2024 .
  334. ^ Russell y Norvig (2021), pág. 3.
  335. ^ Creador (2006).
  336. ^ McCarthy (1999).
  337. ^ Michael S. (1986).
  338. ^ "¿Qué es la inteligencia artificial (IA)?". Google Cloud Platform . Archivado desde el original el 31 de julio de 2023. Consultado el 16 de octubre de 2023 .
  339. ^ "Uno de los mayores problemas a la hora de regular la IA es llegar a un acuerdo sobre una definición". carnegieendowment.org . Consultado el 31 de julio de 2024 .
  340. ^ "¿IA o tonterías? Cómo saber si una herramienta de marketing realmente utiliza inteligencia artificial". The Drum . Consultado el 31 de julio de 2024 .
  341. ^ Nilsson (1983), pág. 10.
  342. ^ Haugeland (1985), págs. 112-117.
  343. ^ Hipótesis del sistema de símbolos físicos:
    • Newell y Simon (1976, pág. 116)
    Importancia histórica:
    • McCorduck (2004, pág. 153)
    • Russell y Norvig (2021, pág. 19)
  344. ^ La paradoja de Moravec :
    • Moravec (1988, págs. 15-16)
    • Minsky (1986, pág. 29)
    • Pinker (2007, págs. 190-191)
  345. ^ La crítica de Dreyfus a la IA :
    • Dreyfus (1972)
    • Dreyfus y Dreyfus (1986)
    Importancia histórica e implicaciones filosóficas:
    • Crevier (1993, págs. 120-132)
    • McCorduck (2004, págs. 211-239)
    • Russell y Norvig (2021, págs. 981-982)
    • Miedo (2007, cap. 3)
  346. ^ Crevier (1993), pág. 125.
  347. ^ Langley (2011).
  348. ^ Katz (2012).
  349. ^ Neats vs. scruffies , el debate histórico:
    • McCorduck (2004, págs. 421–424, 486–489)
    • Crevier (1993, pág. 168)
    • Nilsson (1983, págs. 10-11)
    • Russell y Norvig (2021, pág. 24)
    Un ejemplo clásico del enfoque "desaliñado" de la inteligencia:
    • Minsky (1986)
    Un ejemplo moderno de IA ordenada y sus aspiraciones en el siglo XXI:
    • Domingos (2015)
  350. ^ Pennachin y Goertzel (2007).
  351. ^Por Roberts (2016).
  352. ^ Russell y Norvig (2021), pág. 986.
  353. ^ Chalmers (1995).
  354. ^ Dennett (1991).
  355. ^ Horst (2005).
  356. ^ Searle (1999).
  357. ^ Searle (1980), pág. 1.
  358. ^ Russell y Norvig (2021), pág. 9817.
  359. ^ El argumento de la habitación china de Searle :
    • Searle (1980). Presentación original de Searle del experimento mental.
    • Searle (1999).
    Discusión:
    • Russell y Norvig (2021, pág. 985)
    • McCorduck (2004, págs. 443-445)
    • Crevier (1993, págs. 269-271)
  360. ^ Leith, Sam (7 de julio de 2022). «Nick Bostrom: ¿Cómo podemos estar seguros de que una máquina no es consciente?». The Spectator . Consultado el 23 de febrero de 2024 .
  361. ^ abc Thomson, Jonny (31 de octubre de 2022). «¿Por qué los robots no tienen derechos?». Big Think . Consultado el 23 de febrero de 2024 .
  362. ^ ab Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". Time . Consultado el 23 de febrero de 2024 .
  363. ^ Wong, Jeff (10 de julio de 2023). "Lo que los líderes necesitan saber sobre los derechos de los robots". Fast Company .
  364. ^ Hern, Alex (12 de enero de 2017). «Un comité de la UE sostiene que hay que dar a los robots el estatus de «personas»». The Guardian . ISSN  0261-3077 . Consultado el 23 de febrero de 2024 .
  365. ^ Dovey, Dana (14 de abril de 2018). "Los expertos no creen que los robots deban tener derechos". Newsweek . Consultado el 23 de febrero de 2024 .
  366. ^ Cuddy, Alice (13 de abril de 2018). «Los derechos de los robots violan los derechos humanos, advierten los expertos de la UE». euronews . Consultado el 23 de febrero de 2024 .
  367. ^ La explosión de la inteligencia y la singularidad tecnológica :
    • Russell y Norvig (2021, págs. 1004-1005)
    • Omohundro (2008)
    • Kurzweil (2005)
    La “explosión de inteligencia” de IJ Good
    • Bueno (1965)
    La “singularidad” de Vernor Vinge
    • Vinge (1993)
  368. ^ Russell y Norvig (2021), pág. 1005.
  369. ^ Transhumanismo :
    • Moravec (1988)
    • Kurzweil (2005)
    • Russell y Norvig (2021, pág. 1005)
  370. ^ La IA como evolución:
    • Edward Fredkin es citado en McCorduck (2004, p. 401)
    • Mayordomo (1863)
    • Dyson (1998)
  371. ^ La IA en el mito:
    • McCorduck (2004, págs. 4-5)
  372. ^ McCorduck (2004), págs. 340–400.
  373. ^ Buttazzo (2001).
  374. ^ Anderson (2008).
  375. ^ McCaulley (2007).
  376. ^ Galván (1997).

Libros de texto de IA

Los dos libros de texto más utilizados en 2023 (ver el Programa de estudios abierto):

Éstos fueron cuatro de los libros de texto de IA más utilizados en 2008:

Ediciones posteriores:

Otros libros de texto:

Historia de la IA

Otras fuentes

Lectura adicional

Enlaces externos