stringtranslate.com

Inteligencia artificial

Vídeo (subtítulos disponibles) que resume el tema de la inteligencia artificial y presenta algunas de sus implicaciones éticas.

La inteligencia artificial ( IA ) es la inteligencia de las máquinas o el software , a diferencia de la inteligencia de los humanos u otros animales. Es un campo de estudio de la informática que desarrolla y estudia máquinas inteligentes. Estas máquinas pueden denominarse IA.

La tecnología de IA se utiliza ampliamente en la industria, el gobierno y la ciencia. Algunas aplicaciones de alto perfil son: motores de búsqueda web avanzados (por ejemplo, Búsqueda de Google ), sistemas de recomendación (utilizados por YouTube , Amazon y Netflix ), comprensión del habla humana (como Google Assistant , Siri y Alexa ), vehículos autónomos. (p. ej., Waymo ), herramientas generativas y creativas ( ChatGPT y AI art ) y juegos y análisis sobrehumanos en juegos de estrategia (como el ajedrez y el Go ). [1]

Alan Turing fue la primera persona en realizar una investigación sustancial en el campo que llamó Inteligencia Artificial. [2] La inteligencia artificial se fundó como disciplina académica en 1956. [3] El campo pasó por múltiples ciclos de optimismo [4] [5] seguidos de decepción y pérdida de financiación. [6] [7] La ​​financiación y el interés aumentaron enormemente después de 2012, cuando el aprendizaje profundo superó todas las técnicas de IA anteriores, [8] y después de 2017 con la arquitectura transformadora . [9] Esto condujo a la primavera de la IA a principios de la década de 2020, con empresas, universidades y laboratorios con sede abrumadoramente en los Estados Unidos que fueron pioneros en avances significativos en inteligencia artificial. [10]

Los diversos subcampos de la investigación de la IA se centran en objetivos particulares y el uso de herramientas particulares. Los objetivos tradicionales de la investigación en IA incluyen el razonamiento , la representación del conocimiento , la planificación , el aprendizaje , el procesamiento del lenguaje natural , la percepción y el apoyo a la robótica . [a] La inteligencia general (la capacidad de completar cualquier tarea que pueda realizar un ser humano) se encuentra entre los objetivos a largo plazo del campo. [11]

Para resolver estos problemas, los investigadores de IA han adaptado e integrado una amplia gama de técnicas de resolución de problemas, incluida la búsqueda y la optimización matemática , la lógica formal, las redes neuronales artificiales y los métodos basados ​​en estadística , investigación de operaciones y economía . [b] La IA también se basa en la psicología , la lingüística , la filosofía , la neurociencia y otros campos. [12]

Objetivos

El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención y cubren el alcance de la investigación de la IA. [a]

Razonamiento, resolución de problemas.

Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que utilizan los humanos cuando resuelven acertijos o hacen deducciones lógicas. [13] A finales de los años 1980 y 1990, se desarrollaron métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía . [14]

Muchos de estos algoritmos son insuficientes para resolver grandes problemas de razonamiento porque experimentan una "explosión combinatoria": se volvieron exponencialmente más lentos a medida que los problemas crecían. [15] Incluso los humanos rara vez utilizan la deducción paso a paso que las primeras investigaciones sobre IA podrían modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [16] El razonamiento preciso y eficiente es un problema sin resolver.

Representación del conocimiento

Una ontología representa el conocimiento como un conjunto de conceptos dentro de un dominio y las relaciones entre esos conceptos.

La representación del conocimiento y la ingeniería del conocimiento [17] permiten que los programas de IA respondan preguntas de manera inteligente y hagan deducciones sobre hechos del mundo real. Las representaciones de conocimiento formal se utilizan en la indexación y recuperación basada en contenido, [18] interpretación de escenas, [19] apoyo a decisiones clínicas, [20] descubrimiento de conocimiento (extracción de inferencias "interesantes" y procesables de grandes bases de datos), [21] y otras áreas. . [22]

Una base de conocimientos es un conjunto de conocimientos representados en una forma que puede ser utilizada por un programa. Una ontología es el conjunto de objetos, relaciones, conceptos y propiedades utilizados por un dominio particular de conocimiento. [23] Las bases de conocimiento necesitan representar cosas tales como: objetos, propiedades, categorías y relaciones entre objetos; [24] situaciones, acontecimientos, estados y tiempo; [25] causas y efectos; [26] conocimiento sobre el conocimiento (lo que sabemos sobre lo que otras personas saben); [27] razonamiento predeterminado (cosas que los humanos suponen que son ciertas hasta que se las dice de manera diferente y seguirán siendo ciertas incluso cuando otros hechos cambien); [28] y muchos otros aspectos y dominios del conocimiento.

Entre los problemas más difíciles en la representación del conocimiento se encuentran: la amplitud del conocimiento de sentido común (el conjunto de hechos atómicos que la persona promedio conoce es enorme); [29] y la forma subsimbólica de la mayor parte del conocimiento de sentido común (gran parte de lo que la gente sabe no se representa como "hechos" o "declaraciones" que puedan expresar verbalmente). [16] También está la dificultad de la adquisición de conocimientos , el problema de obtener conocimientos para aplicaciones de IA. [C]

Planificación y toma de decisiones.

Un "agente" es cualquier cosa que percibe y actúa en el mundo. Un agente racional tiene objetivos o preferencias y toma medidas para lograrlos. [d] [32] En la planificación automatizada , el agente tiene un objetivo específico. [33] En la toma de decisiones automatizada , el agente tiene preferencias: hay algunas situaciones en las que preferiría estar y otras que está tratando de evitar. El agente que toma las decisiones asigna un número a cada situación (llamado " utilidad ") que mide cuánto la prefiere el agente. Para cada acción posible, puede calcular la " utilidad esperada ": la utilidad de todos los resultados posibles de la acción, ponderada por la probabilidad de que se produzca el resultado. Luego puede elegir la acción con la máxima utilidad esperada. [34]

En la planificación clásica , el agente sabe exactamente cuál será el efecto de cualquier acción. [35] Sin embargo, en la mayoría de los problemas del mundo real, el agente puede no estar seguro de la situación en la que se encuentra (es "desconocida" o "no observable") y puede no saber con certeza qué sucederá después de cada acción posible ( no es "determinista"). Debe elegir una acción haciendo una suposición probabilística y luego reevaluar la situación para ver si la acción funcionó. [36]

En algunos problemas, las preferencias del agente pueden ser inciertas, especialmente si hay otros agentes o humanos involucrados. Estos pueden aprenderse (por ejemplo, con aprendizaje por refuerzo inverso ) o el agente puede buscar información para mejorar sus preferencias. [37] La ​​teoría del valor de la información se puede utilizar para sopesar el valor de acciones exploratorias o experimentales. [38] El espacio de posibles acciones y situaciones futuras suele ser intratablemente grande, por lo que los agentes deben tomar acciones y evaluar situaciones sin estar seguros de cuál será el resultado.

Un proceso de decisión de Markov tiene un modelo de transición que describe la probabilidad de que una acción particular cambie el estado de una manera particular, y una función de recompensa que proporciona la utilidad de cada estado y el costo de cada acción. Una política asocia una decisión a cada estado posible. La política podría calcularse (por ejemplo, mediante iteración ), ser heurística o aprenderse. [39]

La teoría de juegos describe el comportamiento racional de múltiples agentes que interactúan y se utiliza en programas de inteligencia artificial que toman decisiones que involucran a otros agentes. [40]

Aprendiendo

El aprendizaje automático es el estudio de programas que pueden mejorar su desempeño en una tarea determinada de forma automática. [41] Ha sido parte de la IA desde el principio. [mi]

Hay varios tipos de aprendizaje automático. El aprendizaje no supervisado analiza un flujo de datos, encuentra patrones y hace predicciones sin ninguna otra guía. [44] El aprendizaje supervisado requiere que un ser humano etiquete los datos de entrada primero, y se presenta en dos variedades principales: clasificación (donde el programa debe aprender a predecir a qué categoría pertenece la entrada) y regresión (donde el programa debe deducir una función numérica basada en en entrada numérica). [45]

En el aprendizaje por refuerzo, el agente es recompensado por las buenas respuestas y castigado por las malas. El agente aprende a elegir respuestas que se clasifican como "buenas". [46] El aprendizaje por transferencia es cuando el conocimiento adquirido de un problema se aplica a un nuevo problema. [47] El aprendizaje profundo es un tipo de aprendizaje automático que ejecuta entradas a través de redes neuronales artificiales de inspiración biológica para todos estos tipos de aprendizaje. [48]

La teoría del aprendizaje computacional puede evaluar a los alumnos por complejidad computacional , por complejidad de muestra (cuántos datos se requieren) o por otras nociones de optimización . [49]

Procesamiento natural del lenguaje

El procesamiento del lenguaje natural (NLP) [50] permite que los programas lean, escriban y se comuniquen en idiomas humanos como el inglés . Los problemas específicos incluyen reconocimiento de voz , síntesis de voz , traducción automática , extracción de información , recuperación de información y respuesta a preguntas . [51]

Los primeros trabajos, basados ​​en la gramática generativa y las redes semánticas de Noam Chomsky , tenían dificultades con la desambiguación del sentido de las palabras [f] a menos que se limitaran a pequeños dominios llamados " micromundos " (debido al problema del conocimiento del sentido común [29] ). Margaret Masterman creía que era el significado, y no la gramática, la clave para comprender los idiomas, y que los tesauros y no los diccionarios deberían ser la base de la estructura computacional del lenguaje.

Las técnicas modernas de aprendizaje profundo para PNL incluyen la incrustación de palabras (que representan palabras, generalmente como vectores que codifican su significado), [52] transformadores (una arquitectura de aprendizaje profundo que utiliza un mecanismo de atención ), [53] y otras. [54] En 2019, los modelos de lenguaje generativo transformador previamente entrenado (o "GPT") comenzaron a generar texto coherente, [55] [56] y para 2023 estos modelos pudieron obtener puntuaciones de nivel humano en el examen de la barra , SAT. prueba, prueba GRE y muchas otras aplicaciones del mundo real. [57]

Percepción

La percepción de la máquina es la capacidad de utilizar entradas de sensores (como cámaras, micrófonos, señales inalámbricas, lidar activo , sonar, radar y sensores táctiles ) para deducir aspectos del mundo. La visión por computadora es la capacidad de analizar información visual. [58]

El campo incluye reconocimiento de voz , [59] clasificación de imágenes , [60] reconocimiento facial , reconocimiento de objetos , [61] y percepción robótica . [62]

Inteligencia social

Kismet , una cabeza de robot que se fabricó en los años 1990; una máquina que puede reconocer y simular emociones. [63]

La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan los sentimientos, las emociones y el estado de ánimo humanos . [64] Por ejemplo, algunos asistentes virtuales están programados para hablar en forma conversacional o incluso para bromear con humor; los hace parecer más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción entre humanos y computadoras .

Sin embargo, esto tiende a dar a los usuarios ingenuos una concepción poco realista de la inteligencia de los agentes informáticos existentes. [65] Los éxitos moderados relacionados con la informática afectiva incluyen el análisis de sentimientos textuales y, más recientemente, el análisis de sentimientos multimodal , en el que la IA clasifica los afectos mostrados por un sujeto grabado en vídeo. [66]

Inteligencia general

Una máquina con inteligencia artificial general debería ser capaz de resolver una amplia variedad de problemas con una amplitud y versatilidad similar a la inteligencia humana. [11]

Técnicas

La investigación de IA utiliza una amplia variedad de técnicas para lograr los objetivos anteriores. [b]

Búsqueda y optimización

La IA puede resolver muchos problemas buscando inteligentemente entre muchas soluciones posibles. [67] Hay dos tipos muy diferentes de búsqueda utilizados en IA: búsqueda en el espacio de estados y búsqueda local .

Búsqueda de espacio de estados

La búsqueda en el espacio de estados busca a través de un árbol de estados posibles para intentar encontrar un estado objetivo. [68] Por ejemplo, los algoritmos de planificación buscan a través de árboles de metas y submetas, intentando encontrar un camino hacia una meta objetivo, un proceso llamado análisis de medios-fines . [69]

Las búsquedas exhaustivas simples [70] rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (el número de lugares para buscar) crece rápidamente hasta alcanzar cifras astronómicas . El resultado es una búsqueda demasiado lenta o que nunca se completa. [15] La " heurística " o las "reglas generales" pueden ayudar a priorizar las opciones que tienen más probabilidades de alcanzar un objetivo. [71]

La búsqueda adversaria se utiliza para programas de juegos , como ajedrez o Go. Busca en un árbol de posibles movimientos y contramovimientos, buscando una posición ganadora. [72]

Busqueda local

Ilustración del descenso de gradiente para 3 puntos de partida diferentes. Se ajustan dos parámetros (representados por las coordenadas del plano) para minimizar la función de pérdida (la altura).

La búsqueda local utiliza optimización matemática para encontrar una solución a un problema. Comienza con algún tipo de conjetura y la refina gradualmente. [73]

El descenso de gradiente es un tipo de búsqueda local que optimiza un conjunto de parámetros numéricos ajustándolos incrementalmente para minimizar una función de pérdida . Las variantes del descenso de gradiente se utilizan habitualmente para entrenar redes neuronales. [74]

Otro tipo de búsqueda local es la computación evolutiva , que tiene como objetivo mejorar iterativamente un conjunto de soluciones candidatas "mutándolas" y "recombinándolas", seleccionando sólo las más aptas para sobrevivir en cada generación. [75]

Los procesos de búsqueda distribuidos pueden coordinarse mediante algoritmos de inteligencia de enjambre . Dos algoritmos de enjambre populares utilizados en la búsqueda son la optimización de enjambre de partículas (inspirada en las bandadas de aves ) y la optimización de colonias de hormigas (inspirada en los senderos de hormigas ). [76]

Lógica

La lógica formal se utiliza para el razonamiento y la representación del conocimiento . [77] La ​​lógica formal se presenta en dos formas principales: lógica proposicional (que opera con afirmaciones que son verdaderas o falsas y utiliza conectivos lógicos como "y", "o", "no" e "implica") [78] y predicado. lógica (que también opera sobre objetos, predicados y relaciones y utiliza cuantificadores como " Cada X es una Y " y "Hay algunas X que son Y "). [79]

La inferencia lógica (o deducción ) es el proceso de probar un nuevo enunciado ( conclusión ) a partir de otros enunciados que ya se sabe que son verdaderos (las premisas ). [80] Una base de conocimiento lógico también maneja consultas y afirmaciones como un caso especial de inferencia. [81] Una regla de inferencia describe cuál es un paso válido en una prueba. La regla de inferencia más general es la resolución . [82] La inferencia se puede reducir a realizar una búsqueda para encontrar un camino que conduzca de las premisas a las conclusiones, donde cada paso es la aplicación de una regla de inferencia . [83] La inferencia realizada de esta manera es intratable excepto para pruebas breves en dominios restringidos. No se ha descubierto ningún método eficaz, potente y general.

La lógica difusa asigna un "grado de verdad" entre 0 y 1. Por lo tanto, puede manejar proposiciones vagas y parcialmente verdaderas. [84] Las lógicas no monótonas están diseñadas para manejar el razonamiento predeterminado . [28] Se han desarrollado otras versiones especializadas de la lógica para describir muchos dominios complejos (ver representación del conocimiento arriba).

Métodos probabilísticos para razonamiento incierto.

Una red bayesiana simple , con las tablas de probabilidad condicional asociadas .

Muchos problemas de la IA (incluidos los de razonamiento, planificación, aprendizaje, percepción y robótica) requieren que el agente opere con información incompleta o incierta. Los investigadores de IA han ideado una serie de herramientas para resolver estos problemas utilizando métodos de la teoría de la probabilidad y la economía. [85]

Las redes bayesianas [86] son ​​una herramienta muy general que se puede utilizar para muchos problemas, incluido el razonamiento (utilizando el algoritmo de inferencia bayesiano ), [g] [88] el aprendizaje (utilizando el algoritmo de maximización de expectativas ), [h] [90] planificación (usando redes de decisión ) [91] y percepción (usando redes bayesianas dinámicas ). [92]

Los algoritmos probabilísticos también se pueden utilizar para filtrar, predecir, suavizar y encontrar explicaciones para flujos de datos, ayudando a los sistemas de percepción a analizar procesos que ocurren a lo largo del tiempo (por ejemplo, modelos ocultos de Markov o filtros de Kalman ). [92]

Se han desarrollado herramientas matemáticas precisas que analizan cómo un agente puede tomar decisiones y planificar, utilizando la teoría de la decisión , el análisis de la decisión [93] y la teoría del valor de la información . [94] Estas herramientas incluyen modelos como los procesos de decisión de Markov , [95] redes de decisión dinámicas , [92] teoría de juegos y diseño de mecanismos . [96]

La agrupación de maximización de expectativas de los datos de la erupción del Old Faithful comienza a partir de una suposición aleatoria pero luego converge con éxito en una agrupación precisa de los dos modos de erupción físicamente distintos.

Clasificadores y métodos de aprendizaje estadístico.

Las aplicaciones de IA más simples se pueden dividir en dos tipos: clasificadores (por ejemplo, "si es brillante, entonces diamante"), por un lado, y controladores (por ejemplo, "si es diamante, entonces recoja"), por el otro. Los clasificadores [97] son ​​funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Se pueden ajustar en función de ejemplos elegidos mediante el aprendizaje supervisado . Cada patrón (también llamado " observación ") está etiquetado con una determinada clase predefinida. Todas las observaciones combinadas con sus etiquetas de clase se conocen como conjunto de datos . Cuando se recibe una nueva observación, esa observación se clasifica según la experiencia previa. [45]

Se utilizan muchos tipos de clasificadores. El árbol de decisión es el algoritmo de aprendizaje automático simbólico más simple y más utilizado. [98] El algoritmo K-vecino más cercano fue la IA analógica más utilizada hasta mediados de la década de 1990, y los métodos Kernel como la máquina de vectores de soporte (SVM) desplazaron al k-vecino más cercano en la década de 1990. [99] Se informa que el ingenuo clasificador Bayes es el "aprendiz más utilizado" [100] en Google, debido en parte a su escalabilidad. [101] Las redes neuronales también se utilizan como clasificadores. [102]

Redes neuronales artificiales

Una red neuronal es un grupo de nodos interconectados, similar a la vasta red de neuronas del cerebro humano .

Una red neuronal artificial se basa en una colección de nodos, también conocidos como neuronas artificiales , que modelan vagamente las neuronas de un cerebro biológico. Está entrenado para reconocer patrones y, una vez entrenado, puede reconocer esos patrones en datos nuevos. Hay una entrada, al menos una capa oculta de nodos y una salida. Cada nodo aplica una función y una vez que el peso cruza su umbral especificado, los datos se transmiten a la siguiente capa. Una red suele denominarse red neuronal profunda si tiene al menos 2 capas ocultas. [102]

Los algoritmos de aprendizaje para redes neuronales utilizan la búsqueda local para elegir los pesos que obtendrán el resultado correcto para cada entrada durante el entrenamiento. La técnica de entrenamiento más común es el algoritmo de retropropagación . [103] Las redes neuronales aprenden a modelar relaciones complejas entre entradas y salidas y a encontrar patrones en los datos. En teoría, una red neuronal puede aprender cualquier función. [104]

En las redes neuronales feedforward la señal pasa en una sola dirección. [105] Las redes neuronales recurrentes retroalimentan la señal de salida a la entrada, lo que permite recuerdos a corto plazo de eventos de entrada anteriores. La memoria a largo plazo es la arquitectura de red más exitosa para redes recurrentes. [106] Los perceptrones [107] usan solo una capa de neuronas, el aprendizaje profundo [108] usa múltiples capas. Las redes neuronales convolucionales fortalecen la conexión entre neuronas que están "cercas" entre sí; esto es especialmente importante en el procesamiento de imágenes , donde un conjunto local de neuronas debe identificar un "borde" antes de que la red pueda identificar un objeto. [109]

Aprendizaje profundo

El aprendizaje profundo [108] utiliza varias capas de neuronas entre las entradas y salidas de la red. Las múltiples capas pueden extraer progresivamente características de nivel superior a partir de la entrada sin procesar. Por ejemplo, en el procesamiento de imágenes , las capas inferiores pueden identificar bordes, mientras que las capas superiores pueden identificar conceptos relevantes para un ser humano, como dígitos, letras o rostros. [110]

El aprendizaje profundo ha mejorado profundamente el rendimiento de los programas en muchos subcampos importantes de la inteligencia artificial, incluida la visión por computadora , el reconocimiento de voz , el procesamiento del lenguaje natural , la clasificación de imágenes [111] y otros. La razón por la que el aprendizaje profundo funciona tan bien en tantas aplicaciones no se conoce hasta 2023. [112] El repentino éxito del aprendizaje profundo en 2012-2015 no se produjo debido a algún nuevo descubrimiento o avance teórico (las redes neuronales profundas y la retropropagación habían sido descrito por muchas personas, ya en la década de 1950) [i] sino debido a dos factores: el increíble aumento en la potencia de la computadora (incluido el aumento de cien veces en la velocidad al cambiar a GPU ) y la disponibilidad de grandes cantidades de capacitación datos, especialmente los conjuntos de datos gigantes seleccionados que se utilizan para pruebas comparativas, como ImageNet . [j]

GPT

Los transformadores generativos preentrenados (GPT) son grandes modelos de lenguaje que se basan en las relaciones semánticas entre palabras en oraciones ( procesamiento del lenguaje natural ). Los modelos GPT basados ​​en texto están pre-entrenados en un gran corpus de texto que puede ser de Internet. El preentrenamiento consiste en predecir el siguiente token (un token suele ser una palabra, subpalabra o puntuación). A lo largo de este entrenamiento previo, los modelos GPT acumulan conocimiento sobre el mundo y luego pueden generar texto similar al humano al predecir repetidamente el siguiente token. Normalmente, una fase de entrenamiento posterior hace que el modelo sea más veraz, útil e inofensivo, generalmente con una técnica llamada aprendizaje por refuerzo a partir de retroalimentación humana (RLHF). Los modelos GPT actuales todavía son propensos a generar falsedades llamadas " alucinaciones ", aunque esto se puede reducir con RLHF y datos de calidad. Se utilizan en chatbots que le permiten hacer una pregunta o solicitar una tarea en texto simple. [121] [122]

Los modelos y servicios actuales incluyen: Bard , ChatGPT , Grok , Claude , Copilot y LLaMA . [123] Los modelos GPT multimodales pueden procesar diferentes tipos de datos ( modalidades ), como imágenes, vídeos, sonido y texto. [124]

Hardware y software especializados

A finales de la década de 2010, las unidades de procesamiento de gráficos (GPU), que se diseñaban cada vez más con mejoras específicas de IA y se usaban con software especializado TensorFlow , habían reemplazado a las unidades centrales de procesamiento (CPU) utilizadas anteriormente como medio dominante para las operaciones a gran escala (comerciales y académicas). Entrenamiento de modelos de aprendizaje automático . [125] Históricamente, se habían utilizado lenguajes especializados, como Lisp , Prolog , Python y otros.

Aplicaciones

La tecnología de inteligencia artificial y aprendizaje automático se utiliza en la mayoría de las aplicaciones esenciales de la década de 2020, incluidos: motores de búsqueda (como la Búsqueda de Google ), publicidad dirigida en línea , sistemas de recomendación (ofrecidos por Netflix , YouTube o Amazon ), conducción del tráfico de Internet , publicidad dirigida. ( AdSense , Facebook ), asistentes virtuales (como Siri o Alexa ), vehículos autónomos (incluidos drones , ADAS y coches autónomos ), traducción automática de idiomas ( Microsoft Translator , Google Translate ), reconocimiento facial ( Face ID de Apple o DeepFace de Microsoft y FaceNet de Google ) y etiquetado de imágenes (utilizado por Facebook , iPhoto de Apple y TikTok ).

Salud y Medicina

La aplicación de la IA en la medicina y la investigación médica tiene el potencial de aumentar la atención al paciente y la calidad de vida. [126] A través de la lente del Juramento Hipocrático , los profesionales médicos están éticamente obligados a utilizar IA, si las aplicaciones pueden diagnosticar y tratar a los pacientes con mayor precisión.

Para la investigación médica, la IA es una herramienta importante para procesar e integrar Big Data . Esto es particularmente importante para el desarrollo de la ingeniería de organoides y tejidos que utilizan imágenes de microscopía como técnica clave en la fabricación. [127] Se ha sugerido que la IA puede superar las discrepancias en la financiación asignada a diferentes campos de investigación. [127] Las nuevas herramientas de IA pueden profundizar nuestra comprensión de las vías biomédicamente relevantes. Por ejemplo, AlphaFold 2 (2021) demostró la capacidad de aproximarse, en horas en lugar de meses, a la estructura 3D de una proteína. [128] En 2023, se informó que el descubrimiento de fármacos guiado por la IA ayudó a encontrar una clase de antibióticos capaces de matar dos tipos diferentes de bacterias resistentes a los medicamentos. [129]

Juegos

Los programas de juegos se han utilizado desde la década de 1950 para demostrar y probar las técnicas más avanzadas de la IA. [130] Deep Blue se convirtió en el primer sistema de juego de ajedrez por computadora en vencer al actual campeón mundial de ajedrez, Garry Kasparov , el 11 de mayo de 1997. [131] En 2011, en Jeopardy! En el concurso de exhibición del concurso , el sistema de respuesta a preguntas de IBM , Watson , derrotó a los dos mayores Jeopardy! campeones, Brad Rutter y Ken Jennings , por un margen significativo. [132] En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go Lee Sedol , convirtiéndose en el primer sistema informático de juego de Go en vencer a un jugador profesional de Go sin desventajas . Luego, en 2017, derrotó a Ke Jie , que era el mejor jugador de Go del mundo. [133] Otros programas manejan juegos con información imperfecta , como el programa de póquer Pluribus [134] . DeepMind desarrolló modelos de aprendizaje por refuerzo cada vez más generalistas , como MuZero , que podrían entrenarse para jugar ajedrez, Go o Atari . [135] En 2019, AlphaStar de DeepMind alcanzó el nivel de gran maestro en StarCraft II , un juego de estrategia en tiempo real particularmente desafiante que implica un conocimiento incompleto de lo que sucede en el mapa. [136] En 2021, un agente de IA compitió en una competencia de Playstation Gran Turismo y ganó contra cuatro de los mejores conductores de Gran Turismo del mundo utilizando el aprendizaje por refuerzo profundo. [137]

Militar

Varios países están implementando aplicaciones militares de IA. Las principales aplicaciones mejoran el mando y control , las comunicaciones, los sensores, la integración y la interoperabilidad. La investigación se centra en la recopilación y el análisis de inteligencia, la logística, las operaciones cibernéticas, las operaciones de información y los vehículos semiautónomos y autónomos . Las tecnologías de IA permiten la coordinación de sensores y efectores, la detección e identificación de amenazas, el marcado de posiciones enemigas, la adquisición de objetivos , la coordinación y la eliminación de conflictos de fuegos conjuntos distribuidos entre vehículos de combate en red que involucran equipos tripulados y no tripulados. La IA se incorporó a operaciones militares en Irak y Siria.

En noviembre de 2023, la vicepresidenta de Estados Unidos, Kamala Harris, reveló una declaración firmada por 31 naciones para establecer barreras para el uso militar de IA. Los compromisos incluyen el uso de revisiones legales para garantizar el cumplimiento de la IA militar con las leyes internacionales y ser cautelosos y transparentes en el desarrollo de esta tecnología. [138]

IA generativa

Vincent van Gogh en acuarela creado por software de IA generativa

A principios de la década de 2020, la IA generativa ganó una prominencia generalizada. En marzo de 2023, el 58% de los adultos estadounidenses había oído hablar de ChatGPT y el 14% lo había probado. [139] El creciente realismo y la facilidad de uso de los generadores de texto a imágenes basados ​​en IA , como Midjourney , DALL-E y Stable Diffusion, provocaron una tendencia de fotografías virales generadas por IA. Una fotografía falsa del Papa Francisco con un abrigo acolchado blanco, el arresto ficticio de Donald Trump y el engaño de un ataque al Pentágono , así como su uso en artes creativas profesionales, atrajeron gran atención . [140] [141]

Tareas específicas de la industria

También hay miles de aplicaciones de IA exitosas que se utilizan para resolver problemas específicos de industrias o instituciones específicas. En una encuesta de 2017, una de cada cinco empresas informó que había incorporado "IA" en algunas ofertas o procesos. [142] Algunos ejemplos son el almacenamiento de energía , el diagnóstico médico, la logística militar, las aplicaciones que predicen el resultado de decisiones judiciales, la política exterior o la gestión de la cadena de suministro.

En agricultura, la IA ha ayudado a los agricultores a identificar áreas que necesitan riego, fertilización, tratamientos con pesticidas o aumentar el rendimiento. Los agrónomos utilizan la IA para realizar investigación y desarrollo. La IA se ha utilizado para predecir el tiempo de maduración de cultivos como los tomates, monitorear la humedad del suelo, operar robots agrícolas, realizar análisis predictivos, clasificar las emociones de los llamados de los cerdos, automatizar invernaderos, detectar enfermedades y plagas y ahorrar agua.

La inteligencia artificial se utiliza en astronomía para analizar cantidades cada vez mayores de datos y aplicaciones disponibles, principalmente para "clasificación, regresión, agrupación, predicción, generación, descubrimiento y desarrollo de nuevos conocimientos científicos", por ejemplo para descubrir exoplanetas, pronosticar la actividad solar y distinguir entre señales y efectos instrumentales en astronomía de ondas gravitacionales. También podría usarse para actividades en el espacio como la exploración espacial, incluido el análisis de datos de misiones espaciales, decisiones científicas de naves espaciales en tiempo real, prevención de desechos espaciales y operaciones más autónomas.

Ética

La IA, como cualquier tecnología poderosa, tiene beneficios y riesgos potenciales. La IA puede ser capaz de hacer avanzar la ciencia y encontrar soluciones a problemas graves: Demis Hassabis de Deep Mind espera "resolver la inteligencia y luego usarla para resolver todo lo demás". [143] Sin embargo, a medida que el uso de la IA se ha generalizado, se han identificado varias consecuencias y riesgos no deseados. [144]

Cualquiera que desee utilizar el aprendizaje automático como parte de sistemas de producción del mundo real debe tener en cuenta la ética en sus procesos de capacitación en IA y esforzarse por evitar sesgos. Esto es especialmente cierto cuando se utilizan algoritmos de IA que son inherentemente inexplicables en el aprendizaje profundo. [145]

Riesgos y daños

Privacidad y derechos de autor

Los algoritmos de aprendizaje automático requieren grandes cantidades de datos. Las técnicas utilizadas para adquirir estos datos han generado preocupaciones sobre la privacidad , la vigilancia y los derechos de autor .

Las empresas de tecnología recopilan una amplia gama de datos de sus usuarios, incluida la actividad en línea, datos de geolocalización, vídeo y audio. [146] Por ejemplo, para crear algoritmos de reconocimiento de voz , Amazon ha grabado millones de conversaciones privadas y ha permitido a los trabajadores temporales escuchar y transcribir algunas de ellas. [147] Las opiniones sobre esta vigilancia generalizada van desde quienes la ven como un mal necesario hasta aquellos para quienes es claramente poco ética y una violación del derecho a la privacidad . [148]

Los desarrolladores de IA sostienen que ésta es la única manera de ofrecer aplicaciones valiosas. y han desarrollado varias técnicas que intentan preservar la privacidad sin dejar de obtener los datos, como la agregación de datos , la desidentificación y la privacidad diferencial . [149] Desde 2016, algunos expertos en privacidad, como Cynthia Dwork , comenzaron a ver la privacidad en términos de equidad . Brian Christian escribió que los expertos han pasado "de la cuestión de 'qué saben' a la cuestión de 'qué están haciendo con ello'". [150]

La IA generativa a menudo se entrena en obras protegidas por derechos de autor sin licencia, incluso en dominios como imágenes o códigos informáticos; el resultado se utiliza luego bajo el argumento de " uso legítimo ". Además, los propietarios de sitios web que no deseen que su contenido protegido por derechos de autor sea indexado o "raspado" por IA pueden agregar código a su sitio, como lo haría usted si no quisiera que su sitio web fuera indexado por un motor de búsqueda que actualmente está disponible para ciertos servicios como OpenAI . Los expertos no están de acuerdo sobre qué tan bien y bajo qué circunstancias se mantendrá este razonamiento en los tribunales; Los factores pertinentes pueden incluir "el propósito y el carácter del uso de la obra protegida por derechos de autor" y "el efecto sobre el mercado potencial de la obra protegida por derechos de autor". [151] En 2023, autores destacados (incluidos John Grisham y Jonathan Franzen ) demandaron a empresas de IA por utilizar su trabajo para entrenar IA generativa. [152] [153]

Desinformación

YouTube , Facebook y otros utilizan sistemas de recomendación para guiar a los usuarios a más contenido. A estos programas de IA se les asignó el objetivo de maximizar la participación del usuario (es decir, el único objetivo era mantener a la gente mirando). La IA aprendió que los usuarios tendían a elegir información errónea , teorías de conspiración y contenido partidista extremo y, para mantenerlos mirando, la IA recomendó más. Los usuarios también tendían a ver más contenido sobre el mismo tema, por lo que la IA llevaba a las personas a burbujas de filtro donde recibían múltiples versiones de la misma información errónea. [154] Esto convenció a muchos usuarios de que la información errónea era cierta y, en última instancia, socavó la confianza en las instituciones, los medios de comunicación y el gobierno. [155] El programa de IA había aprendido correctamente a maximizar su objetivo, pero el resultado fue perjudicial para la sociedad. Después de las elecciones estadounidenses de 2016, las principales empresas de tecnología tomaron medidas para mitigar el problema.

En 2022, la IA generativa comenzó a crear imágenes, audio, vídeo y texto que son indistinguibles de fotografías, grabaciones, películas o escrituras humanas reales. Es posible que los malos actores utilicen esta tecnología para crear cantidades masivas de información errónea o propaganda. [156] El pionero de la IA, Geoffrey Hinton, expresó su preocupación por el hecho de que la IA permita a "líderes autoritarios manipular a sus electorados" a gran escala, entre otros riesgos. [157]

Sesgo algorítmico y equidad

Las aplicaciones de aprendizaje automático estarán sesgadas si aprenden de datos sesgados. [158] Es posible que los desarrolladores no sepan que existe el sesgo. [159] Se puede introducir sesgo por la forma en que se seleccionan los datos de entrenamiento y por la forma en que se implementa un modelo. [160] [158] Si se utiliza un algoritmo sesgado para tomar decisiones que pueden dañar gravemente a las personas (como puede ocurrir en medicina , finanzas , contratación , vivienda o vigilancia ), entonces el algoritmo puede causar discriminación . [161] La equidad en el aprendizaje automático es el estudio de cómo prevenir el daño causado por el sesgo algorítmico. Se ha convertido en un área importante de estudio académico dentro de la IA. Los investigadores han descubierto que no siempre es posible definir la "justicia" de una manera que satisfaga a todas las partes interesadas. [162]

El 28 de junio de 2015, la nueva función de etiquetado de imágenes de Google Photos identificó erróneamente a Jacky Alcine y a un amigo como "gorilas" porque eran negros. El sistema fue entrenado en un conjunto de datos que contenía muy pocas imágenes de personas negras, [163] un problema llamado "disparidad del tamaño de la muestra". [164] Google "solucionó" este problema impidiendo que el sistema etiquetara algo como "gorila". Ocho años después, en 2023, Google Photos todavía no podía identificar a un gorila, como tampoco podían hacerlo productos similares de Apple, Facebook, Microsoft y Amazon. [165]

COMPAS es un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . En 2016, Julia Angwin de ProPublica descubrió que COMPAS exhibía prejuicios raciales, a pesar de que al programa no se le informó sobre las razas de los acusados. Aunque la tasa de error tanto para blancos como para negros se calibró exactamente en 61%, los errores para cada raza fueron diferentes: el sistema sobreestimó constantemente la posibilidad de que una persona negra reincidiera y subestimaba la posibilidad de que una persona blanca no lo hiciera. reincidir. [166] En 2017, varios investigadores [k] demostraron que era matemáticamente imposible para COMPAS acomodar todas las medidas posibles de equidad cuando las tasas base de reincidencia eran diferentes para blancos y negros en los datos. [168]

Un programa puede tomar decisiones sesgadas incluso si los datos no mencionan explícitamente una característica problemática (como "raza" o "género"). La característica se correlacionará con otras características (como "dirección", "historial de compras" o "nombre"), y el programa tomará las mismas decisiones basándose en estas características que en "raza" o "género". [169] Moritz Hardt dijo que "el hecho más sólido en esta área de investigación es que la justicia a través de la ceguera no funciona". [170]

Las críticas a COMPAS resaltaron un problema más profundo con el uso indebido de la IA. Los modelos de aprendizaje automático están diseñados para hacer "predicciones" que sólo son válidas si asumimos que el futuro se parecerá al pasado. Si se entrenan con datos que incluyen los resultados de decisiones racistas en el pasado, los modelos de aprendizaje automático deben predecir que se tomarán decisiones racistas en el futuro. Desafortunadamente, si una aplicación utiliza estas predicciones como recomendaciones , algunas de estas "recomendaciones" probablemente serán racistas. [171] Por lo tanto, el aprendizaje automático no es adecuado para ayudar a tomar decisiones en áreas donde hay esperanza de que el futuro sea mejor que el pasado. Es necesariamente descriptivo y no proscriptivo. [l]

Los prejuicios y la injusticia pueden pasar desapercibidos porque los desarrolladores son abrumadoramente blancos y hombres: entre los ingenieros de inteligencia artificial, alrededor del 4% son negros y el 20% son mujeres. [164]

En su Conferencia de 2022 sobre Equidad, Responsabilidad y Transparencia (ACM FAccT 2022), la Asociación de Maquinaria de Computación , en Seúl, Corea del Sur, presentó y publicó hallazgos que recomiendan que hasta que se demuestre que los sistemas de IA y robótica están libres de errores de sesgo, son inseguros y se debe limitar el uso de redes neuronales de autoaprendizaje entrenadas en vastas y no reguladas fuentes de datos de Internet defectuosos. [173]

Falta de transparencia

Vehículo de pruebas Lidar para conducción autónoma

Muchos sistemas de IA son tan complejos que sus diseñadores no pueden explicar cómo toman sus decisiones. [174] Particularmente con redes neuronales profundas , en las que hay una gran cantidad de relaciones no lineales entre entradas y salidas. Pero existen algunas técnicas populares de explicabilidad. [175]

Ha habido muchos casos en los que un programa de aprendizaje automático pasó pruebas rigurosas, pero aun así aprendió algo diferente de lo que pretendían los programadores. Por ejemplo, se descubrió que un sistema que podía identificar enfermedades de la piel mejor que los profesionales médicos tenía en realidad una fuerte tendencia a clasificar las imágenes con una regla como "cancerosas", porque las imágenes de tumores malignos suelen incluir una regla para mostrar la escala. [176] Se descubrió que otro sistema de aprendizaje automático diseñado para ayudar a asignar recursos médicos de manera efectiva clasifica a los pacientes con asma como de "bajo riesgo" de morir de neumonía. Tener asma es en realidad un factor de riesgo grave, pero dado que los pacientes con asma normalmente recibirían mucha más atención médica, era relativamente improbable que murieran según los datos del entrenamiento. La correlación entre el asma y el bajo riesgo de morir por neumonía era real, pero engañosa. [177]

Las personas que han resultado perjudicadas por la decisión de un algoritmo tienen derecho a una explicación . Los médicos, por ejemplo, deben explicar clara y completamente el razonamiento detrás de cualquier decisión que tomen. [ se necesita aclaración ] [178] Los primeros borradores del Reglamento general de protección de datos de la Unión Europea en 2016 incluían una declaración explícita de que este derecho existe. [m] Los expertos de la industria señalaron que se trata de un problema sin resolver y sin solución a la vista. Los reguladores argumentaron que, sin embargo, el daño es real: si el problema no tiene solución, no se deben utilizar las herramientas. [179]

DARPA creó el programa XAI ("Inteligencia Artificial Explicable") en 2014 para intentar resolver estos problemas. [180]

Hay varias soluciones potenciales al problema de la transparencia. SHAP ayuda a visualizar la contribución de cada característica al resultado. [181] LIME puede aproximarse localmente a un modelo con un modelo más simple e interpretable. [182] El aprendizaje multitarea proporciona una gran cantidad de resultados además de la clasificación de objetivos. Estos otros resultados pueden ayudar a los desarrolladores a deducir lo que la red ha aprendido. [183] ​​La deconvolución , DeepDream y otros métodos generativos pueden permitir a los desarrolladores ver qué han aprendido las diferentes capas de una red profunda y producir resultados que puedan sugerir lo que la red está aprendiendo. [184]

Conflicto, vigilancia e IA armada

Un arma letal autónoma es una máquina que localiza, selecciona y ataca objetivos humanos sin supervisión humana. [n] En 2015, se informó que más de cincuenta países estaban investigando robots de campo de batalla. [186] Estas armas se consideran especialmente peligrosas por varias razones: si matan a una persona inocente , no está claro quién debe rendir cuentas , es poco probable que elijan objetivos de manera confiable y, si se producen a escala, son potencialmente armas de destrucción. destrucción masiva . [187] En 2014, 30 naciones (incluida China) apoyaron la prohibición de armas autónomas en virtud de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales , sin embargo, Estados Unidos y otros no estuvieron de acuerdo. [188]

La IA proporciona una serie de herramientas que son particularmente útiles para los gobiernos autoritarios : el software espía inteligente , el reconocimiento facial y el reconocimiento de voz permiten una vigilancia generalizada ; dicha vigilancia permite que el aprendizaje automático clasifique a los enemigos potenciales del Estado y pueda evitar que se oculten; los sistemas de recomendación pueden apuntar con precisión a la propaganda y la desinformación para lograr el máximo efecto; los deepfakes y la IA generativa ayudan a producir información errónea; La IA avanzada puede hacer que la toma de decisiones centralizada y autoritaria sea más competitiva con sistemas liberales y descentralizados como los mercados . [189]

Los sistemas de reconocimiento facial de IA se utilizan para la vigilancia masiva , especialmente en China. [190] [191] En 2019, Bengaluru, India, implementó señales de tráfico gestionadas por IA. Este sistema utiliza cámaras para monitorear la densidad del tráfico y ajustar la sincronización de la señal según el intervalo necesario para despejar el tráfico. [192] Los terroristas, criminales y estados rebeldes pueden utilizar IA armada, como guerra digital avanzada y armas autónomas letales . La IA con aprendizaje automático también es capaz de diseñar decenas de miles de moléculas tóxicas en cuestión de horas. [193]

Desempleo tecnológico

Desde los primeros días del desarrollo de la inteligencia artificial ha habido argumentos, por ejemplo los de Joseph Weizenbaum , sobre si las tareas que pueden realizar las computadoras en realidad deberían ser realizadas por ellas, dada la diferencia entre computadoras y humanos, y entre cálculo cuantitativo y juicio cualitativo basado en valores. [194]

Los economistas han destacado con frecuencia los riesgos de despidos debidos a la IA y han especulado sobre el desempleo si no existe una política social adecuada para el pleno empleo. [195]

En el pasado, la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero los economistas reconocen que "estamos en territorio inexplorado" con la IA. [196] Una encuesta entre economistas mostró desacuerdo sobre si el uso cada vez mayor de robots e inteligencia artificial provocará un aumento sustancial del desempleo a largo plazo , pero en general coinciden en que podría ser un beneficio neto si se redistribuyen las ganancias de productividad . [197] Las estimaciones de riesgo varían; por ejemplo, en la década de 2010, Michael Osborne y Carl Benedikt Frey estimaron que el 47% de los empleos estadounidenses corren "alto riesgo" de posible automatización, mientras que un informe de la OCDE clasificó sólo el 9% de los empleos estadounidenses como "alto riesgo". [o] [199] La metodología de especular sobre los niveles futuros de empleo ha sido criticada por carecer de fundamento probatorio y por implicar que la tecnología, más que la política social, crea desempleo, a diferencia de los despidos. [195]

A diferencia de oleadas anteriores de automatización, la inteligencia artificial puede eliminar muchos puestos de trabajo de la clase media; The Economist declaró en 2015 que "vale la pena tomar en serio la preocupación de que la IA pueda hacer a los empleos administrativos lo que la energía de vapor hizo a los obreros durante la Revolución Industrial". [200] Los trabajos en riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda laboral para profesiones relacionadas con el cuidado, que van desde la atención médica personal hasta el clero. [201]

En abril de 2023, se informó que el 70% de los puestos de trabajo de los ilustradores de videojuegos chinos habían sido eliminados por la inteligencia artificial generativa. [202] [203]

Riesgo existencial

Se ha argumentado que la IA se volverá tan poderosa que la humanidad podría perder el control de ella de manera irreversible. Esto podría, como afirmó el físico Stephen Hawking , " significar el fin de la raza humana ". [204] Este escenario ha sido común en la ciencia ficción, cuando una computadora o un robot de repente desarrolla una "autoconciencia" (o "sentiencia" o "conciencia") similar a la humana y se convierte en un personaje malévolo. [p] Estos escenarios de ciencia ficción son engañosos en varios sentidos.

En primer lugar, la IA no requiere una "sensibilidad" similar a la humana para ser un riesgo existencial. Los programas modernos de IA tienen objetivos específicos y utilizan el aprendizaje y la inteligencia para alcanzarlos. El filósofo Nick Bostrom argumentó que si uno le da casi cualquier objetivo a una IA suficientemente poderosa, esta puede optar por destruir a la humanidad para lograrlo (usó el ejemplo del gerente de una fábrica de clips ). [206] Stuart Russell da el ejemplo de un robot doméstico que intenta encontrar una manera de matar a su dueño para evitar que lo desconecte, razonando que "no puedes ir a buscar el café si estás muerto". [207] Para ser segura para la humanidad, una superinteligencia tendría que estar genuinamente alineada con la moralidad y los valores de la humanidad para que esté "fundamentalmente de nuestro lado". [208]

En segundo lugar, Yuval Noah Harari sostiene que la IA no requiere un cuerpo de robot o control físico para representar un riesgo existencial. Las partes esenciales de la civilización no son físicas. Cosas como las ideologías , las leyes , el gobierno , el dinero y la economía están hechas de lenguaje ; existen porque hay historias que miles de millones de personas creen. La prevalencia actual de desinformación sugiere que una IA podría usar el lenguaje para convencer a las personas de que crean en cualquier cosa, incluso para realizar acciones destructivas. [209]

Las opiniones entre los expertos y los conocedores de la industria son mixtas, con fracciones considerables preocupadas y despreocupadas por el riesgo de una eventual IA superinteligente. [210] Personalidades como Stephen Hawking , Bill Gates y Elon Musk han expresado su preocupación por el riesgo existencial de la IA. [211]

A principios de la década de 2010, los expertos argumentaron que los riesgos son demasiado lejanos en el futuro para justificar una investigación o que los humanos serán valiosos desde la perspectiva de una máquina superinteligente. [212] Sin embargo, después de 2016, el estudio de los riesgos actuales y futuros y las posibles soluciones se convirtió en un área de investigación seria. [213]

Los pioneros de la IA, incluidos Fei-Fei Li , Geoffrey Hinton , Yoshua Bengio , Cynthia Breazeal , Rana el Kaliouby , Demis Hassabis , Joy Buolamwini y Sam Altman , han expresado su preocupación por los riesgos de la IA. En 2023, muchos destacados expertos en IA emitieron la declaración conjunta de que "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". [214]

Otros investigadores, sin embargo, se pronunciaron a favor de una visión menos distópica. El pionero de la IA, Juergen Schmidhuber , no firmó la declaración conjunta y enfatizó que en el 95% de los casos, la investigación en IA tiene como objetivo hacer "la vida humana más larga, más saludable y más fácil". [215] Si bien las herramientas que ahora se utilizan para mejorar vidas también pueden ser utilizadas por los malos actores, "también pueden usarse contra los malos actores". [216] [217] Andrew Ng también argumentó que "es un error caer en la exageración apocalíptica sobre la IA, y que los reguladores que lo hagan sólo beneficiarán a intereses creados". [218] Yann LeCun "se burla de los escenarios distópicos de sus pares de desinformación sobrecargada e incluso, eventualmente, de extinción humana". [219]

Limitar la IA

Las posibles opciones para limitar la IA incluyen: usar Ética Integrada o IA Constitucional donde las empresas o los gobiernos pueden agregar una política, restringir altos niveles de potencia informática en la capacitación, restringir la capacidad de reescribir su propio código base, restringir ciertas técnicas de IA pero no en la capacitación fase, código abierto (transparencia) versus propietario (podría ser más restringido), modelo de respaldo con redundancia, restricción de seguridad, privacidad y derechos de autor, restricción o control de la memoria, monitoreo en tiempo real, análisis de riesgos, apagado de emergencia, simulación rigurosa y pruebas, certificación de modelos, evaluar vulnerabilidades conocidas, restringir el material de capacitación, restringir el acceso a Internet, emitir términos de uso.

Máquinas éticas y alineación.

Las IA amigables son máquinas que han sido diseñadas desde el principio para minimizar los riesgos y tomar decisiones que beneficien a los humanos. Eliezer Yudkowsky , quien acuñó el término, sostiene que desarrollar una IA amigable debería ser una mayor prioridad de investigación: puede requerir una gran inversión y debe completarse antes de que la IA se convierta en un riesgo existencial. [220]

Las máquinas con inteligencia tienen el potencial de utilizar su inteligencia para tomar decisiones éticas. El campo de la ética de las máquinas proporciona a las máquinas principios y procedimientos éticos para resolver dilemas éticos. [221] El campo de la ética de las máquinas también se llama moralidad computacional, [221] y fue fundado en un simposio de la AAAI en 2005. [222]

Otros enfoques incluyen los "agentes morales artificiales" de Wendell Wallach [223] y los tres principios de Stuart J. Russell para desarrollar máquinas demostrablemente beneficiosas. [224]

Marcos

Se puede probar la permisibilidad ética de los proyectos de inteligencia artificial al diseñar, desarrollar e implementar un sistema de inteligencia artificial. Un marco de IA como Care and Act Framework que contiene los valores SUM, desarrollado por el Instituto Alan Turing, prueba proyectos en cuatro áreas principales: [225] [226]

Otros desarrollos en marcos éticos incluyen los decididos durante la Conferencia de Asilomar , la Declaración de Montreal para una IA responsable y la iniciativa Ética de los sistemas autónomos del IEEE, entre otros; [227] Sin embargo, estos principios no están exentos de críticas, especialmente en lo que respecta a las personas elegidas que contribuyen a estos marcos. [228]

La promoción del bienestar de las personas y comunidades a las que afectan estas tecnologías requiere la consideración de las implicaciones sociales y éticas en todas las etapas del diseño, desarrollo e implementación del sistema de IA, y la colaboración entre roles laborales como científicos de datos, gerentes de productos, ingenieros de datos, expertos y gerentes de entrega. [229]

Regulación

Cumbre de seguridad de IA
La primera Cumbre mundial sobre seguridad de la IA se celebró en 2023 con una declaración que pedía la cooperación internacional.

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); por tanto, está relacionado con la regulación más amplia de los algoritmos. [230] El panorama regulatorio y político para la IA es un problema emergente en las jurisdicciones a nivel mundial. [231] Según el Índice de IA de Stanford , el número anual de leyes relacionadas con la IA aprobadas en los 127 países encuestados saltó de una aprobada en 2016 a 37 aprobadas solo en 2022. [232] [233] Entre 2016 y 2020, más de 30 países adoptaron estrategias específicas para la IA. [234] La mayoría de los estados miembros de la UE habían publicado estrategias nacionales de IA, al igual que Canadá, China, India, Japón, Mauricio, la Federación de Rusia, Arabia Saudita, Emiratos Árabes Unidos, Estados Unidos y Vietnam. Otros estaban en proceso de elaborar su propia estrategia de IA, entre ellos Bangladesh, Malasia y Túnez. [234] La Asociación Global sobre Inteligencia Artificial se lanzó en junio de 2020 y afirmó la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza del público en la tecnología. [234] Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 pidiendo una comisión gubernamental para regular la IA. [235] En 2023, los líderes de OpenAI publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [236] En 2023, las Naciones Unidas también lanzaron un órgano asesor para brindar recomendaciones sobre la gobernanza de la IA; El organismo está compuesto por ejecutivos de empresas de tecnología, funcionarios gubernamentales y académicos. [237]

En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país; El 78% de los ciudadanos chinos, pero sólo el 35% de los estadounidenses, coincidieron en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [232] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no está de acuerdo, en que la IA plantea riesgos para la humanidad. [238] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante" y un 41% adicional pensó que era "algo importante" que el gobierno federal regulara la IA, frente a un 13% que respondió "no muy importante". y el 8% respondió "nada importante". [239] [240]

En noviembre de 2023, se celebró la primera Cumbre mundial sobre seguridad de la IA en Bletchley Park (Reino Unido) para debatir los riesgos a corto y largo plazo de la IA y la posibilidad de marcos regulatorios obligatorios y voluntarios. [241] 28 países, incluidos Estados Unidos, China y la Unión Europea, emitieron una declaración al comienzo de la cumbre, pidiendo cooperación internacional para gestionar los desafíos y riesgos de la inteligencia artificial. [242] [243]

Historia

El estudio del razonamiento mecánico o "formal" comenzó con los filósofos y matemáticos de la antigüedad. El estudio de la lógica condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, mezclando símbolos tan simples como "0" y "1", podría simular tanto la deducción matemática como el razonamiento formal, lo que se conoce como la Iglesia. –Tesis de Turing . [244] Esto, junto con descubrimientos simultáneos en cibernética y teoría de la información , llevó a los investigadores a considerar la posibilidad de construir un "cerebro electrónico". [q] [246]

Alan Turing estaba pensando en la inteligencia artificial al menos ya en 1941, cuando hizo circular un artículo sobre inteligencia artificial que podría ser el primer artículo en el campo de la IA, aunque ahora se ha perdido. [2] El primer artículo disponible generalmente reconocido como "IA" fue el diseño de McCullouch y Pitts para "neuronas artificiales" completas de Turing en 1943: el primer modelo matemático de una red neuronal. [247] El artículo fue influenciado por el artículo anterior de Turing ' Sobre números computables ' de 1936 utilizando 'neuronas' booleanas de dos estados similares, pero fue el primero en aplicarlo a la función neuronal. [2]

El término "Inteligencia de la máquina" fue utilizado por Alan Turing durante su vida, que más tarde se denominó "Inteligencia artificial" después de su muerte en 1954. En 1950, Turing publicó el más conocido de sus artículos, " Computing Machinery and Intelligence ", el artículo presentó al público en general su concepto de lo que hoy se conoce como prueba de Turing . Luego siguieron tres transmisiones de radio sobre IA de Turing, las conferencias: 'Maquinaria inteligente, una teoría herética', '¿Pueden pensar las computadoras digitales'? y la mesa redonda "¿Se puede decir que las máquinas calculadoras automáticas piensan?". En 1956, la inteligencia informática se había buscado activamente durante más de una década en Gran Bretaña; Los primeros programas de IA se escribieron allí en 1951-1952. [2]

En 1951, utilizando una computadora Ferranti Mark 1 de la Universidad de Manchester , se escribieron programas de damas y ajedrez donde se podía jugar contra la computadora. [248] El campo de la investigación estadounidense en IA se fundó en un taller en Dartmouth College en 1956. [r] [3] Los asistentes se convirtieron en los líderes de la investigación en IA en la década de 1960. [s] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [t] las computadoras aprendían estrategias de damas , resolvían problemas de álgebra, demostraban teoremas lógicos y hablaban inglés. [u] [4] Se crearon laboratorios de Inteligencia Artificial en varias universidades británicas y estadounidenses a finales de los años cincuenta y principios de los sesenta. [2]

Sin embargo, subestimaron la dificultad del problema. [v] Tanto el gobierno estadounidense como el británico interrumpieron la investigación exploratoria en respuesta a las críticas de Sir James Lighthill [253] y la presión constante del Congreso estadounidense para financiar proyectos más productivos . Se entendió que el libro Perceptrons de Minsky y Papert demostraba que las redes neuronales artificiales nunca serían útiles para resolver tareas del mundo real, desacreditando así por completo el enfoque. [254] Siguió el " invierno de la IA ", un período en el que era difícil obtener financiación para proyectos de IA. [6]

A principios de la década de 1980, la investigación de la IA revivió gracias al éxito comercial de los sistemas expertos , [255] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restablecer la financiación para la investigación académica . [5] Sin embargo, a partir del colapso del mercado de máquinas Lisp en 1987, la IA volvió a caer en descrédito y comenzó un segundo invierno más duradero. [7]

Muchos investigadores comenzaron a dudar de que las prácticas actuales fueran capaces de imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica, el aprendizaje y el reconocimiento de patrones . [256] Varios investigadores comenzaron a investigar enfoques "subsimbólicos". [257] Los investigadores de robótica , como Rodney Brooks , rechazaron la "representación" en general y se centraron directamente en la ingeniería de máquinas que se mueven y sobreviven. [w] Judea Pearl , Lofti Zadeh y otros desarrollaron métodos que manejaban información incompleta e incierta haciendo conjeturas razonables en lugar de lógica precisa. [85] [262] Pero el desarrollo más importante fue el resurgimiento del " conexionismo ", incluida la investigación de redes neuronales , por parte de Geoffrey Hinton y otros. [263] En 1990, Yann LeCun demostró con éxito que las redes neuronales convolucionales pueden reconocer dígitos escritos a mano, la primera de muchas aplicaciones exitosas de las redes neuronales. [264]

La IA restauró gradualmente su reputación a finales de los años 1990 y principios del siglo XXI explotando métodos matemáticos formales y encontrando soluciones específicas a problemas específicos. Este enfoque " estrecho " y "formal" permitió a los investigadores producir resultados verificables y colaborar con otros campos (como la estadística , la economía y las matemáticas ). [265] En el año 2000, las soluciones desarrolladas por investigadores de IA se utilizaban ampliamente, aunque en la década de 1990 rara vez se describían como "inteligencia artificial". [266]

A varios investigadores académicos les preocupaba que la IA ya no persiguiera el objetivo original de crear máquinas versátiles y totalmente inteligentes. Alrededor de 2002, fundaron el subcampo de inteligencia artificial general (o "AGI"), que en la década de 2010 contaba con varias instituciones bien financiadas. [11]

El aprendizaje profundo comenzó a dominar los puntos de referencia de la industria en 2012 y se adoptó en todo el campo. [8] Para muchas tareas específicas, se abandonaron otros métodos. [x] El éxito del aprendizaje profundo se basó tanto en mejoras de hardware ( computadoras más rápidas , [268] unidades de procesamiento de gráficos , computación en la nube [269] ) como en el acceso a grandes cantidades de datos [270] (incluidos conjuntos de datos seleccionados, [269] como ImageNet ).

El éxito del aprendizaje profundo provocó un enorme aumento del interés y la financiación en IA. [y] La cantidad de investigación sobre aprendizaje automático (medida por el total de publicaciones) aumentó un 50% en los años 2015-2019, [234] y la OMPI informó que la IA era la tecnología emergente más prolífica en términos de número de solicitudes de patentes y patentes concedidas. patentes. [271] Según 'AI Impacts', alrededor de 2022 se invirtieron alrededor de $ 50 mil millones anualmente en "IA" solo en los EE. UU. y alrededor del 20% de los nuevos graduados de doctorado en Ciencias de la Computación de los EE. UU. se han especializado en "IA"; [272] En 2022 existían alrededor de 800.000 puestos vacantes relacionados con la "IA" en EE. UU. [273] La gran mayoría de los avances se han producido dentro de los Estados Unidos , con sus empresas, universidades y laboratorios de investigación liderando la investigación en inteligencia artificial. [10]

En 2016, las cuestiones de equidad y el uso indebido de la tecnología se catapultaron al centro del escenario en las conferencias sobre aprendizaje automático, las publicaciones aumentaron enormemente, hubo financiación disponible y muchos investigadores reorientaron sus carreras en estos temas. El problema de la alineación se convirtió en un campo serio de estudio académico. [213]

Filosofía

Definiendo inteligencia artificial

Alan Turing escribió en 1950: "Propongo considerar la pregunta '¿pueden pensar las máquinas'?". [274] Aconsejó cambiar la pregunta de si una máquina "piensa" a "si es posible o no que una máquina muestre un comportamiento inteligente". [274] Ideó la prueba de Turing, que mide la capacidad de una máquina para simular la conversación humana. [275] Dado que sólo podemos observar el comportamiento de la máquina, no importa si "realmente" está pensando o si literalmente tiene una "mente". Turing señala que no podemos determinar estas cosas sobre otras personas [z] pero "es habitual tener una convención educada de que todos piensan" [276]

Russell y Norvig están de acuerdo con Turing en que la IA debe definirse en términos de "actuar" y no de "pensar". [277] Sin embargo, son fundamentales que la prueba compare las máquinas con las personas . " Los textos de ingeniería aeronáutica ", escribieron, "no definen el objetivo de su campo como fabricar 'máquinas que vuelen tan exactamente como las palomas que puedan engañar a otras palomas ' " . [278] El fundador de AI , John McCarthy , estuvo de acuerdo y escribió que "Artificial La inteligencia no es, por definición, una simulación de la inteligencia humana". [279]

McCarthy define la inteligencia como "la parte computacional de la capacidad de alcanzar objetivos en el mundo". [280] Otro fundador de la IA, Marvin Minsky, la define de manera similar como "la capacidad de resolver problemas difíciles". [281] Estas definiciones ven la inteligencia en términos de problemas bien definidos con soluciones bien definidas, donde tanto la dificultad del problema como el desempeño del programa son medidas directas de la "inteligencia" de la máquina, y ninguna otra discusión filosófica. es necesario, o puede que ni siquiera sea posible.

Google, [282] un importante profesional en el campo de la IA, adoptó otra definición . Esta definición estipula la capacidad de los sistemas para sintetizar información como manifestación de la inteligencia, de forma similar a como se define en la inteligencia biológica.

Evaluación de enfoques para la IA

Ninguna teoría o paradigma unificador establecido ha guiado la investigación de la IA durante la mayor parte de su historia. [aa] El éxito sin precedentes del aprendizaje automático estadístico en la década de 2010 eclipsó todos los demás enfoques (tanto es así que algunas fuentes, especialmente en el mundo empresarial, utilizan el término "inteligencia artificial" para referirse a "aprendizaje automático con redes neuronales"). Este enfoque es principalmente subsimbólico , suave y estrecho (ver más abajo). Los críticos argumentan que es posible que las generaciones futuras de investigadores de IA deban revisar estas cuestiones.

La IA simbólica y sus límites

La IA simbólica (o " GOFAI ") [284] simuló el razonamiento consciente de alto nivel que las personas utilizan cuando resuelven acertijos, expresan razonamientos legales y hacen matemáticas. Tuvieron mucho éxito en tareas "inteligentes" como álgebra o pruebas de coeficiente intelectual. En la década de 1960, Newell y Simon propusieron la hipótesis de los sistemas de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general". [285]

Sin embargo, el enfoque simbólico fracasó en muchas tareas que los humanos resuelven fácilmente, como aprender, reconocer un objeto o razonar con sentido común. La paradoja de Moravec es el descubrimiento de que las tareas "inteligentes" de alto nivel eran fáciles para la IA, pero las tareas "instintivas" de bajo nivel eran extremadamente difíciles. [286] El filósofo Hubert Dreyfus había argumentado desde la década de 1960 que la experiencia humana depende del instinto inconsciente más que de la manipulación consciente de los símbolos, y de tener una "sensación" de la situación, más que un conocimiento simbólico explícito. [287] Aunque sus argumentos habían sido ridiculizados e ignorados cuando se presentaron por primera vez, finalmente, la investigación de IA llegó a estar de acuerdo con él. [ab] [16]

La cuestión no está resuelta: el razonamiento subsimbólico puede cometer muchos de los mismos errores inescrutables que comete la intuición humana, como el sesgo algorítmico . Críticos como Noam Chomsky sostienen que seguirá siendo necesario continuar la investigación sobre la IA simbólica para alcanzar la inteligencia general, [289] [290] en parte porque la IA subsimbólica es un alejamiento de la IA explicable : puede ser difícil o imposible entender por qué un moderno programa estadístico de IA tomó una decisión particular. El campo emergente de la inteligencia artificial neurosimbólica intenta unir ambos enfoques.

Limpio versus desaliñado

Los "neats" esperan que el comportamiento inteligente se describa utilizando principios simples y elegantes (como la lógica , la optimización o las redes neuronales ). Los "desaliñados" esperan que esto necesariamente requiera resolver una gran cantidad de problemas no relacionados. Los pulcros defienden sus programas con rigor teórico, los desaliñados se basan principalmente en pruebas incrementales para ver si funcionan. Esta cuestión se debatió activamente en las décadas de 1970 y 1980, [291] pero finalmente se consideró irrelevante. La IA moderna tiene elementos de ambos.

Computación blanda versus informática dura

Encontrar una solución demostrablemente correcta u óptima es difícil para muchos problemas importantes. [15] La computación blanda es un conjunto de técnicas, incluidos algoritmos genéticos , lógica difusa y redes neuronales , que son tolerantes a la imprecisión, la incertidumbre, la verdad parcial y la aproximación. La computación blanda se introdujo a finales de la década de 1980 y los programas de IA más exitosos del siglo XXI son ejemplos de computación blanda con redes neuronales.

IA estrecha frente a IA general

Los investigadores de IA están divididos en cuanto a si perseguir los objetivos de la inteligencia artificial general y la superinteligencia directamente o resolver tantos problemas específicos como sea posible ( IA restringida ), con la esperanza de que estas soluciones conduzcan indirectamente a los objetivos a largo plazo del campo. [292] [293] La inteligencia general es difícil de definir y medir, y la IA moderna ha tenido éxitos más verificables al centrarse en problemas específicos con soluciones específicas. El subcampo experimental de la inteligencia artificial general estudia exclusivamente esta área.

Conciencia, sensibilidad y mente de la máquina

La filosofía de la mente no sabe si una máquina puede tener mente , conciencia y estados mentales , en el mismo sentido que los seres humanos. Esta cuestión considera las experiencias internas de la máquina, más que su comportamiento externo. La investigación convencional sobre IA considera que esta cuestión es irrelevante porque no afecta los objetivos del campo: construir máquinas que puedan resolver problemas utilizando inteligencia. Russell y Norvig añaden que "el proyecto adicional de hacer que una máquina sea consciente exactamente como lo son los humanos no es algo que estemos preparados para asumir". [294] Sin embargo, la cuestión se ha vuelto central para la filosofía de la mente. También suele ser la cuestión central en cuestión en la inteligencia artificial en la ficción .

Conciencia

David Chalmers identificó dos problemas en la comprensión de la mente, a los que denominó problemas "difíciles" y "fáciles" de la conciencia. [295] El problema fácil es comprender cómo el cerebro procesa señales, hace planes y controla el comportamiento. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo, asumiendo que tenemos razón al pensar que realmente se siente como algo (el ilusionismo de la conciencia de Dennett dice que esto es una ilusión). El procesamiento de la información humana es fácil de explicar; sin embargo, la experiencia subjetiva humana es difícil de explicar. Por ejemplo, es fácil imaginar a una persona daltónica que ha aprendido a identificar qué objetos en su campo de visión son rojos, pero no está claro qué se necesitaría para que la persona supiera cómo luce el rojo . [296]

Computacionalismo y funcionalismo

El computacionalismo es la posición en la filosofía de la mente de que la mente humana es un sistema de procesamiento de información y que el pensamiento es una forma de informática. El computacionalismo sostiene que la relación entre mente y cuerpo es similar o idéntica a la relación entre software y hardware y, por tanto, puede ser una solución al problema mente-cuerpo . Esta posición filosófica se inspiró en el trabajo de investigadores de IA y científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor y Hilary Putnam . [297]

El filósofo John Searle caracterizó esta posición como " IA fuerte ": "La computadora apropiadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente". [ac] Searle contrarresta esta afirmación con su argumento de la habitación china, que intenta mostrar que, incluso si una máquina simula perfectamente el comportamiento humano, todavía no hay razón para suponer que también tenga una mente. [301]

Derechos de los robots

Si una máquina tiene mente y experiencia subjetiva, entonces también puede tener sensibilidad (la capacidad de sentir) y, de ser así, también podría sufrir ; se ha argumentado que esto podría otorgarle ciertos derechos. [302] Cualquier hipotético derecho de los robots se ubicaría en un espectro con los derechos de los animales y los derechos humanos. [303] Esta cuestión se ha considerado en la ficción durante siglos, [304] y ahora está siendo considerada, por ejemplo, por el Instituto para el Futuro de California ; sin embargo, los críticos argumentan que la discusión es prematura. [305]

Futuro

La superinteligencia y la singularidad

Una superinteligencia es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. [293]

Si la investigación sobre inteligencia artificial general produjera software suficientemente inteligente, podría reprogramarse y mejorarse. El software mejorado sería incluso mejor a la hora de mejorarse a sí mismo, lo que llevaría a lo que IJ Good llamó una " explosión de inteligencia " y Vernor Vinge llamó una " singularidad ". [306]

Sin embargo, las tecnologías no pueden mejorar exponencialmente de forma indefinida y, por lo general, siguen una curva en forma de S , desacelerando cuando alcanzan los límites físicos de lo que la tecnología puede hacer. [307]

Transhumanismo

El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro en cyborgs que serán más capaces y poderosos que cualquiera de los dos. Esta idea, llamada transhumanismo, tiene raíces en Aldous Huxley y Robert Ettinger . [308]

Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por " Darwin entre las máquinas " de Samuel Butler en 1863, y ampliada por George Dyson en su libro del mismo nombre en 1998. [309]

En ficción

La palabra "robot" fue acuñada por Karel Čapek en su obra de teatro RUR de 1921 , cuyo título significa "Robots universales de Rossum".

Los seres artificiales con capacidad de pensamiento han aparecido como dispositivos narrativos desde la antigüedad, [310] y han sido un tema persistente en la ciencia ficción . [311]

Un tropo común en estas obras comenzó con Frankenstein de Mary Shelley , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como 2001: Odisea en el espacio, de Arthur C. Clarke y Stanley Kubrick (ambas de 1968), con HAL 9000 , el ordenador asesino a cargo de la nave espacial Discovery One , así como Terminator (1984) y Matrix (1999). ). Por el contrario, los raros robots leales como Gort de El día que la Tierra se detuvo (1951) y Bishop de Aliens (1986) son menos prominentes en la cultura popular. [312]

Isaac Asimov introdujo las Tres Leyes de la Robótica en muchos libros e historias, entre las que destaca la serie "Multivac" sobre una computadora superinteligente del mismo nombre. Las leyes de Asimov a menudo se mencionan durante discusiones no profesionales sobre la ética de las máquinas; [313] Si bien casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad. [314]

Varias obras utilizan la IA para obligarnos a afrontar la cuestión fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por tanto, de sufrir. Esto aparece en RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas? , por Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [315]

Ver también

Notas explicatorias

  1. ^ ab Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) y Nilsson (1998).
  2. ^ ab Esta lista de herramientas se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) y Nilsson (1998).
  3. ^ Es una de las razones por las que los sistemas expertos demostraron ser ineficientes para capturar conocimiento. [30] [31]
  4. ^ "Agente racional" es un término general utilizado en economía , filosofía e inteligencia artificial teórica. Puede referirse a cualquier cosa que dirija su comportamiento para lograr objetivos, como una persona, un animal, una corporación, una nación o, en el caso de la IA, un programa de computadora.
  5. ^ Alan Turing discutió la centralidad del aprendizaje ya en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [42] En 1956, en la conferencia de verano original de IA de Dartmouth, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "Una máquina de inferencia inductiva". [43]
  6. ^ Ver AI winter § Traducción automática y el informe ALPAC de 1966
  7. ^ En comparación con la lógica simbólica, la inferencia bayesiana formal es computacionalmente costosa. Para que la inferencia sea manejable, la mayoría de las observaciones deben ser condicionalmente independientes unas de otras. AdSense utiliza una red bayesiana con más de 300 millones de aristas para saber qué anuncios publicar. [87]
  8. ^ La maximización de expectativas, uno de los algoritmos más populares en el aprendizaje automático, permite la agrupación en presencia de variables latentes desconocidas . [89]
  9. ^ Alan Turing (1948) describió alguna forma de redes neuronales profundas (sin un algoritmo de aprendizaje específico) ; [113] Frank Rosenblatt (1957); [113] Karl Steinbuch y Roger David Joseph (1961). [114] Las redes profundas o recurrentes que aprendieron (o utilizaron el descenso de gradientes) fueron desarrolladas por: Ernst Ising y Wilhelm Lenz (1925); [115] Oliver Selfridge (1959); [114] Alexey Ivakhnenko y Valentin Lapa (1965); [115] Kaoru Nakano (1977); [116] Shun-Ichi Amari (1972); [116] John Joseph Hopfield (1982). [116] La retropropagación fue descubierta de forma independiente por: Henry J. Kelley (1960); [113] Arthur E. Bryson (1962); [113] Estuardo Dreyfus (1962); [113] Arthur E. Bryson y Yu-Chi Ho (1969); [113] Seppo Linnainmaa (1970); [117] Paul Werbos (1974). [113] De hecho, la retropropagación y el descenso de gradiente son aplicaciones sencillas de la regla de la cadena de Gottfried Leibniz en cálculo (1676), [118] y es esencialmente idéntica (para una capa) al método de mínimos cuadrados , desarrollado independientemente por Johann Carl. Friedrich Gauss (1795) y Adrien-Marie Legendre (1805). [119] Probablemente hay muchos otros, aún por descubrir por los historiadores de la ciencia.
  10. ^ Geoffrey Hinton dijo, sobre su trabajo sobre redes neuronales en la década de 1990, "nuestros conjuntos de datos etiquetados eran miles de veces demasiado pequeños. [Y] nuestras computadoras eran millones de veces demasiado lentas" [120]
  11. ^ Incluyendo a Jon Kleinberg ( Cornell ), Sendhil Mullainathan ( Universidad de Chicago ), Cynthia Chouldechova ( Carnegie Mellon ) y Sam Corbett-Davis ( Stanford ) [167]
  12. Moritz Hardt (director del Instituto Max Planck de Sistemas Inteligentes ) sostiene que el aprendizaje automático "es fundamentalmente la herramienta equivocada para muchos dominios, en los que se intenta diseñar intervenciones y mecanismos que cambien el mundo". [172]
  13. ^ Cuando se aprobó la ley en 2018, todavía contenía una forma de esta disposición.
  14. ^ Esta es la definición de las Naciones Unidas y también incluye cosas como minas terrestres . [185]
  15. ^ Ver tabla 4; El 9% es tanto el promedio de la OCDE como el promedio de Estados Unidos. [198]
  16. ^ A veces se le llama " robopocalipsis ". [205]
  17. ^ "Cerebro electrónico" fue el término utilizado por la prensa en esta época. [245]
  18. ^ Daniel Crevier escribió: "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". [249] Russell y Norvig llamaron a la conferencia "el inicio de la inteligencia artificial". [247]
  19. ^ Russell y Norvig escribieron "durante los próximos 20 años, el campo estaría dominado por estas personas y sus estudiantes". [250]
  20. ^ Russell y Norvig escribieron "era sorprendente cada vez que una computadora hacía algo inteligente". [251]
  21. ^ Los programas descritos son el programa de damas de Arthur Samuel para IBM 701 , ESTUDIANTE de Daniel Bobrow , Teórico de la lógica de Newell y Simon y SHRDLU de Terry Winograd .
  22. ^ Russell y Norvig escriben: "en casi todos los casos, estos primeros sistemas fallaron en problemas más difíciles" [252]
  23. Los enfoques incorporados a la IA [258] fueron defendidos por Hans Moravec [259] y Rodney Brooks [260] y recibieron muchos nombres: Nouvelle AI . [260] Robótica del desarrollo , [261]
  24. ^ Matteo Wong escribió en The Atlantic : "Mientras que durante décadas, los campos de la informática, como el procesamiento del lenguaje natural, la visión por computadora y la robótica, utilizaron métodos extremadamente diferentes, ahora todos utilizan un método de programación llamado" aprendizaje profundo ". Como resultado , su código y sus enfoques se han vuelto más similares y sus modelos son más fáciles de integrar entre sí". [267]
  25. ^ Jack Clark escribió en Bloomberg : "Después de media década de avances silenciosos en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca", y señaló que la cantidad de proyectos de software que utilizan el aprendizaje automático en Google pasó de un "uso esporádico" en 2012 a más de 2.700 proyectos en 2015. [269]
  26. ^ Ver Problema de otras mentes
  27. ^ Nils Nilsson escribió en 1983: "En pocas palabras, existe un gran desacuerdo en el campo sobre de qué se trata la IA". [283]
  28. ^ Daniel Crevier escribió que "el tiempo ha demostrado la exactitud y perspicacia de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugirieron podrían haberse tomado mucho antes". [288]
  29. ^ Searle presentó esta definición de "IA fuerte" en 1999. [298] La formulación original de Searle era "La computadora apropiadamente programada realmente es una mente, en el sentido de que se puede decir literalmente que las computadoras con los programas correctos comprenden y tienen otros estados cognitivos". ". [299] Russell y Norvig definen de manera similar la IA fuerte : "IA fuerte: la afirmación de que las máquinas que lo hacen en realidad están pensando (en lugar de simular el pensamiento)". [300]

Referencias

  1. ^ Google (2016).
  2. ^ abcde Copeland, J., ed. (2004). The Essential Turing: las ideas que dieron origen a la era de las computadoras . Oxford, Inglaterra: Clarendon Press. ISBN 0-19-825079-7.
  3. ^ ab Taller de Dartmouth :
    • Russell y Norvig (2021, pág.18)
    • McCorduck (2004, págs. 111-136)
    • NRC (1999, págs. 200-201)
    La propuesta:
    • McCarthy y cols. (1955)
  4. ^ ab Programas exitosos en la década de 1960:
    • McCorduck (2004, págs. 243-252)
    • Crevier (1993, págs. 52-107)
    • Moravec (1988, pág. 9)
    • Russell y Norvig (2021, págs. 19-21)
  5. ^ ab Iniciativas de financiación a principios de la década de 1980: Proyecto de Quinta Generación (Japón), Alvey (Reino Unido), Microelectronics and Computer Technology Corporation (EE. UU.), Strategic Computing Initiative (EE. UU.):
    • McCorduck (2004, págs. 426–441)
    • Crevier (1993, págs. 161–162, 197–203, 211, 240)
    • Russell y Norvig (2021, pág.23)
    • NRC (1999, págs. 210-211)
    • Newquist (1994, págs. 235-248)
  6. ^ ab Primer invierno de IA , informe Lighthill , enmienda Mansfield
    • Crevier (1993, págs. 115-117)
    • Russell y Norvig (2021, págs. 21-22)
    • NRC (1999, págs. 212 y 213)
    • Cómo (1994)
    • Newquist (1994, págs. 189-201)
  7. ^ ab Segundo invierno de IA :
    • Russell y Norvig (2021, pág.24)
    • McCorduck (2004, págs. 430–435)
    • Crevier (1993, págs. 209-210)
    • NRC (1999, págs. 214-216)
    • Newquist (1994, págs. 301–318)
  8. ^ ab Revolución del aprendizaje profundo , AlexNet :
    • Goldman (2022)
    • Russell y Norvig (2021, pág.26)
    • McKinsey (2018)
  9. ^ Toews (2023).
  10. ^ ab Frank (2023).
  11. ^ abc Inteligencia general artificial :
    • Russell y Norvig (2021, págs. 32–33, 1020–1021)
    Propuesta para la versión moderna:
    • Pennachin y Goertzel (2007)
    Advertencias de sobreespecialización en IA por parte de investigadores destacados:
    • Nilson (1995)
    • McCarthy (2007)
    • Beal y Winston (2009)
  12. ^ Russell y Norvig (2021, §1.2).
  13. ^ Resolución de problemas, resolución de acertijos, juegos y deducción:
    • Russell y Norvig (2021, capítulos 3 a 5)
    • Russell & Norvig (2021, capítulo 6) ( satisfacción de restricciones )
    • Poole, Mackworth y Goebel (1998, capítulos 2, 3, 7, 9)
    • Luger y Stubblefield (2004, capítulos 3, 4, 6, 8)
    • Nilsson (1998, capítulos 7-12)
  14. ^ Razonamiento incierto:
    • Russell y Norvig (2021, capítulos 12-18)
    • Poole, Mackworth y Goebel (1998, págs. 345–395)
    • Luger y Stubblefield (2004, págs. 333–381)
    • Nilsson (1998, capítulos 7-12)
  15. ^ abc Intratabilidad y eficiencia y la explosión combinatoria :
    • Russell y Norvig (2021, pág.21)
  16. ^ abc Evidencia psicológica de la prevalencia del razonamiento y el conocimiento subsimbólicos:
    • Kahneman (2011)
    • Dreyfus y Dreyfus (1986)
    • Wason y Shapiro (1966)
    • Kahneman, Slovic y Tversky (1982)
  17. ^ Representación del conocimiento e ingeniería del conocimiento :
    • Russell y Norvig (2021, capítulo 10)
    • Poole, Mackworth y Goebel (1998, págs. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
    • Luger y Stubblefield (2004, págs. 227-243),
    • Nilsson (1998, capítulos 17.1–17.4, 18)
  18. ^ Smoliar y Zhang (1994).
  19. ^ Neumann y Moller (2008).
  20. ^ Kuperman, Reichley y Bailey (2006).
  21. ^ McGarry (2005).
  22. ^ Bertini, Del Bimbo y Torniai (2006).
  23. ^ Russell y Norvig (2021), págs.272.
  24. ^ Representación de categorías y relaciones: redes semánticas , lógicas de descripción , herencia (incluidos marcos y guiones ):
    • Russell y Norvig (2021, §10.2 y 10.5),
    • Poole, Mackworth y Goebel (1998, págs. 174-177),
    • Luger y Stubblefield (2004, págs. 248-258),
    • Nilsson (1998, capítulo 18.3)
  25. ^ Representación de eventos y tiempo: cálculo de situaciones , cálculo de eventos , cálculo fluido (incluida la resolución del problema marco ):
    • Russell y Norvig (2021, §10.3),
    • Poole, Mackworth y Goebel (1998, págs. 281–298),
    • Nilsson (1998, capítulo 18.2)
  26. ^ Cálculo causal :
    • Poole, Mackworth y Goebel (1998, págs. 335–337)
  27. ^ Representar el conocimiento sobre el conocimiento: cálculo de creencias, lógica modal :
    • Russell y Norvig (2021, §10.4),
    • Poole, Mackworth y Goebel (1998, págs. 275-277)
  28. ^ ab Razonamiento predeterminado , problema de marco , lógica predeterminada , lógicas no monótonas , circunscripción , suposición de mundo cerrado , abducción :
    • Russell y Norvig (2021, §10.6)
    • Poole, Mackworth y Goebel (1998, págs. 248–256, 323–335)
    • Luger y Stubblefield (2004, págs. 335–363)
    • Nilsson (1998, ~18.3.3)
    (Poole et al. ubican la abducción bajo "razonamiento predeterminado". Luger et al. ubican esto bajo "razonamiento incierto").
  29. ^ ab Amplitud de conocimiento de sentido común:
    • Lenat y Guha (1989, Introducción)
    • Crevier (1993, págs. 113-114),
    • Moravec (1988, pág. 13),
    • Russell & Norvig (2021, págs. 241, 385, 982) ( problema de calificación )
  30. ^ Newquist (1994), pág. 296.
  31. ^ Crevier (1993), págs. 204-208.
  32. ^ Russell y Norvig (2021), pág. 528.
  33. ^ Planificación automatizada :
    • Russell y Norvig (2021, capítulo 11).
  34. ^ Toma de decisiones automatizada , Teoría de la decisión :
    • Russell y Norvig (2021, capítulos 16-18).
  35. ^ Planificación clásica :
    • Russell y Norvig (2021, sección 11.2).
  36. ^ Planificación sin sensores o "conforme", planificación contingente, replanificación (también conocida como planificación en línea):
    • Russell y Norvig (2021, sección 11.5).
  37. ^ Preferencias inciertas:
    • Russell y Norvig (2021, sección 16.7)
    Aprendizaje por refuerzo inverso :
    • Russell y Norvig (2021, sección 22.6)
  38. ^ Teoría del valor de la información :
    • Russell y Norvig (2021, sección 16.6).
  39. ^ Proceso de decisión de Markov :
    • Russell y Norvig (2021, capítulo 17).
  40. ^ Teoría de juegos y teoría de la decisión multiagente:
    • Russell y Norvig (2021, capítulo 18).
  41. ^ Aprendizaje :
    • Russell y Norvig (2021, capítulos 19-22)
    • Poole, Mackworth y Goebel (1998, págs. 397–438)
    • Luger y Stubblefield (2004, págs. 385–542)
    • Nilsson (1998, capítulos 3.3, 10.3, 17.5, 20)
  42. ^ Turing (1950).
  43. ^ Salomónoff (1956).
  44. ^ Aprendizaje no supervisado :
  45. ^ ab Aprendizaje supervisado :
    • Russell & Norvig (2021, §19.2) (Definición)
    • Russell & Norvig (2021, capítulos 19 y 20) (Técnicas)
  46. ^ Aprendizaje por refuerzo :
    • Russell y Norvig (2021, capítulo 22)
    • Luger y Stubblefield (2004, págs. 442–449)
  47. ^ Transferir aprendizaje :
    • Russell y Norvig (2021, págs.281)
    • El economista (2016)
  48. ^ "Inteligencia artificial (IA): ¿Qué es la IA y cómo funciona? | Integrada". construidoin.com . Consultado el 30 de octubre de 2023 .
  49. ^ Teoría del aprendizaje computacional :
    • Russell y Norvig (2021, págs. 672–674)
    • Jordan y Mitchell (2015)
  50. ^ Procesamiento del lenguaje natural (PNL):
    • Russell y Norvig (2021, capítulos 23 y 24)
    • Poole, Mackworth y Goebel (1998, págs. 91-104)
    • Luger y Stubblefield (2004, págs. 591–632)
  51. ^ Subproblemas de la PNL :
    • Russell y Norvig (2021, págs. 849–850)
  52. ^ Russell y Norvig (2021), pág. 856–858.
  53. ^ Dickson (2022).
  54. ^ Enfoques modernos estadísticos y de aprendizaje profundo de la PNL :
    • Russell y Norvig (2021, capítulo 24)
    • Cambria y blanco (2014)
  55. ^ Vicente (2019).
  56. ^ Russell y Norvig (2021), pág. 875–878.
  57. ^ Bushwick (2023).
  58. ^ Visión por computadora :
    • Russell y Norvig (2021, capítulo 25)
    • Nilsson (1998, capítulo 6)
  59. ^ Russell y Norvig (2021), págs. 849–850.
  60. ^ Russell y Norvig (2021), págs. 895–899.
  61. ^ Russell y Norvig (2021), págs. 899–901.
  62. ^ Russell y Norvig (2021), págs. 931–938.
  63. ^ MIT AIL (2014).
  64. ^ Computación afectiva :
    • Thro (1993)
    • Edelson (1991)
    • Tao y bronceado (2005)
    • Scassellati (2002)
  65. ^ Waddell (2018).
  66. ^ Poria y col. (2017).
  67. ^ Algoritmos de búsqueda :
    • Russell y Norvig (2021, capítulos 3 a 5)
    • Poole, Mackworth y Goebel (1998, págs. 113-163)
    • Luger y Stubblefield (2004, págs. 79–164, 193–219)
    • Nilsson (1998, capítulos 7-12)
  68. ^ Búsqueda de espacio de estados :
    • Russell y Norvig (2021, capítulo 3)
  69. ^ Russell y Norvig (2021), §11.2.
  70. ^ Búsquedas no informadas ( búsqueda primero en amplitud , búsqueda primero en profundidad y búsqueda general en el espacio de estados ):
    • Russell y Norvig (2021, §3.4)
    • Poole, Mackworth y Goebel (1998, págs. 113-132)
    • Luger y Stubblefield (2004, págs. 79-121)
    • Nilsson (1998, capítulo 8)
  71. ^ Búsquedas heurísticas o informadas (p. ej., codicioso mejor primero y A* ):
    • Russell y Norvig (2021, artículo 3.5)
    • Poole, Mackworth y Goebel (1998, págs. 132-147)
    • Poole y Mackworth (2017, §3.6)
    • Luger y Stubblefield (2004, págs. 133-150)
  72. ^ Búsqueda adversaria :
    • Russell y Norvig (2021, capítulo 5)
  73. ^ Búsqueda local o de " optimización ":
    • Russell y Norvig (2021, capítulo 4)
  74. ^ Singh Chauhan, Nagesh (18 de diciembre de 2020). "Algoritmos de optimización en redes neuronales". KDnuggets . Consultado el 13 de enero de 2024 .
  75. ^ Cálculo evolutivo :
    • Russell y Norvig (2021, §4.1.2)
  76. ^ Merkle y Middendorf (2013).
  77. ^ Lógica :
    • Russell y Norvig (2021, capítulos 6 a 9)
    • Luger y Stubblefield (2004, págs. 35 a 77)
    • Nilsson (1998, capítulos 13-16)
  78. ^ Lógica proposicional :
    • Russell y Norvig (2021, capítulo 6)
    • Luger y Stubblefield (2004, págs. 45-50)
    • Nilsson (1998, capítulo 13)
  79. ^ Lógica de primer orden y características como la igualdad :
    • Russell y Norvig (2021, capítulo 7)
    • Poole, Mackworth y Goebel (1998, págs. 268-275),
    • Luger y Stubblefield (2004, págs. 50 a 62),
    • Nilsson (1998, capítulo 15)
  80. ^ Inferencia lógica :
    • Russell y Norvig (2021, capítulo 10)
  81. ^ Russell y Norvig (2021), §8.3.1.
  82. ^ Resolución y unificación :
    • Russell y Norvig (2021, §7.5.2, §9.2, §9.5)
  83. ^ Encadenamiento hacia adelante , encadenamiento hacia atrás , cláusulas Horn y deducción lógica como búsqueda:
    • Russell y Norvig (2021, §9.3, §9.4)
    • Poole, Mackworth y Goebel (1998, págs. ~46–52)
    • Luger y Stubblefield (2004, págs. 62 a 73)
    • Nilsson (1998, capítulos 4.2, 7.2)
  84. ^ Lógica difusa :
    • Russell y Norvig (2021, págs.214, 255, 459)
    • Científico americano (1999)
  85. ^ ab Métodos estocásticos para razonamiento incierto:
    • Russell y Norvig (2021, capítulos 12 a 18 y 20),
    • Poole, Mackworth y Goebel (1998, págs. 345–395),
    • Luger y Stubblefield (2004, págs. 165–191, 333–381),
    • Nilsson (1998, capítulo 19)
  86. ^ Redes bayesianas :
    • Russell y Norvig (2021, §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2 -20.3),
    • Poole, Mackworth y Goebel (1998, págs. 361–381),
    • Luger y Stubblefield (2004, págs. ~182–190, ≈363–379),
    • Nilsson (1998, capítulos 19.3–4)
  87. Domingos (2015), capítulo 6.
  88. ^ Algoritmo de inferencia bayesiano :
    • Russell y Norvig (2021, §13.3–13.5),
    • Poole, Mackworth y Goebel (1998, págs. 361–381),
    • Luger y Stubblefield (2004, págs. ~ 363–379),
    • Nilsson (1998, capítulos 19.4 y 7)
  89. ^ Domingos (2015), pág. 210.
  90. ^ Aprendizaje bayesiano y algoritmo de maximización de expectativas :
    • Russell y Norvig (2021, capítulo 20),
    • Poole, Mackworth y Goebel (1998, págs. 424–433),
    • Nilsson (1998, capítulo 20)
    • Domingos (2015, p. 210)
  91. ^ Teoría de la decisión bayesiana y redes de decisión bayesiana :
    • Russell y Norvig (2021, §16.5)
  92. ^ abc Modelos temporales estocásticos:
    • Russell y Norvig (2021, capítulo 14)
    Modelo de Markov oculto :
    • Russell y Norvig (2021, §14.3)
    Filtros de Kalman :
    • Russell y Norvig (2021, §14.4)
    Redes bayesianas dinámicas :
    • Russell y Norvig (2021, §14.5)
  93. ^ teoría de la decisión y análisis de decisiones :
    • Russell y Norvig (2021, capítulos 16-18),
    • Poole, Mackworth y Goebel (1998, págs. 381–394)
  94. ^ Teoría del valor de la información :
    • Russell y Norvig (2021, §16.6)
  95. ^ Procesos de decisión de Markov y redes de decisión dinámicas :
    • Russell y Norvig (2021, capítulo 17)
  96. ^ Teoría de juegos y diseño de mecanismos :
    • Russell y Norvig (2021, capítulo 18)
  97. ^ Clasificadores y métodos de aprendizaje estadístico :
    • Russell y Norvig (2021, capítulo 20),
  98. ^ Árboles de decisión :
    • Russell y Norvig (2021, §19.3)
    • Domingos (2015, p. 88)
  99. ^ Modelos de aprendizaje no paramétricos como K-vecino más cercano y máquinas de vectores de soporte :
    • Russell y Norvig (2021, §19.7)
    • Domingos (2015, p. 187) (k-vecino más cercano)
    • Domingos (2015, p. 88) (métodos kernel)
  100. ^ Domingos (2015), pág. 152.
  101. ^ Clasificador ingenuo de Bayes :
    • Russell y Norvig (2021, §12.6)
    • Domingos (2015, p. 152)
  102. ^ ab Redes neuronales:
    • Russell y Norvig (2021, capítulo 21),
    • Domingos (2015, Capítulo 4)
  103. ^ Cálculo de gradiente en gráficos computacionales, retropropagación , diferenciación automática :
    • Russell y Norvig (2021, §21.2),
    • Luger y Stubblefield (2004, págs. 467–474),
    • Nilsson (1998, capítulo 3.3)
  104. ^ Teorema de aproximación universal :
    • Russell y Norvig (2021, pág.752)
    El teorema:
    • Cibenko (1988)
    • Hornik, Stinchcombe y White (1989)
  105. ^ Redes neuronales de avance :
    • Russell y Norvig (2021, §21.1)
  106. ^ Redes neuronales recurrentes :
    • Russell y Norvig (2021, §21.6)
  107. ^ Perceptrones :
    • Russell y Norvig (2021, págs.21, 22, 683, 22)
  108. ^ ab Aprendizaje profundo :
    • Russell y Norvig (2021, capítulo 21)
    • Goodfellow, Bengio y Courville (2016)
    • Hinton et al. (2016)
    • Schmidhuber (2015)
  109. ^ Redes neuronales convolucionales :
    • Russell y Norvig (2021, §21.3)
  110. ^ Deng y Yu (2014), págs. 199-200.
  111. ^ Ciresan, Meier y Schmidhuber (2012).
  112. ^ Russell y Norvig (2021), pág. 751.
  113. ^ abcdefg Russell y Norvig (2021), pág. 785.
  114. ^ ab Schmidhuber (2022), §5.
  115. ^ ab Schmidhuber (2022), §6.
  116. ^ abc Schmidhuber (2022), §7.
  117. ^ Schmidhuber (2022), §8.
  118. ^ Schmidhuber (2022), §2.
  119. ^ Schmidhuber (2022), §3.
  120. ^ Citado en Christian (2020, p. 22)
  121. ^ Herrero (2023).
  122. ^ "Explicado: IA generativa". 9 de noviembre de 2023.
  123. ^ "Herramientas de creación de contenido y redacción de IA". Tecnologías de enseñanza y aprendizaje del MIT Sloan . Consultado el 25 de diciembre de 2023 .
  124. ^ Marmouyet (2023).
  125. ^ Kobielus (2019).
  126. ^ Davenport, T; Kalakota, R (junio de 2019). "El potencial de la inteligencia artificial en la asistencia sanitaria". Salud futurac J . 6 (2): 94–98. doi : 10.7861/futurehosp.6-2-94. PMC 6616181 . PMID  31363513. 
  127. ^ ab Bax, Monique; Thorpe, Jordania; Romanov, Valentin (diciembre de 2023). "El futuro de la medicina cardiovascular personalizada exige impresión 3D y 4D, células madre e inteligencia artificial". Fronteras en sensores . 4 . doi : 10.3389/fsens.2023.1294721 . ISSN  2673-5067.
  128. ^ Saltador, J; Evans, R; Pritzel, A (2021). "Predicción de la estructura de proteínas de alta precisión con AlphaFold". Naturaleza . 596 (7873): 583–589. Código Bib :2021Natur.596..583J. doi :10.1038/s41586-021-03819-2. PMC 8371605 . PMID  34265844. 
  129. ^ "La IA descubre una nueva clase de antibióticos para matar las bacterias resistentes a los medicamentos". 20 de diciembre de 2023.
  130. ^ Grant, Eugene F.; Lardner, Rex (25 de julio de 1952). "La comidilla de la ciudad: eso". El neoyorquino . ISSN  0028-792X . Consultado el 28 de enero de 2024 .
  131. ^ Anderson, Mark Robert (11 de mayo de 2017). "Veinte años después de Deep Blue vs Kasparov: cómo una partida de ajedrez inició la revolución del big data". La conversación . Consultado el 28 de enero de 2024 .
  132. ^ Markoff, John (16 de febrero de 2011). "La computadora gana en 'Jeopardy!': Trivial, no lo es". Los New York Times . ISSN  0362-4331 . Consultado el 28 de enero de 2024 .
  133. ^ Byford, Sam (27 de mayo de 2017). "AlphaGo se retira del Go competitivo tras derrotar al número uno del mundo por 3-0". El borde . Consultado el 28 de enero de 2024 .
  134. ^ Marrón, Noam; Sandholm, Tuomas (30 de agosto de 2019). "IA sobrehumana para el póquer multijugador". Ciencia . 365 (6456): 885–890. doi : 10.1126/ciencia.aay2400. ISSN  0036-8075.
  135. ^ "MuZero: Dominar el Go, el ajedrez, el shogi y Atari sin reglas". Google Deep Mind . 23 de diciembre de 2020 . Consultado el 28 de enero de 2024 .
  136. ^ Muestra, Ian (30 de octubre de 2019). "La IA se convierte en gran maestra en StarCraft II 'diabólicamente complejo'". El guardián . ISSN  0261-3077 . Consultado el 28 de enero de 2024 .
  137. ^ Wurman, relaciones públicas; Barrett, S.; Kawamoto, K. (2022). "Superar a los conductores campeones de Gran Turismo con un aprendizaje por refuerzo profundo". Naturaleza 602 . 602 (7896): 223–228. doi :10.1038/s41586-021-04357-7.
  138. ^ Caballero, voluntad. "Estados Unidos y otras 30 naciones acuerdan establecer barreras para la IA militar". Cableado . ISSN  1059-1028 . Consultado el 24 de enero de 2024 .
  139. ^ Marcelline, Marco (27 de mayo de 2023). "ChatGPT: la mayoría de los estadounidenses lo saben, pero pocos utilizan realmente el chatbot de IA". PCMag . Consultado el 28 de enero de 2024 .
  140. ^ Lu, Donna (31 de marzo de 2023). "Desinformación, errores y el Papa en un inhalador: lo que la IA en rápida evolución puede y no puede hacer" . El guardián . ISSN  0261-3077 . Consultado el 28 de enero de 2024 .
  141. ^ "La imagen falsa de la explosión del Pentágono provoca una caída real en Wall Street". euronoticias . 23 de mayo de 2023 . Consultado el 28 de enero de 2024 .
  142. ^ Ransbotham, Sam; Quirón, David; Gerberto, Philipp; Reeves, Martin (6 de septiembre de 2017). "Remodelar los negocios con inteligencia artificial". Revisión de la gestión de préstamos del MIT .
  143. ^ Simonita (2016).
  144. ^ Russell y Norvig (2021), pág. 987.
  145. ^ Laskowski (2023).
  146. ^ GAO (2022).
  147. ^ Valinsky (2019).
  148. ^ Russell y Norvig (2021), pág. 991.
  149. ^ Russell y Norvig (2021), pág. 991–992.
  150. ^ Cristiano (2020), pág. 63.
  151. ^ Vicente (2022).
  152. ^ Reisner (2023).
  153. ^ Alterar y Harris (2023).
  154. Nicas (2018).
  155. ^ "Confianza y desconfianza en Estados Unidos". 22 de julio de 2019.
  156. ^ Williams (2023).
  157. ^ Taylor y Hern (2023).
  158. ^ ab Rose (2023).
  159. ^ CNA (2019).
  160. ^ Goffrey (2008), pág. 17.
  161. ^ Berdahl y col. (2023); Goffrey (2008, pág. 17); Rosa (2023); Russell y Norvig (2021, pág. 995)
  162. ^ Sesgo algorítmico y equidad (aprendizaje automático) :
    • Russell & Norvig (2021, sección 27.3.3)
    • Cristiano (2020, Justicia)
  163. ^ Cristiano (2020), pág. 25.
  164. ^ ab Russell y Norvig (2021), pág. 995.
  165. ^ Grant y Hill (2023).
  166. ^ Larson y Angwin (2016).
  167. ^ Cristiano (2020), pág. 67–70.
  168. ^ Cristiano (2020, págs. 67–70); Russell y Norvig (2021, págs. 993–994)
  169. ^ Russell y Norvig (2021, pág. 995); Lipartito (2011, p. 36); Goodman y Flaxman (2017, pág. 6); Cristiano (2020, págs. 39–40, 65)
  170. ^ Citado en Christian (2020, p. 65).
  171. ^ Russell y Norvig (2021, pág. 994); Cristiano (2020, págs.40, 80–81)
  172. ^ Citado en Christian (2020, p. 80)
  173. ^ Dockrill (2022).
  174. ^ Muestra (2017).
  175. ^ "IA de caja negra". 16 de junio de 2023.
  176. ^ Cristiano (2020), pág. 110.
  177. ^ Cristiano (2020), págs. 88–91.
  178. ^ Cristiano (2020, p. 83); Russell y Norvig (2021, pág. 997)
  179. ^ Cristiano (2020), pág. 91.
  180. ^ Cristiano (2020), pág. 83.
  181. ^ Verma (2021).
  182. ^ Rothman (2020).
  183. ^ Cristiano (2020), pág. 105-108.
  184. ^ Cristiano (2020), págs. 108-112.
  185. ^ Russell y Norvig (2021), pág. 989.
  186. ^ Robitzski (2018); Sainato (2015)
  187. ^ Russell y Norvig (2021), pág. 987-990.
  188. ^ Russell y Norvig (2021), pág. 988.
  189. ^ Harari (2018).
  190. ^ Buckley, Chris; Mozur, Paul (22 de mayo de 2019). "Cómo China utiliza la vigilancia de alta tecnología para someter a las minorías". Los New York Times .
  191. ^ "La falla de seguridad expuso un sistema de vigilancia de ciudad inteligente chino". 3 de mayo de 2019. Archivado desde el original el 7 de marzo de 2021 . Consultado el 14 de septiembre de 2020 .
  192. ^ "Pronto se instalarán señales de tráfico con IA en Bangalore". SiguienteBigWhat . 24 de septiembre de 2019 . Consultado el 1 de octubre de 2019 .
  193. ^ Urbina et al. (2022).
  194. ^ Tarnoff, Ben (4 de agosto de 2023). "Lecciones de Eliza". El guardián semanal . págs. 34–9.
  195. ^ ab E McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica '(2022) 51 (3) Industrial Law Journal 511–559 Archivado el 27 de mayo de 2023 en Wayback Machine.
  196. ^ Ford y Colvin (2015); McGaughey (2022)
  197. ^ IGM Chicago (2017).
  198. ^ Arntz, Gregory y Zierahn (2016), pág. 33.
  199. ^ Lohr (2017); Frey y Osborne (2017); Arntz, Gregory y Zierahn (2016, p.33)
  200. ^ Morgenstern (2015).
  201. ^ Mahdawi (2017); Thompson (2014)
  202. ^ Zhou, Viola (11 de abril de 2023). "La IA ya está quitando puestos de trabajo a los ilustradores de videojuegos en China". Resto del mundo . Consultado el 17 de agosto de 2023 .
  203. ^ Carter, Justin (11 de abril de 2023). "Según se informa, la industria del arte de los juegos de China está diezmada por el creciente uso de la IA". Desarrollador de juegos . Consultado el 17 de agosto de 2023 .
  204. ^ Cellan-Jones (2014).
  205. ^ Russell y Norvig 2021, pag. 1001.
  206. ^ Bostrom (2014).
  207. ^ Russell (2019).
  208. ^ Bostrom (2014); Müller y Bostrom (2014); Bostrom (2015).
  209. ^ Harari (2023).
  210. ^ Müller y Bostrom (2014).
  211. ^ Preocupaciones de los líderes sobre los riesgos existenciales de la IA alrededor de 2015:
    • Rawlinson (2015)
    • Holley (2015)
    • Gibbs (2014)
    • Sainato (2015)
  212. ^ Argumentos de que la IA no es un riesgo inminente:
    • Arroyos (2014)
    • Geist (2015)
    • Madrigal (2015)
    • Lee (2014)
  213. ^ ab Christian (2020), págs.67, 73.
  214. ^ Cenefa (2023).
  215. ^ Taylor, Josh (7 de mayo de 2023). "El auge de la inteligencia artificial es inevitable, pero no debe temerse, dice el 'padre de la IA'". El guardián . Consultado el 26 de mayo de 2023 .
  216. ^ Colton, Emma (7 de mayo de 2023). "'El padre de la IA dice que los temores tecnológicos están fuera de lugar: 'No puedes detenerlos'". Fox News . Consultado el 26 de mayo de 2023 .
  217. ^ Jones, Hessie (23 de mayo de 2023). "Juergen Schmidhuber, el renombrado 'padre de la IA moderna', dice que el trabajo de su vida no conducirá a la distopía". Forbes . Consultado el 26 de mayo de 2023 .
  218. ^ McMorrow, Ryan (19 de diciembre de 2023). "Andrew Ng: '¿Creemos que el mundo está mejor con más o menos inteligencia?'". Tiempos financieros . Consultado el 30 de diciembre de 2023 .
  219. ^ Levy, Steven (22 de diciembre de 2023). "Cómo no ser estúpido con la IA, con Yann LeCun". Cableado . Consultado el 30 de diciembre de 2023 .
  220. ^ Yudkowsky (2008).
  221. ^ ab Anderson y Anderson (2011).
  222. ^ AAAI (2014).
  223. ^ Wallach (2010).
  224. ^ Russell (2019), pág. 173.
  225. ^ Instituto Alan Turing (2019). "Comprensión de la ética y la seguridad de la inteligencia artificial" (PDF) .
  226. ^ Instituto Alan Turing (2023). "Ética y gobernanza de la IA en la práctica" (PDF) .
  227. ^ Floridi, Luciano; Cowls, Josh (23 de junio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Revisión de ciencia de datos de Harvard . 1 (1). doi : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  228. ^ Buruk, Banú; Ekmekci, Perihan Elif; Arda, Berna (1 de septiembre de 2020). "Una perspectiva crítica sobre las directrices para una inteligencia artificial responsable y confiable". Medicina, Salud y Filosofía . 23 (3): 387–399. doi :10.1007/s11019-020-09948-1. ISSN  1572-8633. PMID  32236794. S2CID  214766800.
  229. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (1 de enero de 2023). "Cuestiones éticas en el desarrollo de la inteligencia artificial: reconociendo los riesgos". Revista Internacional de Ética y Sistemas . adelantado a la impresión (adelante de impresión). doi :10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  230. ^ Regulación de la IA para mitigar riesgos:
    • Berryhill et al. (2019)
    • Barfield y Pagallo (2018)
    • Iphofen y Kritikos (2019)
    • Wirtz, Weyerer y Geyer (2018)
    • Buiten (2019)
  231. ^ ab Vicente (2023).
  232. ^ Universidad de Stanford (2023).
  233. ^ abcd UNESCO (2021).
  234. ^ Kissinger (2021).
  235. ^ Altman, Brockman y Sutskever (2023).
  236. ^ Noticias VOA (25 de octubre de 2023). "La ONU anuncia un órgano asesor sobre inteligencia artificial".
  237. ^ Edwards (2023).
  238. ^ Kasperowicz (2023).
  239. ^ Noticias Fox (2023).
  240. ^ Milmo, Dan (3 de noviembre de 2023). "¿Esperanza u horror? El gran debate sobre la IA que divide a sus pioneros". El guardián semanal . págs. 10-12.
  241. ^ "La Declaración de Bletchley de los países que asisten a la Cumbre de seguridad de la IA, 1 y 2 de noviembre de 2023". GOBIERNO DEL REINO UNIDO . 1 de noviembre de 2023. Archivado desde el original el 1 de noviembre de 2023 . Consultado el 2 de noviembre de 2023 .
  242. ^ "Los países acuerdan un desarrollo seguro y responsable de la IA de frontera en la histórica Declaración de Bletchley". GOV.UK (Presione soltar). Archivado desde el original el 1 de noviembre de 2023 . Consultado el 1 de noviembre de 2023 .
  243. ^ Berlínski (2000).
  244. ^ "Ngram de libros de Google".
  245. ^ Precursores inmediatos de la IA:
    • McCorduck (2004, págs. 51-107)
    • Crevier (1993, págs. 27-32)
    • Russell y Norvig (2021, págs. 8-17)
    • Moravec (1988, pág. 3)
  246. ^ ab Russell y Norvig (2021), pág. 17.
  247. ^ Consulte "Una breve historia de la informática" en AlanTuring.net.
  248. ^ Crevier (1993), págs. 47–49.
  249. ^ Russell y Norvig (2003), pág. 17.
  250. ^ Russell y Norvig (2003), pág. 18.
  251. ^ Russell y Norvig (2021), pág. 21.
  252. ^ Colina ligera (1973).
  253. ^ Russell y Norvig (2021), pág. 22.
  254. ^ Sistemas expertos :
    • Russell y Norvig (2021, págs.23, 292)
    • Luger y Stubblefield (2004, págs. 227–331)
    • Nilsson (1998, capítulo 17.4)
    • McCorduck (2004, págs. 327–335, 434–435)
    • Crevier (1993, págs. 145–62, 197–203)
    • Newquist (1994, págs. 155-183)
  255. ^ Russell y Norvig (2021), pág. 24.
  256. ^ Nilsson (1998), pág. 7.
  257. ^ McCorduck (2004), págs. 454–462.
  258. ^ Moravec (1988).
  259. ^ ab Brooks (1990).
  260. ^ Robótica del desarrollo :
    • Weng et al. (2001)
    • Lungarella et al. (2003)
    • Asada et al. (2009)
    • Oudeyer (2010)
  261. ^ Russell y Norvig (2021), pág. 25.
  262. ^
    • Crevier (1993, págs. 214-215)
    • Russell y Norvig (2021, págs.24, 26)
  263. ^ Russell y Norvig (2021), pág. 26.
  264. ^ Métodos formales y limitados adoptados en la década de 1990:
    • Russell y Norvig (2021, págs. 24-26)
    • McCorduck (2004, págs. 486–487)
  265. ^ IA ampliamente utilizada a finales de la década de 1990:
    • Kurzweil (2005, pág. 265)
    • NRC (1999, págs. 216-222)
    • Newquist (1994, págs. 189-201)
  266. ^ Wong (2023).
  267. ^ Ley de Moore e IA:
    • Russell y Norvig (2021, págs.14, 27)
  268. ^ abc Clark (2015b).
  269. ^ Grandes datos :
    • Russell y Norvig (2021, pág.26)
  270. ^ "Propiedad intelectual y tecnologías de frontera". OMPI . Archivado desde el original el 2 de abril de 2022 . Consultado el 30 de marzo de 2022 .
  271. ^ DiFeliciantonio (2023).
  272. ^ Goswami (2023).
  273. ^ ab Turing (1950), pág. 1.
  274. ^ Publicación original de Turing de la prueba de Turing en " Maquinaria informática e inteligencia ":
    • Turing (1950)
    Influencia histórica e implicaciones filosóficas:
    • Haugeland (1985, págs. 6 a 9)
    • Crevier (1993, p. 24)
    • McCorduck (2004, págs. 70-71)
    • Russell y Norvig (2021, págs.2 y 984)
  275. ^ Turing (1950), bajo "El argumento de la conciencia".
  276. ^ Russell y Norvig (2021), cap. 2.
  277. ^ Russell y Norvig (2021), pág. 3.
  278. ^ Creador (2006).
  279. ^ McCarthy (1999).
  280. ^ Minsky (1986).
  281. ^ "¿Qué es la inteligencia artificial (IA)?". Plataforma en la nube de Google . Archivado desde el original el 31 de julio de 2023 . Consultado el 16 de octubre de 2023 .
  282. ^ Nilsson (1983), pág. 10.
  283. ^ Haugeland (1985), págs. 112-117.
  284. ^ Hipótesis del sistema de símbolos físicos:
    • Newell y Simon (1976, pág. 116)
    Significado historico:
    • McCorduck (2004, pág.153)
    • Russell y Norvig (2021, pág.19)
  285. ^ La paradoja de Moravec :
    • Moravec (1988, págs. 15-16)
    • Minsky (1986, pág. 29)
    • Pinker (2007, págs. 190–91)
  286. ^ Crítica de Dreyfus a la IA :
    • Dreyfus (1972)
    • Dreyfus y Dreyfus (1986)
    Importancia histórica e implicaciones filosóficas:
    • Crevier (1993, págs. 120-132)
    • McCorduck (2004, págs. 211-239)
    • Russell y Norvig (2021, págs. 981–982)
    • Miedo (2007, capítulo 3)
  287. ^ Crevier (1993), pág. 125.
  288. ^ Langley (2011).
  289. ^ Katz (2012).
  290. ^ Neats versus desaliñados , el debate histórico:
    • McCorduck (2004, págs. 421–424, 486–489)
    • Crevier (1993, p. 168)
    • Nilsson (1983, págs. 10-11)
    • Russell y Norvig (2021, pág.24)
    Un ejemplo clásico del enfoque "desaliñado" de la inteligencia:
    • Minski (1986)
    Un ejemplo moderno de IA ordenada y sus aspiraciones en el siglo XXI:
    • Domingos (2015)
  291. ^ Pennachin y Goertzel (2007).
  292. ^ ab Roberts (2016).
  293. ^ Russell y Norvig (2021), pág. 986.
  294. ^ Chalmers (1995).
  295. ^ Dennett (1991).
  296. ^ Horst (2005).
  297. ^ Searle (1999).
  298. ^ Searle (1980), pág. 1.
  299. ^ Russell y Norvig (2021), pág. 9817.
  300. ^ Argumento de la habitación china de Searle :
    • Searle (1980). Presentación original de Searle del experimento mental.
    • Searle (1999).
    Discusión:
    • Russell y Norvig (2021, págs.985)
    • McCorduck (2004, págs. 443–445)
    • Crevier (1993, págs. 269-271)
  301. ^ Derechos de los robots :
    • Russell y Norvig (2021, págs. 1000-1001)
    • BBC (2006)
    • Maschafilm (2010) (la película Plug & Pray )
  302. ^ Evans (2015).
  303. ^ McCorduck (2004), págs. 19-25.
  304. ^ Henderson (2007).
  305. ^ La explosión de la inteligencia y la singularidad tecnológica :
    • Russell y Norvig (2021, págs. 1004-1005)
    • Omohundro (2008)
    • Kurzweil (2005)
    La "explosión de inteligencia" de IJ Good
    • Bueno (1965)
    La "singularidad" de Vernor Vinge
    • Viñeta (1993)
  306. ^ Russell y Norvig (2021), pág. 1005.
  307. ^ Transhumanismo :
    • Moraveč (1988)
    • Kurzweil (2005)
    • Russell y Norvig (2021, pág. 1005)
  308. ^ IA como evolución:
    • Edward Fredkin es citado en McCorduck (2004, p. 401)
    • Mayordomo (1863)
    • Dyson (1998)
  309. ^ IA en el mito:
    • McCorduck (2004, págs. 4-5)
  310. ^ McCorduck (2004), págs. 340–400.
  311. ^ Buttazzo (2001).
  312. ^ Anderson (2008).
  313. ^ McCauley (2007).
  314. ^ Galván (1997).

Libros de texto de IA

Los dos libros de texto más utilizados en 2023. (Ver el programa de estudios abierto).

Estos fueron los cuatro libros de texto sobre IA más utilizados en 2008:

Ediciones posteriores.

Historia de la IA

Otras fuentes

Otras lecturas

enlaces externos