El problema de la alineación: el aprendizaje automático y los valores humanos es un libro de no ficción de 2020 del escritor estadounidense Brian Christian . Se basa en numerosas entrevistas con expertos que intentan construirsistemas de inteligencia artificial , en particular sistemas de aprendizaje automático , que estén alineados con los valores humanos.
El libro está dividido en tres secciones: Profecía, Agencia y Normatividad. Cada sección cubre a investigadores e ingenieros que trabajan en diferentes desafíos para alinear la inteligencia artificial con los valores humanos.
En la primera sección, Christian entrelaza discusiones sobre la historia de la investigación en inteligencia artificial, en particular el enfoque de aprendizaje automático de las redes neuronales artificiales como Perceptron y AlexNet , con ejemplos de cómo los sistemas de IA pueden tener un comportamiento no deseado. Cuenta la historia de Julia Angwin , una periodista cuya investigación para ProPublica del algoritmo COMPAS , una herramienta para predecir la reincidencia entre los acusados de delitos, provocó críticas generalizadas sobre su precisión y sesgo hacia ciertos grupos demográficos. Uno de los principales desafíos de alineación de la IA es su naturaleza de caja negra (las entradas y las salidas son identificables, pero el proceso de transformación intermedio es indeterminado). La falta de transparencia dificulta saber dónde el sistema va bien y dónde va mal.
En la segunda sección, Christian entrelaza de manera similar la historia del estudio psicológico de la recompensa, como el conductismo y la dopamina , con la ciencia informática del aprendizaje por refuerzo , en la que los sistemas de IA necesitan desarrollar políticas ("qué hacer") frente a una función de valor ("qué recompensas o castigos esperar"). Llama a los sistemas AlphaGo y AlphaZero de DeepMind "quizás el logro más impresionante en el diseño curricular automatizado". También destaca la importancia de la curiosidad, en la que los estudiantes de refuerzo están intrínsecamente motivados a explorar su entorno, en lugar de buscar exclusivamente la recompensa externa.
La tercera sección cubre el entrenamiento de la IA a través de la imitación del comportamiento humano o de la máquina, así como debates filosóficos como entre el posibilismo y el actualismo que implican diferentes comportamientos ideales para los sistemas de IA. De particular importancia es el aprendizaje de refuerzo inverso , un enfoque amplio para que las máquinas aprendan la función objetivo de un humano u otro agente. Christian analiza los desafíos normativos asociados con el altruismo efectivo y el riesgo existencial , incluido el trabajo de los filósofos Toby Ord y William MacAskill que están tratando de idear estrategias humanas y de máquina para navegar por el problema de la alineación de la manera más efectiva posible.
El libro recibió críticas positivas de los críticos. David A. Shaywitz, del Wall Street Journal, destacó los problemas frecuentes que surgen al aplicar algoritmos a problemas del mundo real y describió el libro como "una exploración matizada y cautivadora de este tema candente". [2] Publishers Weekly elogió el libro por su redacción y su extensa investigación. [3]
Kirkus Reviews le dio al libro una reseña positiva, calificándolo de "técnicamente rico pero accesible", y "una exploración intrigante de la IA". [4] Escribiendo para Nature , Virginia Dignum le dio al libro una reseña positiva, comparándolo favorablemente con el Atlas de IA de Kate Crawford . [5]
En 2021, el periodista Ezra Klein invitó a Christian a su podcast, The Ezra Klein Show, y escribió en The New York Times : " El problema de la alineación es el mejor libro que he leído sobre las cuestiones técnicas y morales clave de la IA". [6] Más tarde ese año, el libro fue incluido en un artículo de Fast Company , "5 libros que inspiraron al CEO de Microsoft, Satya Nadella, este año". [7]
En 2022, el libro ganó el Premio Eric y Wendy Schmidt a la Excelencia en la Comunicación Científica , otorgado por las Academias Nacionales de Ciencias, Ingeniería y Medicina en asociación con Schmidt Futures . [8]
En 2024, The New York Times nombró a The Alignment Problem como uno de los "5 mejores libros sobre inteligencia artificial" y afirmó: "Si vas a leer un libro sobre inteligencia artificial, este es el indicado". [9]