AlphaGo versus Lee Sedol , también conocido como DeepMind Challenge Match , fue un partido de Go de cinco juegos entre el mejor jugador de Go Lee Sedol y AlphaGo , un programa informático de Go desarrollado por DeepMind , jugado en Seúl , Corea del Sur, entre el 9 y el 15 de marzo de 2016. AlphaGo ganó todos los juegos menos el cuarto; [1] todos los juegos se ganaron por renuncia. [2] El encuentro ha sido comparado con el histórico encuentro de ajedrez entre Deep Blue y Garry Kasparov en 1997.
Estaba previsto que el ganador del partido ganara 1 millón de dólares. Dado que AlphaGo ganó, Google DeepMind declaró que el premio se donará a organizaciones benéficas, incluidas UNICEF y organizaciones Go . [3] Lee recibió $170,000 ($150,000 por participar en los cinco juegos y $20,000 adicionales por ganar un juego). [4]
Después del partido, la Asociación Coreana de Baduk otorgó a AlphaGo el rango más alto de gran maestro de Go: un " 9 dan honorario ". Se otorgó en reconocimiento a los "sinceros esfuerzos" de AlphaGo para dominar el Go. [5] Este partido fue elegido por Science como uno de los subcampeones de Avance del año , el 22 de diciembre de 2016. [6]
Go es un juego de mesa complejo que requiere intuición, pensamiento creativo y estratégico. [8] [9] Durante mucho tiempo se ha considerado un desafío difícil en el campo de la inteligencia artificial (IA) y es considerablemente más difícil [10] de resolver que el ajedrez . Muchos en el campo de la inteligencia artificial consideran que el Go requiere más elementos que imiten el pensamiento humano que el ajedrez . [11] El matemático IJ Good escribió en 1965: [12]
¿Ir a una computadora? – Para programar una computadora para jugar un juego razonable de Go, en lugar de simplemente un juego legal, es necesario formalizar los principios de una buena estrategia o diseñar un programa de aprendizaje. Los principios son más cualitativos y misteriosos que en el ajedrez, y dependen más del juicio. Por lo tanto, creo que será aún más difícil programar una computadora para jugar una partida razonable de Go que de ajedrez.
Antes de 2015, [13] los mejores programas de Go solo lograban alcanzar el nivel amateur dan . [14] En el pequeño tablero de 9×9, a la computadora le fue mejor y algunos programas lograron ganar una fracción de sus juegos de 9×9 contra jugadores profesionales. Antes de AlphaGo, algunos investigadores habían afirmado que las computadoras nunca derrotarían a los mejores humanos en Go. [15] Elon Musk , uno de los primeros inversores de Deepmind, dijo en 2016 que los expertos en el campo pensaban que la IA estaba a 10 años de lograr una victoria contra un jugador profesional de Go de primer nivel. [dieciséis]
El partido AlphaGo contra Lee Sedol es comparable al partido de ajedrez de 1997, cuando Garry Kasparov perdió ante la computadora de IBM Deep Blue . La derrota de Kasparov ante Deep Blue se considera el momento en que una computadora se volvió mejor que los humanos en el ajedrez. [17]
AlphaGo es significativamente diferente de esfuerzos anteriores de IA. En lugar de utilizar algoritmos de probabilidad codificados por programadores humanos, AlphaGo utiliza redes neuronales para estimar su probabilidad de ganar. AlphaGo accede y analiza toda la biblioteca en línea de Go; incluidos todos los partidos, jugadores, análisis y literatura; así como juegos jugados por AlphaGo contra sí mismo y otros jugadores. Una vez configurado, AlphaGo es independiente del equipo de desarrolladores y evalúa el mejor camino para resolver Go (es decir, ganar el juego). Mediante el uso de redes neuronales y búsqueda de árboles de Monte Carlo , AlphaGo calcula números colosales de probabilidades probables e improbables de muchos movimientos hacia el futuro [ cita requerida ] .
Los resultados de investigaciones relacionadas se están aplicando a campos como la ciencia cognitiva , el reconocimiento de patrones y el aprendizaje automático . [18] : 150
AlphaGo derrotó al campeón europeo Fan Hui , un profesional de 2 dan, 5-0 en octubre de 2015, la primera vez que una IA venció a un jugador profesional humano en un juego en un tablero de tamaño completo sin desventaja. [19] [20] Algunos comentaristas enfatizaron el abismo entre Fan y Lee, quien ocupa el puesto 9 dan profesional. [21] Los programas informáticos Zen y Crazy Stone han derrotado anteriormente a jugadores humanos clasificados en el puesto 9 dan profesional con desventajas de cuatro o cinco piedras. [22] [23] El especialista canadiense en IA Jonathan Schaeffer , comentando después de la victoria contra Fan, comparó AlphaGo con un "niño prodigio" que carecía de experiencia, y consideró, "el verdadero logro será cuando el programa interprete a un jugador en la verdadera cima". escalón." Luego creyó que Lee ganaría el partido en marzo de 2016. [20] Hajin Lee , una jugadora profesional de Go y secretaria general de la Federación Internacional de Go , comentó que estaba "muy emocionada" ante la perspectiva de que una IA desafiara a Lee. , y pensó que los dos jugadores tenían las mismas posibilidades de ganar. [20]
Después de su partido contra AlphaGo, Fan Hui señaló que el juego le había enseñado a ser un mejor jugador y a ver cosas que no había visto antes. En marzo de 2016, Wired informó que su clasificación había aumentado del puesto 633 en el mundo a alrededor de 300. [24]
Los expertos en Go encontraron errores en el juego de AlphaGo contra Fan, en particular relacionados con la falta de conciencia de todo el tablero. Antes del partido contra Lee, no se sabía cuánto había mejorado el programa desde su partido de octubre. [21] [25] El conjunto de datos de entrenamiento original de AlphaGo comenzó con juegos de fuertes jugadores aficionados de servidores Go de Internet, después de lo cual AlphaGo entrenó jugando contra sí mismo durante decenas de millones de juegos. [26] [27]
AlphaGo es un programa informático desarrollado por Google DeepMind para jugar al juego de mesa Go . El algoritmo de AlphaGo utiliza una combinación de aprendizaje automático y técnicas de búsqueda de árboles , combinadas con una amplia formación, tanto del juego humano como del ordenador. Las redes neuronales del sistema se iniciaron inicialmente a partir de la experiencia humana en juegos. AlphaGo fue entrenado inicialmente para imitar el juego humano al intentar igualar los movimientos de jugadores expertos de juegos históricos registrados, utilizando una base de datos del servidor KGS Go de alrededor de 30 millones de movimientos de 160.000 juegos realizados por jugadores humanos de KGS 6 a 9 dan. [13] [28] Una vez que había alcanzado un cierto grado de competencia, se le entrenó más al establecerlo para jugar un gran número de juegos contra otras instancias de sí mismo, utilizando el aprendizaje por refuerzo para mejorar su juego. [29] El sistema no utiliza una "base de datos" de movimientos para jugar. Como explicó uno de los creadores de AlphaGo: [30]
Aunque hemos programado esta máquina para jugar, no tenemos idea de qué movimientos se le ocurrirán. Sus movimientos son un fenómeno emergente del entrenamiento. Simplemente creamos los conjuntos de datos y los algoritmos de entrenamiento. Pero los movimientos que luego se le ocurren están fuera de nuestro alcance y son mucho mejores de lo que a nosotros, como jugadores de Go, podríamos idear.
En el partido contra Lee, AlphaGo usó aproximadamente la misma potencia informática que en el partido contra Fan Hui, [31] donde usó 1202 CPU y 176 GPU . [13] The Economist informó que utilizaba 1.920 CPU y 280 GPU. [32] Google también ha declarado que sus unidades patentadas de procesamiento de tensores se utilizaron en el partido contra Lee Sedol. [33]
Lee Sedol es un jugador profesional de Go con rango 9 dan [34] y es uno de los jugadores más fuertes en la historia del Go . Comenzó su carrera en 1996 (ascendió al rango de dan profesional a la edad de 12 años), ganando 18 títulos internacionales desde entonces. [35] Es un "héroe nacional" en su Corea del Sur natal, conocido por su juego creativo y poco convencional. [36] Lee Sedol inicialmente predijo que derrotaría a AlphaGo de forma "derrumbe". [36] Algunas semanas antes del partido ganó el título coreano Myungin , un campeonato importante. [37]
El partido fue un partido de cinco juegos con un millón de dólares estadounidenses como gran premio, [3] usando reglas chinas con un komi de 7,5 puntos . [4] Para cada juego había un límite de tiempo establecido de dos horas para cada jugador seguido de tres períodos de tiempo extra byo-yomi de 60 segundos . [4] Cada juego comenzó a las 13:00 KST (04:00 GMT ). [38]
El partido se jugó en el Hotel Four Seasons en Seúl , Corea del Sur, en marzo de 2016 y se transmitió por video en vivo con comentarios; Los comentarios en inglés fueron realizados por Michael Redmond (profesional de 9-dan) y Chris Garlock. [39] [40] [41] Aja Huang , miembro del equipo DeepMind y jugador aficionado de 6-dan Go, colocó piedras en el tablero de Go para AlphaGo, que se ejecutaba a través de Google Cloud Platform con su servidor ubicado en los Estados Unidos. [42]
AlphaGo (blanco) ganó el primer juego. Lee parecía tener el control durante gran parte del partido, pero AlphaGo obtuvo la ventaja en los últimos 20 minutos y Lee renunció. [45] Lee declaró después que había cometido un error crítico al comienzo del partido; Dijo que la estrategia de la computadora en la primera parte del juego fue "excelente" y que la IA había hecho un movimiento inusual que ningún jugador humano de Go habría hecho. [45] David Ormerod, comentando sobre el juego en Go Game Guru, describió la séptima piedra de Lee como "un movimiento extraño para probar la fuerza de AlphaGo en la apertura", caracterizando el movimiento como un error y la respuesta de AlphaGo como "precisa y eficiente". Describió la posición de AlphaGo como favorable en la primera parte del juego, considerando que Lee comenzó a remontar en el movimiento 81, antes de realizar movimientos "cuestionables" en 119 y 123, seguidos de un movimiento "perdedor" en 129. [46] Profesional El jugador de Go, Cho Hanseung, comentó que el juego de AlphaGo había mejorado mucho desde que venció a Fan Hui en octubre de 2015. [46] Michael Redmond describió el juego de la computadora como más agresivo que contra Fan. [47]
Según el gran maestro de 9-dan Go, Kim Seong-ryong, Lee parecía sorprendido por el fuerte juego de AlphaGo en la piedra 102. [48] Después de ver a AlphaGo hacer el movimiento 102 del juego, Lee reflexionó sobre sus opciones durante más de 10 minutos. [48]
AlphaGo (negro) ganó el segundo juego. Lee declaró después que "AlphaGo jugó un juego casi perfecto", [49] "desde el principio del juego no sentí que hubiera un punto en el que estuviera liderando". [50] Uno de los creadores de AlphaGo, Demis Hassabis, dijo que el sistema confiaba en la victoria desde la mitad del juego, aunque los comentaristas profesionales no podían decir qué jugador estaba por delante. [50]
Michael Redmond ( 9p ) señaló que la piedra 19 de AlphaGo (movimiento 37) era "creativa" y "única". Fue un movimiento que ningún humano habría hecho jamás. [30] Lee tardó un tiempo inusualmente largo en responder a la medida. [30] An Younggil (8p) calificó el movimiento 37 de AlphaGo como "un golpe en el hombro raro e intrigante", pero dijo que el contraataque de Lee fue "exquisito". Afirmó que el control pasó entre los jugadores varias veces antes del final del juego, y elogió especialmente los movimientos 151, 157 y 159 de AlphaGo, calificándolos de "brillantes". [51]
AlphaGo mostró anomalías y movimientos desde una perspectiva más amplia que los jugadores profesionales de Go describieron como errores a primera vista, pero como una estrategia intencional en retrospectiva. [52] Como explicó uno de los creadores del sistema, AlphaGo no intenta maximizar sus puntos o su margen de victoria, sino que intenta maximizar su probabilidad de ganar. [30] [53] Si AlphaGo debe elegir entre un escenario en el que ganará por 20 puntos con un 80 por ciento de probabilidad y otro en el que ganará por 1 punto y medio con un 99 por ciento de probabilidad, elegirá este último, incluso si deberá ceder puntos para lograrlo. [30] En particular, el movimiento 167 de AlphaGo pareció darle a Lee una oportunidad de pelear y los comentaristas lo declararon como un error obvio. An Younggil declaró: "Entonces, cuando AlphaGo realiza un movimiento que parece flojo, podemos considerarlo como un error, pero ¿tal vez debería verse con mayor precisión como una declaración de victoria?". [54]
AlphaGo (blanco) ganó el tercer juego. [55]
Después del segundo juego, todavía había grandes dudas entre los jugadores sobre si AlphaGo era realmente un jugador fuerte en el sentido que podría serlo un humano. Se describió que el tercer juego disipó esa duda; con analistas comentando que:
AlphaGo ganó de manera tan convincente que despejó de las mentes de los jugadores experimentados toda duda sobre su fortaleza. De hecho, funcionó tan bien que casi dio miedo... Al obligar a AlphaGo a resistir un ataque unilateral muy severo, Lee reveló su poder hasta ahora no detectado... Lee no estaba obteniendo suficientes beneficios de su ataque... Uno de los mayores virtuosos del medio juego acababa de ser eclipsado por la claridad en blanco y negro. [54]
Según An Younggil (8p) y David Ormerod, el juego demostró que "AlphaGo es simplemente más fuerte que cualquier jugador de Go humano conocido". [54] Se vio que AlphaGo navegaba hábilmente en situaciones complicadas conocidas como ko que no surgieron en los dos partidos anteriores. [56] An y Ormerod consideran que el movimiento 148 es particularmente notable: en medio de una compleja pelea de ko , AlphaGo mostró suficiente "confianza" en que estaba ganando la pelea para realizar un gran movimiento en otra parte. [54]
Lee, jugando con negras, abrió con una formación china alta y generó una gran área de influencia negra, que AlphaGo invadió en la jugada 12. Esto requirió que el programa defendiera un grupo débil, lo que hizo con éxito. [54] An Younggil describió el movimiento 31 de Lee como posiblemente el "movimiento perdedor" [54] y Andy Jackson de la American Go Association consideró que el resultado ya se había decidido en el movimiento 35. [53] AlphaGo había ganado el control del juego al movimiento 48, y obligó a Lee a ponerse a la defensiva. Lee contraatacó en los movimientos 77/79, pero la respuesta de AlphaGo fue efectiva y su movimiento 90 logró simplificar la posición. Luego ganó una gran área de control en la parte inferior del tablero, fortaleciendo su posición con movimientos del 102 al 112 descritos por An como "sofisticados". [54] Lee atacó de nuevo en los movimientos 115 y 125, pero las respuestas de AlphaGo volvieron a ser efectivas. Lee finalmente intentó un ko complejo desde el movimiento 131, sin forzar un error en el programa, y renunció en el movimiento 176. [54]
Lee (blanco) ganó el cuarto juego. Lee eligió jugar un tipo de estrategia extrema, conocida como amashi , en respuesta a la aparente preferencia de AlphaGo por Souba Go (intentar ganar con muchas pequeñas ganancias cuando surge la oportunidad), tomando territorio en el perímetro en lugar del centro. [57] Al hacerlo, su objetivo aparente era forzar un estilo de situación de "todo o nada", una posible debilidad para un oponente fuerte en tipos de juego de negociación, y que podría hacer que la capacidad de AlphaGo de decidir ventajas escasas sea en gran medida irrelevante. [57]
Los primeros 11 movimientos fueron idénticos a los del segundo juego, donde Lee también jugó con blancas. Al principio del juego, Lee se concentró en tomar territorio en los bordes y esquinas del tablero, lo que permitió a AlphaGo ganar influencia en la parte superior y central. Luego, Lee invadió la región de influencia de AlphaGo en la parte superior con los movimientos 40 a 48, siguiendo la estrategia amashi . AlphaGo respondió con un golpe en el hombro en el movimiento 47, posteriormente sacrificó cuatro piedras en otro lugar y ganó la iniciativa con los movimientos 47 a 53 y 69. Lee probó AlphaGo con los movimientos 72 a 76 sin provocar un error, y en este punto del juego los comentaristas habían Comencé a sentir que la obra de Lee era una causa perdida. Sin embargo, una jugada inesperada en el 78 blanco, descrita como "un tesuji brillante ", dio la vuelta a la partida. [57] El movimiento desarrolló una cuña blanca en el centro y aumentó la complejidad del juego. [58] Gu Li (9p) lo describió como un " movimiento divino " y afirmó que el movimiento había sido completamente imprevisto por él. [57]
AlphaGo respondió mal en la jugada 79, momento en el que estimó que tenía un 70% de posibilidades de ganar la partida. Lee siguió con un fuerte movimiento en blanco 82. [57] La respuesta inicial de AlphaGo en los movimientos 83 a 85 fue apropiada, pero en el movimiento 87, su estimación de sus posibilidades de ganar se desplomó repentinamente, [59] [ se necesita fuente no primaria ] [60] [ se necesita fuente no primaria ] provocándolo a realizar una serie de movimientos muy malos desde el negro 87 al 101. David Ormerod caracterizó los movimientos 87 al 101 como típicos de los errores del programa basado en Monte Carlo. [57] Lee tomó la delantera con 92 blanco, y An Younggil describió 105 negro como el último movimiento perdedor. A pesar de las buenas tácticas durante los movimientos 131 a 141, AlphaGo demostró ser incapaz de recuperarse durante el final del juego y renunció. [57] La renuncia de AlphaGo se desencadenó cuando evaluó que sus posibilidades de ganar eran inferiores al 20%; Se pretende así igualar la decisión de los profesionales que renuncian antes de jugar hasta el final cuando consideran que su puesto es irrecuperable. [58]
An Younggil de Go Game Guru concluyó que el juego era "una obra maestra para Lee Sedol y es casi seguro que se convertirá en un juego famoso en la historia del Go". [57] Lee comentó después del partido que consideraba que AlphaGo era más fuerte cuando jugaba con blancas (segundo). [61] Por este motivo, solicitó jugar con negras en la quinta partida, que se considera más arriesgada.
David Ormerod de Go Game Guru declaró que aunque aún no estaba disponible un análisis del juego de AlphaGo entre 79 y 87, creía que era el resultado de una debilidad conocida en los algoritmos de juego que utilizan la búsqueda de árbol de Monte Carlo . En esencia, la búsqueda intenta podar secuencias que son menos relevantes. En algunos casos, una jugada puede conducir a una línea de juego muy específica que es significativa, pero que se pasa por alto cuando se poda el árbol y, por lo tanto, este resultado está "fuera del radar de búsqueda". [62]
AlphaGo (blanco) ganó el quinto juego. [63] El juego fue descrito como reñido. Hassabis afirmó que el resultado se produjo después de que el programa cometiera un "gran error" al principio del juego. [63]
Lee, jugando con negras, abrió de manera similar al primer juego y luego comenzó a delimitar territorio en las esquinas derecha e izquierda superior (una estrategia similar a la que empleó con éxito en el juego 4), mientras AlphaGo ganaba influencia en el centro de el tablero. El juego se mantuvo igualado hasta que las blancas mueven 48 a 58, que AlphaGo jugó en la parte inferior derecha. Estos movimientos hicieron perder innecesariamente las amenazas ko y aji, lo que le permitió a Lee tomar la delantera. [64] Michael Redmond (9p) especuló que tal vez AlphaGo se había perdido el tesuji del "apretón de lápida" del negro . A los humanos se les enseña a reconocer el patrón específico, pero es una secuencia larga de movimientos si hay que calcularla desde cero.
Luego, AlphaGo comenzó a desarrollar la parte superior del tablero, así como el centro, y se defendió con éxito contra un ataque de Lee en los movimientos 69 a 81 que David Ormerod caracterizó como demasiado cautelosos. Para el 90 blanco, AlphaGo había recuperado la igualdad y luego realizó una serie de movimientos descritos por Ormerod como "inusuales... pero sutilmente impresionantes" que obtuvieron una pequeña ventaja. Lee intentó un pase Hail Mary con los movimientos 167 y 169 pero la defensa de AlphaGo tuvo éxito. An Younggil señaló que los movimientos blancos 154, 186 y 194 eran particularmente fuertes, y el programa jugó un final impecable, manteniendo su ventaja hasta que Lee renunció. [64]
Se transmitieron videos en vivo de los juegos y los comentarios asociados en coreano, chino, japonés e inglés. La cobertura en coreano estuvo disponible a través de Baduk TV. [65] Tencent y LeTV proporcionaron cobertura en chino del juego 1 con comentarios de los jugadores de 9-dan Gu Li y Ke Jie , respectivamente, y alcanzaron alrededor de 60 millones de espectadores. [66] La cobertura en línea en inglés presentada por el 9-dan estadounidense Michael Redmond y Chris Garlock, vicepresidente de la American Go Association , alcanzó un promedio de 80 mil espectadores con un pico de 100 mil espectadores cerca del final del juego 1. [67]
La victoria de AlphaGo fue un hito importante en la investigación de la inteligencia artificial. [68] Anteriormente, Go se había considerado un problema difícil en el aprendizaje automático que se esperaba que estuviera fuera del alcance de la tecnología de la época. [68] [69] [70] La mayoría de los expertos pensaban que faltaban al menos cinco años para un programa Go tan poderoso como AlphaGo; [71] Algunos expertos pensaron que pasaría al menos otra década antes de que las computadoras derrotaran a los campeones de Go. [72] [73] La mayoría de los observadores al comienzo de los partidos de 2016 esperaban que Lee venciera a AlphaGo. [68]
Con juegos como las damas, el ajedrez y ahora el Go ganados por jugadores de computadora, las victorias en juegos de mesa populares ya no pueden servir como hitos importantes para la inteligencia artificial como antes. Murray Campbell de Deep Blue calificó la victoria de AlphaGo como "el fin de una era... los juegos de mesa están más o menos terminados y es hora de seguir adelante". [68]
En comparación con Deep Blue o Watson , los algoritmos subyacentes de AlphaGo son potencialmente de propósito más general y pueden ser evidencia de que la comunidad científica está avanzando hacia la inteligencia artificial general . [74] Algunos comentaristas creen que la victoria de AlphaGo constituye una buena oportunidad para que la sociedad comience a discutir los preparativos para el posible impacto futuro de las máquinas con inteligencia de propósito general . En marzo de 2016, el investigador de IA Stuart Russell afirmó que "los métodos de IA están progresando mucho más rápido de lo esperado, (lo que) hace que la cuestión del resultado a largo plazo sea más urgente", y añadió que "para garantizar que los sistemas de IA cada vez más potentes sigan siendo completamente bajo control humano... hay mucho trabajo por hacer." [75] Algunos académicos, como el físico Stephen Hawking , advierten que algunas futuras IA automejoradas podrían obtener inteligencia general real, lo que llevaría a una toma de control inesperada de la IA ; otros estudiosos no están de acuerdo: el experto en IA Jean-Gabriel Ganascia cree que "Cosas como el 'sentido común'... tal vez nunca sean reproducibles", [76] [77] y dice: "No veo por qué hablaríamos de miedos. al contrario, esto genera esperanzas en muchos ámbitos, como la salud y la exploración espacial". [75] Richard Sutton dijo: "No creo que la gente deba tener miedo... pero sí creo que la gente debería prestar atención". [78]
El equipo DeepMind AlphaGo recibió la medalla inaugural IJCAI Marvin Minsky por logros destacados en IA. "AlphaGo es un logro maravilloso y un ejemplo perfecto de lo que se inició para reconocer la Medalla Minsky", dijo el profesor Michael Wooldridge , presidente del Comité de Premios IJCAI. "Lo que impresionó particularmente a IJCAI fue que AlphaGo logra lo que hace a través de una brillante combinación de técnicas clásicas de IA, así como las técnicas de aprendizaje automático de última generación con las que DeepMind está tan estrechamente asociado. Es una demostración impresionante de la IA contemporánea. y estamos encantados de poder reconocerlo con este premio". [79]
El go es un juego popular en Corea del Sur, China y Japón, y este partido fue visto y analizado por millones de personas en todo el mundo. [68] Muchos de los mejores jugadores de Go caracterizaron las jugadas poco ortodoxas de AlphaGo como movimientos aparentemente cuestionables que inicialmente desconcertaron a los espectadores, pero que tenían sentido en retrospectiva: [72] "Todos, excepto los mejores jugadores de Go, crean su estilo imitando a los mejores jugadores. AlphaGo parece haber movimientos totalmente originales que él mismo crea." [68] AlphaGo parecía haberse vuelto inesperadamente mucho más fuerte, incluso en comparación con su partido de octubre de 2015 contra Fan Hui [80] donde una computadora había vencido a un profesional de Go por primera vez sin la ventaja de una desventaja. [81]
El jugador número uno de China, Ke Jie , que en ese momento era el jugador mejor clasificado a nivel mundial, inicialmente afirmó que podría vencer a AlphaGo, pero se negó a jugar contra él por temor a que "copiara mi estilo". [82] A medida que avanzaban los partidos, Ke Jie iba y venía, afirmando que "es muy probable que (pudiera) perder" después de analizar los primeros tres partidos, [83] pero recuperó la confianza después del cuarto partido. [84]
Toby Manning, el árbitro del partido de AlphaGo contra Fan Hui, y Hajin Lee, secretario general de la Federación Internacional de Go , razonan que en el futuro los jugadores de Go recibirán ayuda de las computadoras para saber qué han hecho mal en los juegos y mejorar su rendimiento. habilidades. [81]
Lee se disculpó por sus pérdidas y afirmó después del tercer juego que "juzgué mal las capacidades de AlphaGo y me sentí impotente". [68] Hizo hincapié en que la derrota fue "la derrota de Lee Se-dol" y "no una derrota de la humanidad". [77] [85] Lee dijo que su eventual pérdida ante una máquina era "inevitable", pero afirmó que "los robots nunca entenderán la belleza del juego de la misma manera que los humanos". [77] Lee calificó su victoria en el cuarto juego como una "victoria invaluable que no cambiaría por nada". [85]
En respuesta al partido, el gobierno de Corea del Sur anunció el 17 de marzo de 2016 que invertiría 1 billón de wones (863 millones de dólares) en investigación de inteligencia artificial (IA) durante los próximos cinco años. [86]
En 2017 se realizó un documental premiado sobre los partidos, AlphaGo . [87] [88] El 13 de marzo de 2020, la película se hizo de forma gratuita en línea en el canal de YouTube DeepMind. [89]
Los partidos aparecieron en la novela de 2023 de Benjamin Labatut , The MANIAC . [90] [91]
Comentario oficial del partido realizado por Michael Redmond (9-dan pro) y Chris Garlock en el canal de YouTube de Google DeepMind:
37°34′14″N 126°58′31″E / 37.5706°N 126.9754°E / 37.5706; 126.9754