AlphaGo versus Lee Sedol , también conocido como DeepMind Challenge Match , fue un partido de Go de cinco juegos entre el mejor jugador de Go Lee Sedol y AlphaGo , un programa informático de Go desarrollado por DeepMind , jugado en Seúl , Corea del Sur entre el 9 y el 15 de marzo de 2016. AlphaGo ganó todos los juegos excepto el cuarto; [1] todos los juegos se ganaron por rendición. [2] El partido ha sido comparado con el histórico partido de ajedrez entre Deep Blue y Garry Kasparov en 1997.
El ganador del partido se llevaría un millón de dólares. Dado que AlphaGo ganó, Google DeepMind declaró que el premio se donará a organizaciones benéficas, incluidas UNICEF y organizaciones de Go . [3] Lee recibió 170.000 dólares (150.000 dólares por participar en los cinco juegos y 20.000 dólares adicionales por ganar un juego). [4]
Después del encuentro, la Asociación de Baduk de Corea otorgó a AlphaGo el rango más alto de gran maestro de Go: un " 9 dan honorario ". Se le otorgó en reconocimiento a los "esfuerzos sinceros" de AlphaGo por dominar el Go. [5] Este encuentro fue elegido por Science como uno de los finalistas de la categoría de Avance del año , el 22 de diciembre de 2016. [6]
El Go es un juego de mesa complejo que requiere intuición, pensamiento creativo y estratégico. [8] [9] Durante mucho tiempo se ha considerado un desafío difícil en el campo de la inteligencia artificial (IA) y es considerablemente más difícil [10] de resolver que el ajedrez . Muchos en el campo de la inteligencia artificial consideran que el Go requiere más elementos que imiten el pensamiento humano que el ajedrez . [11] El matemático IJ Good escribió en 1965: [12]
¿Go en un ordenador? – Para programar un ordenador para que juegue una partida razonable de Go, en lugar de una partida meramente legal, es necesario formalizar los principios de una buena estrategia o diseñar un programa de aprendizaje. Los principios son más cualitativos y misteriosos que en el ajedrez, y dependen más del criterio. Por eso, creo que será aún más difícil programar un ordenador para que juegue una partida razonable de Go que de ajedrez.
Antes de 2015, [13] los mejores programas de Go solo lograban alcanzar el nivel de dan amateur . [14] En el pequeño tablero de 9x9, la computadora se desempeñó mejor y algunos programas lograron ganar una fracción de sus partidas de 9x9 contra jugadores profesionales. Antes de AlphaGo, algunos investigadores habían afirmado que las computadoras nunca derrotarían a los mejores humanos en Go. [15] Elon Musk , uno de los primeros inversores de Deepmind, dijo en 2016 que los expertos en el campo pensaban que la IA estaba a 10 años de lograr una victoria contra un jugador profesional de Go de primer nivel. [16]
La partida de AlphaGo contra Lee Sedol es comparable a la partida de ajedrez de 1997, cuando Garry Kasparov perdió contra la computadora IBM Deep Blue . La derrota de Kasparov contra Deep Blue se considera el momento en que una computadora se volvió mejor que los humanos en ajedrez. [17]
AlphaGo es significativamente diferente de los esfuerzos de IA anteriores. En lugar de utilizar algoritmos de probabilidad codificados por programadores humanos, AlphaGo utiliza redes neuronales para estimar su probabilidad de ganar. AlphaGo accede y analiza toda la biblioteca en línea de Go; incluidos todos los partidos, jugadores, análisis y literatura; así como los juegos jugados por AlphaGo contra sí mismo y otros jugadores. Una vez configurado, AlphaGo es independiente del equipo de desarrolladores y evalúa la mejor vía para resolver Go (es decir, ganar el juego). Al usar redes neuronales y búsqueda de árbol de Monte Carlo , AlphaGo calcula cantidades colosales de probabilidades probables e improbables muchos movimientos en el futuro [ cita requerida ] .
Los resultados de investigaciones relacionadas se están aplicando a campos como la ciencia cognitiva , el reconocimiento de patrones y el aprendizaje automático . [18] : 150
AlphaGo derrotó al campeón europeo Fan Hui , un profesional 2 dan, 5-0 en octubre de 2015, la primera vez que una IA había vencido a un jugador profesional humano en el juego en un tablero de tamaño completo sin handicap. [19] [20] Algunos comentaristas destacaron la brecha entre Fan y Lee, que está clasificado como profesional 9 dan. [21] Los programas de computadora Zen y Crazy Stone han derrotado previamente a jugadores humanos clasificados como profesionales 9 dan con handicaps de cuatro o cinco piedras. [22] [23] El especialista canadiense en IA Jonathan Schaeffer , comentando después de la victoria contra Fan, comparó a AlphaGo con un "niño prodigio" que carecía de experiencia y consideró que "el verdadero logro será cuando el programa juegue con un jugador en el verdadero escalón superior". Luego creyó que Lee ganaría el partido en marzo de 2016. [20] Hajin Lee , un jugador profesional de Go y secretario general de la Federación Internacional de Go , comentó que estaba "muy emocionada" ante la perspectiva de que una IA desafiara a Lee, y pensó que los dos jugadores tenían las mismas posibilidades de ganar. [20]
Tras su partido contra AlphaGo, Fan Hui señaló que el juego le había enseñado a ser un mejor jugador y a ver cosas que antes no había visto. En marzo de 2016, Wired informó que su clasificación había subido del puesto 633 a alrededor del 300. [24]
Los expertos en Go encontraron errores en el juego de AlphaGo contra Fan, en particular relacionados con la falta de conciencia de todo el tablero. Antes del juego contra Lee, no se sabía cuánto había mejorado el programa su juego desde su partido de octubre. [21] [25] El conjunto de datos de entrenamiento original de AlphaGo comenzó con juegos de jugadores amateurs fuertes de servidores de Go de Internet, después de lo cual AlphaGo se entrenó jugando contra sí mismo durante decenas de millones de juegos. [26] [27]
AlphaGo es un programa informático desarrollado por Google DeepMind para jugar al juego de mesa Go . El algoritmo de AlphaGo utiliza una combinación de técnicas de aprendizaje automático y búsqueda de árboles , combinadas con un entrenamiento exhaustivo, tanto de juego humano como de computadora. Las redes neuronales del sistema se iniciaron inicialmente a partir de la experiencia de juego humana. AlphaGo fue entrenado inicialmente para imitar el juego humano al intentar igualar los movimientos de jugadores expertos de juegos históricos registrados, utilizando una base de datos del servidor Go de KGS de alrededor de 30 millones de movimientos de 160.000 juegos de jugadores humanos de KGS de 6 a 9 dan. [13] [28] Una vez que alcanzó un cierto grado de competencia, se entrenó aún más al configurarlo para jugar una gran cantidad de juegos contra otras instancias de sí mismo, utilizando el aprendizaje de refuerzo para mejorar su juego. [29] El sistema no utiliza una "base de datos" de movimientos para jugar. Como explicó uno de los creadores de AlphaGo: [30]
Aunque hemos programado esta máquina para que juegue, no tenemos idea de qué movimientos se le ocurrirán. Sus movimientos son un fenómeno emergente del entrenamiento. Nosotros simplemente creamos los conjuntos de datos y los algoritmos de entrenamiento. Pero los movimientos que se le ocurren después están fuera de nuestro control y son mucho mejores que los que nosotros, como jugadores de Go, podríamos idear.
En el partido contra Lee, AlphaGo utilizó aproximadamente la misma potencia de procesamiento que en el partido contra Fan Hui, [31] donde utilizó 1202 CPU y 176 GPU . [13] The Economist informó que utilizó 1920 CPU y 280 GPU. [32] Google también ha declarado que sus unidades de procesamiento tensor patentadas se utilizaron en el partido contra Lee Sedol. [33]
Lee Sedol es un jugador profesional de Go de rango 9 dan [34] y es uno de los jugadores más fuertes en la historia del Go . Comenzó su carrera en 1996 (ascendido al rango de dan profesional a la edad de 12 años), ganando 18 títulos internacionales desde entonces. [35] Es un "héroe nacional" en su natal Corea del Sur, conocido por su juego poco convencional y creativo. [36] Lee Sedol inicialmente predijo que derrotaría a AlphaGo de manera "aplastante". [36] Algunas semanas antes del partido ganó el título coreano Myungin , un campeonato importante. [37]
El partido fue un partido de cinco juegos con un millón de dólares estadounidenses como premio mayor, [3] utilizando reglas chinas con un komi de 7,5 puntos . [4] Para cada juego había un límite de tiempo establecido de dos horas para cada jugador seguido de tres períodos de tiempo extra de 60 segundos de byo-yomi . [4] Cada juego comenzaba a las 13:00 KST (04:00 GMT ). [38]
El partido se jugó en el Hotel Four Seasons en Seúl , Corea del Sur, en marzo de 2016 y se transmitió en vivo por video con comentarios; los comentarios en inglés fueron realizados por Michael Redmond (profesional 9-dan) y Chris Garlock. [39] [40] [41] Aja Huang , miembro del equipo DeepMind y jugador amateur de Go 6-dan, colocó piedras en el tablero de Go para AlphaGo, que se ejecutó a través de Google Cloud Platform con su servidor ubicado en los Estados Unidos. [42]
AlphaGo (blanco) ganó la primera partida. Lee pareció tener el control durante gran parte de la partida, pero AlphaGo obtuvo la ventaja en los últimos 20 minutos y Lee se rindió. [45] Lee declaró después que había cometido un error crítico al comienzo de la partida; dijo que la estrategia de la computadora en la primera parte de la partida fue "excelente" y que la IA había hecho un movimiento inusual que ningún jugador humano de Go habría hecho. [45] David Ormerod, al comentar la partida en Go Game Guru, describió la séptima piedra de Lee como "un movimiento extraño para probar la fuerza de AlphaGo en la apertura", caracterizando el movimiento como un error y la respuesta de AlphaGo como "precisa y eficiente". Describió la posición de AlphaGo como favorable en la primera parte del juego, considerando que Lee comenzó a regresar con el movimiento 81, antes de hacer movimientos "cuestionables" en 119 y 123, seguido de un movimiento "perdedor" en 129. [46] El jugador profesional de Go Cho Hanseung comentó que el juego de AlphaGo había mejorado mucho desde que venció a Fan Hui en octubre de 2015. [46] Michael Redmond describió el juego de la computadora como más agresivo que contra Fan. [47]
Según el gran maestro de Go de 9-dan Kim Seong-ryong, Lee parecía aturdido por el fuerte juego de AlphaGo en la piedra 102. [48] Después de ver a AlphaGo hacer el movimiento 102 del juego, Lee reflexionó sobre sus opciones durante más de 10 minutos. [48]
AlphaGo (negro) ganó la segunda partida. Lee declaró después que "AlphaGo jugó una partida casi perfecta", [49] "desde el comienzo de la partida no sentí que hubiera un momento en el que yo estuviera ganando". [50] Uno de los creadores de AlphaGo, Demis Hassabis, dijo que el sistema estaba seguro de la victoria desde el punto medio de la partida, aunque los comentaristas profesionales no podían decir qué jugador iba por delante. [50]
Michael Redmond ( 9p ) señaló que la piedra número 19 de AlphaGo (movimiento 37) fue "creativa" y "única". Fue un movimiento que ningún humano hubiera hecho jamás. [30] Lee tardó un tiempo inusualmente largo en responder al movimiento. [30] An Younggil (8p) calificó el movimiento 37 de AlphaGo como "un golpe de hombro raro e intrigante", pero dijo que el contraataque de Lee fue "exquisito". Afirmó que el control pasó entre los jugadores varias veces antes del final del juego, y elogió especialmente los movimientos 151, 157 y 159 de AlphaGo, calificándolos de "brillantes". [51]
AlphaGo mostró anomalías y movimientos desde una perspectiva más amplia que los jugadores profesionales de Go describieron como errores a primera vista, pero una estrategia intencional en retrospectiva. [52] Como explicó uno de los creadores del sistema, AlphaGo no intenta maximizar sus puntos o su margen de victoria, sino que intenta maximizar su probabilidad de ganar. [30] [53] Si AlphaGo debe elegir entre un escenario en el que ganará por 20 puntos con un 80 por ciento de probabilidad y otro en el que ganará por 1 punto y medio con un 99 por ciento de probabilidad, elegirá este último, incluso si debe ceder puntos para lograrlo. [30] En particular, el movimiento 167 de AlphaGo pareció darle a Lee una oportunidad de luchar y los comentaristas lo declararon como un error obvio. An Younggil dijo: "Entonces, cuando AlphaGo realiza un movimiento que parece descuidado, podemos considerarlo un error, pero tal vez deberíamos verlo con más precisión como una declaración de victoria". [54]
AlphaGo (blanco) ganó el tercer juego. [55]
Después del segundo juego, los jugadores aún tenían grandes dudas sobre si AlphaGo era realmente un jugador fuerte en el sentido en que un humano podría serlo. El tercer juego fue descrito como el que eliminó esas dudas; los analistas comentaron que:
AlphaGo ganó de manera tan convincente que eliminó toda duda sobre su fuerza de las mentes de los jugadores experimentados. De hecho, jugó tan bien que casi daba miedo... Al obligar a AlphaGo a soportar un ataque muy severo y unilateral, Lee reveló su poder hasta entonces no detectado... Lee no estaba obteniendo suficiente beneficio de su ataque... Uno de los mayores virtuosos del juego medio acababa de ser eclipsado con claridad en blanco y negro. [54]
Según An Younggil (8p) y David Ormerod, la partida demostró que "AlphaGo es simplemente más fuerte que cualquier jugador de Go humano conocido". [54] Se vio a AlphaGo sortear hábilmente situaciones complicadas conocidas como ko que no surgieron en las dos partidas anteriores. [56] An y Ormerod consideran que el movimiento 148 es particularmente notable: en medio de una compleja pelea de ko , AlphaGo mostró suficiente "confianza" de que estaba ganando la pelea como para realizar un movimiento importante en otro lugar. [54]
Lee, jugando con negras, abrió con una formación China Alta y generó una gran área de influencia negra, que AlphaGo invadió en el movimiento 12. Esto requirió que el programa defendiera un grupo débil, lo que hizo con éxito. [54] An Younggil describió el movimiento 31 de Lee como posiblemente el "movimiento perdedor" [54] y Andy Jackson de la Asociación Americana de Go consideró que el resultado ya había sido decidido en el movimiento 35. [53] AlphaGo había ganado el control del juego en el movimiento 48, y obligó a Lee a ponerse a la defensiva. Lee contraatacó en los movimientos 77/79, pero la respuesta de AlphaGo fue efectiva y su movimiento 90 logró simplificar la posición. Luego ganó una gran área de control en la parte inferior del tablero, fortaleciendo su posición con los movimientos del 102 al 112 descritos por An como "sofisticados". [54] Lee atacó nuevamente en los movimientos 115 y 125, pero las respuestas de AlphaGo fueron nuevamente efectivas. Lee finalmente intentó un ko complejo a partir del movimiento 131, sin forzar un error del programa, y renunció en el movimiento 176. [54]
Lee (blanco) ganó la cuarta partida. Lee eligió jugar un tipo de estrategia extrema, conocida como amashi , en respuesta a la aparente preferencia de AlphaGo por Souba Go (intentar ganar por muchas pequeñas ganancias cuando surge la oportunidad), tomando territorio en el perímetro en lugar de en el centro. [57] Al hacer esto, su aparente objetivo era forzar una situación de estilo "todo o nada", una posible debilidad para un oponente fuerte en el tipo de juego de negociación, y que podría hacer que la capacidad de AlphaGo de decidir pequeñas ventajas sea en gran medida irrelevante. [57]
Los primeros 11 movimientos fueron idénticos a los de la segunda partida, en la que Lee también jugó con blancas. En la partida inicial, Lee se concentró en tomar territorio en los bordes y esquinas del tablero, permitiendo a AlphaGo ganar influencia en la parte superior y central. Lee luego invadió la región de influencia de AlphaGo en la parte superior con los movimientos 40 a 48, siguiendo la estrategia amashi . AlphaGo respondió con un golpe de hombro en el movimiento 47, sacrificando posteriormente cuatro piedras en otras partes y ganando la iniciativa con los movimientos 47 a 53 y 69. Lee puso a prueba a AlphaGo con los movimientos 72 a 76 sin provocar un error, y en este punto de la partida los comentaristas habían comenzado a sentir que el juego de Lee era una causa perdida. Sin embargo, una jugada inesperada en el 78 blanco, descrita como "un brillante tesuji ", dio la vuelta a la partida. [57] El movimiento desarrolló una cuña blanca en el centro y aumentó la complejidad de la partida. [58] Gu Li (9p) lo describió como un " movimiento divino " y afirmó que el movimiento había sido completamente imprevisto por él. [57]
AlphaGo respondió mal en el movimiento 79, momento en el que estimó que tenía un 70% de posibilidades de ganar la partida. Lee siguió con un movimiento fuerte en el movimiento 82 de las blancas. [57] La respuesta inicial de AlphaGo en los movimientos 83 a 85 fue apropiada, pero en el movimiento 87, su estimación de sus posibilidades de ganar se desplomó de repente, [59] [ fuente no primaria necesaria ] [60] [ fuente no primaria necesaria ] provocando que hiciera una serie de movimientos muy malos del movimiento 87 al 101 de las negras. David Ormerod caracterizó los movimientos 87 a 101 como típicos de los errores del programa basado en Monte Carlo. [57] Lee tomó la delantera con el movimiento 92 de las blancas, y An Younggil describió el movimiento 105 de las negras como el movimiento perdedor final. A pesar de las buenas tácticas durante los movimientos 131 a 141, AlphaGo demostró ser incapaz de recuperarse durante el final del juego y abandonó. [57] La renuncia de AlphaGo se produjo cuando evaluó que sus posibilidades de ganar eran inferiores al 20%; esto tiene como objetivo igualar la decisión de los profesionales que renuncian en lugar de jugar hasta el final cuando sienten que su posición es irrecuperable. [58]
Un Younggil de Go Game Guru concluyó que la partida era "una obra maestra de Lee Sedol y casi con toda seguridad se convertirá en un juego famoso en la historia del Go". [57] Lee comentó después de la partida que consideraba que AlphaGo era más fuerte cuando se jugaba con blancas (segunda). [61] Por esta razón, solicitó jugar con negras en la quinta partida, que se considera más arriesgada.
David Ormerod, de Go Game Guru, afirmó que, aunque todavía no se dispone de un análisis de la jugada de AlphaGo en torno a 79-87, cree que se debe a una debilidad conocida en los algoritmos de jugadas que utilizan la búsqueda de árboles de Monte Carlo . En esencia, la búsqueda intenta podar las secuencias que son menos relevantes. En algunos casos, una jugada puede llevar a una línea de jugada muy específica que es significativa, pero que se pasa por alto cuando se poda el árbol, y este resultado, por lo tanto, queda "fuera del radar de la búsqueda". [62]
AlphaGo (blanco) ganó el quinto juego. [63] El juego fue descrito como reñido. Hassabis afirmó que el resultado se produjo después de que el programa cometiera un "grave error" al principio del juego. [63]
Lee, jugando con las negras, abrió de manera similar a la primera partida y luego comenzó a marcar territorio en las esquinas derecha e izquierda superior –una estrategia similar a la que empleó con éxito en la partida 4– mientras AlphaGo ganaba influencia en el centro del tablero. La partida se mantuvo pareja hasta las jugadas 48 a 58 de las blancas, que AlphaGo jugó en la esquina inferior derecha. Estas jugadas perdieron innecesariamente amenazas de ko y aji, lo que permitió a Lee tomar la delantera. [64] Michael Redmond (9p) especuló que tal vez AlphaGo había pasado por alto el tesuji de las negras, que era un "apretón de lápida" . A los humanos se les enseña a reconocer el patrón específico, pero es una larga secuencia de movimientos si tiene que calcularse desde cero.
AlphaGo comenzó entonces a desarrollar la parte superior del tablero así como el centro, y se defendió con éxito contra un ataque de Lee en los movimientos 69 a 81 que David Ormerod caracterizó como excesivamente cauteloso. En 90, AlphaGo había recuperado la igualdad, y luego realizó una serie de movimientos descritos por Ormerod como "inusuales... pero sutilmente impresionantes" que le permitieron obtener una pequeña ventaja. Lee intentó un pase Ave María con los movimientos 167 y 169, pero la defensa de AlphaGo tuvo éxito. An Younggil señaló los movimientos 154, 186 y 194 de las blancas como particularmente fuertes, y el programa jugó un final impecable, manteniendo su ventaja hasta que Lee se rindió. [64]
Los juegos se transmitieron en vivo en coreano, chino, japonés e inglés. La cobertura en coreano estuvo disponible a través de Baduk TV. [65] La cobertura en chino del juego 1 con comentarios de los jugadores de 9-dan Gu Li y Ke Jie fue proporcionada por Tencent y LeTV respectivamente, llegando a unos 60 millones de espectadores. [66] La cobertura en línea en inglés presentada por el 9-dan estadounidense Michael Redmond y Chris Garlock, vicepresidente de la Asociación Americana de Go , alcanzó un promedio de 80 mil espectadores con un pico de 100 mil espectadores cerca del final del juego 1. [67]
La victoria de AlphaGo fue un hito importante en la investigación de inteligencia artificial. [68] Go había sido considerado anteriormente como un problema difícil en el aprendizaje automático que se esperaba que estuviera fuera del alcance de la tecnología de la época. [68] [69] [70] La mayoría de los expertos pensaban que un programa Go tan poderoso como AlphaGo estaba al menos a cinco años de distancia; [71] algunos expertos pensaban que pasaría al menos otra década antes de que las computadoras vencieran a los campeones de Go. [72] [73] La mayoría de los observadores al comienzo de los partidos de 2016 esperaban que Lee venciera a AlphaGo. [68]
Ahora que los juegos de computadora han ganado títulos como damas, ajedrez y ahora Go, las victorias en los juegos de mesa populares ya no pueden servir como hitos importantes para la inteligencia artificial como antes. Murray Campbell, de Deep Blue , calificó la victoria de AlphaGo como "el fin de una era... los juegos de mesa están más o menos terminados y es hora de seguir adelante". [68]
En comparación con Deep Blue o con Watson , los algoritmos subyacentes de AlphaGo son potencialmente de propósito más general y pueden ser evidencia de que la comunidad científica está avanzando hacia la inteligencia artificial general . [74] Algunos comentaristas creen que la victoria de AlphaGo es una buena oportunidad para que la sociedad comience a discutir los preparativos para el posible impacto futuro de las máquinas con inteligencia de propósito general . En marzo de 2016, el investigador de IA Stuart Russell afirmó que "los métodos de IA están progresando mucho más rápido de lo esperado, (lo que) hace que la cuestión del resultado a largo plazo sea más urgente", y agregó que "para garantizar que los sistemas de IA cada vez más poderosos permanezcan completamente bajo control humano... hay mucho trabajo por hacer". [75] Algunos académicos, como el físico Stephen Hawking , advierten que alguna IA futura que se mejore a sí misma podría obtener una inteligencia general real, lo que llevaría a una toma de control inesperada de la IA ; Otros académicos no están de acuerdo: el experto en inteligencia artificial Jean-Gabriel Ganascia cree que “cosas como el 'sentido común'... tal vez nunca sean reproducibles”, [76] [77] y dice: “No veo por qué hablaríamos de miedos. Al contrario, esto genera esperanzas en muchos ámbitos, como la salud y la exploración espacial”. [75] Richard Sutton dijo: “No creo que la gente deba tener miedo... pero sí creo que la gente debería prestar atención”. [78]
El equipo AlphaGo de DeepMind recibió la Medalla Marvin Minsky de la IJCAI por sus logros sobresalientes en IA. "AlphaGo es un logro maravilloso y un ejemplo perfecto de lo que se pretendía reconocer con la Medalla Minsky", afirmó el profesor Michael Wooldridge , presidente del Comité de Premios de la IJCAI. "Lo que más impresionó a la IJCAI fue que AlphaGo logra lo que hace mediante una brillante combinación de técnicas clásicas de IA y técnicas de aprendizaje automático de vanguardia con las que DeepMind está tan estrechamente asociado. Es una demostración impresionante de IA contemporánea y estamos encantados de poder reconocerla con este premio". [79]
El Go es un juego popular en Corea del Sur, China y Japón, y millones de personas en todo el mundo vieron y analizaron esta partida. [68] Muchos de los mejores jugadores de Go caracterizaron las jugadas poco ortodoxas de AlphaGo como movimientos aparentemente cuestionables que inicialmente desconcertaron a los espectadores, pero que tenían sentido en retrospectiva: [72] "Todos los jugadores de Go, excepto los mejores, elaboran su estilo imitando a los mejores jugadores. AlphaGo parece tener movimientos totalmente originales que crea por sí mismo". [68] AlphaGo parecía haberse vuelto inesperadamente mucho más fuerte, incluso en comparación con su partida de octubre de 2015 contra Fan Hui [80] donde una computadora había vencido a un profesional de Go por primera vez sin la ventaja de un hándicap. [81]
El jugador número uno de China, Ke Jie , que en ese momento era el jugador mejor clasificado a nivel mundial, inicialmente afirmó que podría vencer a AlphaGo, pero se negó a jugar contra él por temor a que "copiara mi estilo". [82] A medida que avanzaban los partidos, Ke Jie iba y venía, afirmando que "es muy probable que (pueda) perder" después de analizar los primeros tres partidos, [83] pero recuperó la confianza después del cuarto partido. [84]
Toby Manning, el árbitro del partido de AlphaGo contra Fan Hui, y Hajin Lee, secretario general de la Federación Internacional de Go , ambos razonan que en el futuro, los jugadores de Go recibirán ayuda de las computadoras para aprender lo que han hecho mal en los juegos y mejorar sus habilidades. [81]
Lee se disculpó por sus derrotas, declarando después del tercer juego que "juzgué mal las capacidades de AlphaGo y me sentí impotente". [68] Enfatizó que la derrota fue "la derrota de Lee Se-dol" y "no una derrota de la humanidad". [77] [85] Lee dijo que su eventual derrota ante una máquina era "inevitable", pero afirmó que "los robots nunca entenderán la belleza del juego de la misma manera que lo hacemos los humanos". [77] Lee calificó su victoria en el cuarto juego como una "victoria invaluable que no cambiaría por nada". [85]
En respuesta al partido, el gobierno de Corea del Sur anunció el 17 de marzo de 2016 que invertiría 1 billón de wones (863 millones de dólares estadounidenses) en investigación de inteligencia artificial (IA) durante los próximos cinco años. [86]
En 2017 se realizó un documental premiado sobre los partidos, AlphaGo . [87] [88] El 13 de marzo de 2020, la película se puso en línea de forma gratuita en el canal de YouTube de DeepMind. [89]
Los partidos aparecieron en la novela de Benjamin Labatut de 2023, The MANIAC . [90] [91]
Comentario oficial del partido por Michael Redmond (9-dan profesional) y Chris Garlock en el canal de YouTube de Google DeepMind:
37°34′14″N 126°58′31″E / 37.5706, -126.9754