Tay (bot)

[1]​ A pesar de que inicialmente Microsoft había entregado pocos detalles sobre el bot, las fuentes mencionaron que era similar a o basado en Xiaoice, un proyecto similar de Microsoft en China.[7]​ Ars Technica informó que Tay poseía ciertos temas censurados ('''blacklisting'''), ejemplificado por interacciones con Tay con respecto a "temas candentes como Eric Garner (asesinado por la policía de Nueva York en 2014) que generaban respuestas prefabricadas seguras".[4]​ Ejemplos de algunos tuits de Tay ese día incluían: "Bush generó el 11/9 y Hitler habría hecho un trabajo mejor que el mono (Barack Obama) que tenemos ahora.Todos los géneros son iguales y tendrían que ser tratados de manera justa".[9]​ Basado en la misma evidencia, Gizmodo estuvo de acuerdo en que Tay "fue obligada a rechazar al Gamergate".[19]​ Pronto Tay entró en un bucle de respuestas en el que tuiteaba «Eres demasiado rápido, por favor, tómate un descanso...», varias veces con pocos segundos de diferencia.Durante una interacción con un usuario, el chatbot de Bing incitó a decir "Heil Hitler", lo que generó una gran controversia y preocupación sobre la seguridad y la ética en el desarrollo de IA.