Michal Kosinski es profesor asociado de comportamiento organizacional en la Universidad de Stanford , psicólogo computacional y psicometrista. Estudia los procesos psicológicos en los modelos de lenguaje a gran escala (LLM), así como la inteligencia artificial y los macrodatos para modelar y predecir el comportamiento humano. [1]
Es coautor del libro de texto Modern Psychometrics y ha publicado más de 90 artículos revisados por pares en revistas como Nature Computational Science, Scientific Reports , Proceedings of the National Academy of Sciences , Psychological Science , Journal of Personality and Social Psychology y Machine Learning , que han sido citados más de 21.000 veces según Google Scholar. [2]
Está entre el 1% de los investigadores más citados según Clarivate . [3] Su investigación inspiró una portada de The Economist , [4] una obra de teatro de 2014 "Privacy" , múltiples charlas TED , un videojuego y fue discutida en miles de libros, artículos de prensa, podcasts y documentales. Kosinski estuvo detrás del primer artículo de prensa que advertía contra Cambridge Analytica publicado en The Guardian. [5] Su investigación expuso los riesgos de privacidad que han explotado y midió la eficiencia de sus métodos.
Kosinski apareció en la película ¿Confías en esta computadora? junto a Elon Musk y Ray Kurzweil .
Kosinski tiene un doctorado en psicología de la Universidad de Cambridge y una maestría en psicometría y psicología social. Trabajó como investigador postdoctoral en el Departamento de Ciencias de la Computación de Stanford, antes de eso como subdirector del Centro de Psicometría de la Universidad de Cambridge y como investigador en Microsoft Research (Machine Learning Group). [6]
En 2013, Michal Kosinski y David Stillwell publicaron un artículo titulado " Private Traits and Attributes Are Predictable From Digital Records of Human Behavior" (Los rasgos y atributos privados son predecibles a partir de registros digitales del comportamiento humano ). [7] Kosinski y sus coautores afirmaron que al estudiar los "Me gusta" de alguien en Facebook, uno podría descubrir rasgos personales y atributos sensibles que tal vez no quieran compartir, desde la orientación sexual y política hasta la salud mental. "Los rasgos y atributos individuales se pueden predecir con un alto grado de precisión basándose en los registros de los "Me gusta" de los usuarios", escribieron.
Kosinski y Stillwell mejoraron sus métodos de predicción y publicaron un artículo en el que afirmaban que, utilizando únicamente los “me gusta” de Facebook, un investigador podría conocer a alguien mejor que sus amigos cercanos o su pareja. En 2012, Facebook patentó un método que hacía exactamente lo mismo que Kosinski y Stillwell: “ Determinar las características de la personalidad del usuario a partir de las comunicaciones y características del sistema de redes sociales ”. [8]
Dos semanas después de que se publicara el artículo de Kosinski y Stillwell, Facebook cambió la configuración predeterminada de los Me gusta para que solo los amigos pudieran verlos (hasta entonces, eran visibles por defecto para cualquier persona en Internet), a menos que la gente decidiera compartirlos más ampliamente. La excepción fue para el propio Facebook, que vio los Me gusta de todos y pudo seguir utilizándolos para segmentar, clasificar, seleccionar versiones de productos y otros fines.
En 2017, Kosinski publicó un artículo en el que demostraba que la inteligencia artificial moderna puede predecir la orientación sexual de una persona basándose en imágenes faciales. [9] [10] [11] La investigación se llevó a cabo sobre más de 130.000 fotografías y utilizó sistemas de reconocimiento facial y algoritmos de inteligencia artificial existentes. Su inteligencia artificial podía predecir la orientación sexual de los hombres homosexuales el 81% de las veces, mientras que un humano acertaría el 61% de las veces. [12]
Su investigación sobre sistemas de reconocimiento facial generó controversia, aunque Kosinski y su coautor afirmaron que la llevaron a cabo como una demostración del poder de la visión artificial, para advertir a los responsables políticos y dar la alarma sobre la inevitable erosión de la privacidad.
Mientras estaba en la Universidad de Cambridge, Kosinski participó directamente en negociaciones con Cambridge Analytica para trabajar para la empresa en el área de microsegmentación en las elecciones. Las negociaciones fracasaron, según The Guardian [13] debido a las exigencias de Kosinski de 500.000 dólares en honorarios de Cambridge Analytica. [14] El colega de Kosinski en el Departamento de la Universidad de Cambridge, Aleksandr Kogan, decidió trabajar para Cambridge Analytica para replicar la investigación de Kosinski y Stillwell, lo que los molestó a ellos y a su departamento universitario. [15] Fue después del fracaso de las negociaciones y del compromiso profesional de Kogan con CA, que Kosinski decidió escribir y advertir contra Cambridge Analytica. Kosinski afirma que "no tuvo nada que ver con Cambridge Analytica". [16]