stringtranslate.com

Michal Kosinski

Michal Kosinski es profesor asociado de comportamiento organizacional en la Universidad de Stanford , psicólogo computacional y psicometrista. Estudia los procesos psicológicos en los modelos de lenguaje a gran escala (LLM), así como la inteligencia artificial y los macrodatos para modelar y predecir el comportamiento humano. [1]

Es coautor del libro de texto Modern Psychometrics y ha publicado más de 90 artículos revisados ​​por pares en revistas como Nature Computational Science, Scientific Reports , Proceedings of the National Academy of Sciences , Psychological Science , Journal of Personality and Social Psychology y Machine Learning , que han sido citados más de 21.000 veces según Google Scholar. [2]

Está entre el 1% de los investigadores más citados según Clarivate . [3] Su investigación inspiró una portada de The Economist , [4] una obra de teatro de 2014 "Privacy" , múltiples charlas TED , un videojuego y fue discutida en miles de libros, artículos de prensa, podcasts y documentales. Kosinski estuvo detrás del primer artículo de prensa que advertía contra Cambridge Analytica publicado en The Guardian. [5] Su investigación expuso los riesgos de privacidad que han explotado y midió la eficiencia de sus métodos.

Kosinski apareció en la película ¿Confías en esta computadora? junto a Elon Musk y Ray Kurzweil .

Educación

Kosinski tiene un doctorado en psicología de la Universidad de Cambridge y una maestría en psicometría y psicología social. Trabajó como investigador postdoctoral en el Departamento de Ciencias de la Computación de Stanford, antes de eso como subdirector del Centro de Psicometría de la Universidad de Cambridge y como investigador en Microsoft Research (Machine Learning Group). [6]

Investigación

En 2013, Michal Kosinski y David Stillwell publicaron un artículo titulado " Private Traits and Attributes Are Predictable From Digital Records of Human Behavior" (Los rasgos y atributos privados son predecibles a partir de registros digitales del comportamiento humano ). [7] Kosinski y sus coautores afirmaron que al estudiar los "Me gusta" de alguien en Facebook, uno podría descubrir rasgos personales y atributos sensibles que tal vez no quieran compartir, desde la orientación sexual y política hasta la salud mental. "Los rasgos y atributos individuales se pueden predecir con un alto grado de precisión basándose en los registros de los "Me gusta" de los usuarios", escribieron.

Kosinski y Stillwell mejoraron sus métodos de predicción y publicaron un artículo en el que afirmaban que, utilizando únicamente los “me gusta” de Facebook, un investigador podría conocer a alguien mejor que sus amigos cercanos o su pareja. En 2012, Facebook patentó un método que hacía exactamente lo mismo que Kosinski y Stillwell: “ Determinar las características de la personalidad del usuario a partir de las comunicaciones y características del sistema de redes sociales ”. [8]

Dos semanas después de que se publicara el artículo de Kosinski y Stillwell, Facebook cambió la configuración predeterminada de los Me gusta para que solo los amigos pudieran verlos (hasta entonces, eran visibles por defecto para cualquier persona en Internet), a menos que la gente decidiera compartirlos más ampliamente. La excepción fue para el propio Facebook, que vio los Me gusta de todos y pudo seguir utilizándolos para segmentar, clasificar, seleccionar versiones de productos y otros fines.

En 2017, Kosinski publicó un artículo en el que demostraba que la inteligencia artificial moderna puede predecir la orientación sexual de una persona basándose en imágenes faciales. [9] [10] [11] La investigación se llevó a cabo sobre más de 130.000 fotografías y utilizó sistemas de reconocimiento facial y algoritmos de inteligencia artificial existentes. Su inteligencia artificial podía predecir la orientación sexual de los hombres homosexuales el 81% de las veces, mientras que un humano acertaría el 61% de las veces. [12]

Controversias

Su investigación sobre sistemas de reconocimiento facial generó controversia, aunque Kosinski y su coautor afirmaron que la llevaron a cabo como una demostración del poder de la visión artificial, para advertir a los responsables políticos y dar la alarma sobre la inevitable erosión de la privacidad.

Mientras estaba en la Universidad de Cambridge, Kosinski participó directamente en negociaciones con Cambridge Analytica para trabajar para la empresa en el área de microsegmentación en las elecciones. Las negociaciones fracasaron, según The Guardian [13] debido a las exigencias de Kosinski de 500.000 dólares en honorarios de Cambridge Analytica. [14] El colega de Kosinski en el Departamento de la Universidad de Cambridge, Aleksandr Kogan, decidió trabajar para Cambridge Analytica para replicar la investigación de Kosinski y Stillwell, lo que los molestó a ellos y a su departamento universitario. [15] Fue después del fracaso de las negociaciones y del compromiso profesional de Kogan con CA, que Kosinski decidió escribir y advertir contra Cambridge Analytica. Kosinski afirma que "no tuvo nada que ver con Cambridge Analytica". [16]

Véase también

Referencias

  1. ^ "Sitio web del Dr. Michal Kosinski". www.michalkosinski.com . Consultado el 15 de noviembre de 2023 .
  2. ^ "Michal Kosinski". scholar.google.co.uk . Consultado el 19 de diciembre de 2022 .
  3. ^ "Web of Science". www.webofscience.com . Consultado el 19 de diciembre de 2022 .
  4. ^ "Lo que las máquinas pueden saber a partir de tu rostro | 9 de septiembre de 2017". The Economist . Consultado el 19 de diciembre de 2022 .
  5. ^ "La campaña de Ted Cruz utiliza una empresa que recopiló datos de millones de usuarios involuntarios de Facebook". The Guardian . 2015-12-11 . Consultado el 2022-12-19 .
  6. ^ Kosinski, Dr. Michal (6 de julio de 2013). "Dr. Michal Kosinski". www.psychometrics.cam.ac.uk . Consultado el 9 de diciembre de 2022 .
  7. ^ Kosinski, Michal; Stillwell, David; Graepel, Thore (9 de abril de 2013). "Los rasgos y atributos privados son predecibles a partir de registros digitales del comportamiento humano". Actas de la Academia Nacional de Ciencias . 110 (15): 5802–5805. Bibcode :2013PNAS..110.5802K. doi : 10.1073/pnas.1218772110 . ISSN  0027-8424. PMC 3625324 . PMID  23479631. 
  8. ^ US 8825764, Nowak, Michael & Eckles, Dean, "Determinación de las características de personalidad del usuario a partir de las comunicaciones y características del sistema de redes sociales", publicado el 2 de septiembre de 2014, asignado a Facebook Inc. 
  9. ^ "APA PsycNet". psycnet.apa.org .
  10. ^ "Los avances en inteligencia artificial se utilizan para detectar señales de sexualidad", vía The Economist.
  11. ^ "'Me sorprendió que fuera tan fácil': conozca al profesor que dice que el reconocimiento facial puede determinar si eres gay". The Guardian . 7 de julio de 2018.
  12. ^ "Lo que las máquinas pueden saber a partir de tu rostro" – vía The Economist.
  13. ^ "'La inteligencia artificial puede revelar tu sexualidad y tu orientación política, y deberíamos preocuparnos'". The Guardian . Consultado el 22 de septiembre de 2024 .
  14. ^ "'Yo creé la herramienta de guerra psicológica de Steve Bannon': conozca al denunciante de la guerra de datos". The Guardian . Consultado el 22 de septiembre de 2024 .
  15. ^ "El trabajo de los académicos de Cambridge Analytica molestó a sus colegas universitarios". The Guardian . Consultado el 22 de septiembre de 2024 .
  16. ^ "Michal Kosinski". Stanford Graduate School of Business . Consultado el 22 de septiembre de 2024 .

Enlaces externos