La lectura cerebral o identificación de pensamientos utiliza las respuestas de múltiples vóxeles en el cerebro evocados por estímulos luego detectados por fMRI para decodificar el estímulo original. Los avances en la investigación han hecho esto posible mediante el uso de neuroimagen humana para decodificar la experiencia consciente de una persona basada en mediciones no invasivas de la actividad cerebral de un individuo. [1] Los estudios de lectura cerebral difieren en el tipo de decodificación (es decir, clasificación, identificación y reconstrucción) empleado, el objetivo (es decir, decodificación de patrones visuales, patrones auditivos, estados cognitivos ) y los algoritmos de decodificación ( clasificación lineal , clasificación no lineal, reconstrucción directa, reconstrucción bayesiana, etc.) empleados.
En 2024-2025, la profesora de neuropsicología Barbara Sahakian matizó: "Muchos neurocientíficos en el campo son muy cautelosos y dicen que no podemos hablar de leer las mentes de las personas, y en este momento eso es muy cierto, pero estamos avanzando tan rápido que no pasará mucho tiempo antes de que podamos decir si alguien está inventando una historia o si alguien tenía la intención de cometer un crimen con un cierto grado de certeza". [2]
La identificación de imágenes naturales complejas es posible utilizando vóxeles de las áreas de la corteza visual temprana y anterior que se encuentran por delante de ellas (áreas visuales V3A, V3B, V4 y el occipital lateral) junto con la inferencia bayesiana . Este enfoque de lectura del cerebro utiliza tres componentes: [3] un modelo de codificación estructural que caracteriza las respuestas en las áreas visuales tempranas; un modelo de codificación semántica que caracteriza las respuestas en las áreas visuales anteriores; y un prior bayesiano que describe la distribución de las estadísticas de la escena estructural y semántica . [3]
Experimentalmente, el procedimiento consiste en que los sujetos observen 1750 imágenes naturales en blanco y negro que están correlacionadas con la activación de vóxeles en sus cerebros. Luego, los sujetos observan otras 120 imágenes nuevas y se utiliza la información de las exploraciones anteriores para reconstruirlas. Las imágenes naturales utilizadas incluyen fotografías de un café junto al mar y un puerto, artistas en un escenario y vegetación densa. [3]
En 2008, IBM solicitó una patente para extraer imágenes mentales de rostros humanos del cerebro humano. Para ello, utiliza un circuito de retroalimentación basado en mediciones cerebrales del área del giro fusiforme del cerebro, que se activa de manera proporcional al grado de reconocimiento facial. [4]
En 2011, un equipo dirigido por Shinji Nishimoto utilizó únicamente grabaciones cerebrales para reconstruir parcialmente lo que veían los voluntarios. Los investigadores aplicaron un nuevo modelo sobre cómo se procesa la información de los objetos en movimiento en el cerebro humano, mientras los voluntarios veían fragmentos de varios vídeos. Un algoritmo buscó entre miles de horas de metraje de vídeo externo de YouTube (ninguno de los vídeos era el mismo que los que vieron los voluntarios) para seleccionar los clips que eran más similares. [5] [6] Los autores han subido demostraciones en las que comparan los vídeos vistos y los estimados por ordenador. [7] [8]
En 2017, un estudio de percepción facial en monos informó la reconstrucción de rostros humanos mediante el análisis de la actividad eléctrica de 205 neuronas. [9] [10]
En 2023 se informó sobre la reconstrucción de imágenes utilizando difusión estable sobre la actividad cerebral humana obtenida mediante fMRI. [11] [12]
En 2024, un estudio demostró que las imágenes imaginadas en la mente, sin estimulación visual, se pueden reconstruir a partir de señales cerebrales fMRI utilizando aprendizaje automático y tecnología de inteligencia artificial generativa. [13] [14] [15]
Se ha sugerido la lectura cerebral como una alternativa a las máquinas de polígrafo como una forma de detección de mentiras . [16] Otra alternativa a las máquinas de polígrafo es la tecnología de resonancia magnética funcional dependiente del nivel de oxígeno en la sangre . Esta técnica implica la interpretación del cambio local en la concentración de hemoglobina oxigenada en el cerebro, aunque la relación entre este flujo sanguíneo y la actividad neuronal aún no se entiende completamente. [16] Otra técnica para encontrar información oculta es la huella cerebral , que utiliza EEG para determinar si una persona tiene un recuerdo o información específica mediante la identificación de potenciales relacionados con eventos P300 . [17]
Se han planteado varias inquietudes sobre la precisión y las implicaciones éticas de la lectura cerebral para este propósito. Estudios de laboratorio han encontrado tasas de precisión de hasta el 85%; sin embargo, existen inquietudes sobre lo que esto significa para los resultados falsos positivos entre las poblaciones no criminales: "Si la prevalencia de "prevaricadores" en el grupo examinado es baja, la prueba arrojará muchos más resultados falsos positivos que verdaderos positivos; aproximadamente una persona de cada cinco será identificada incorrectamente por la prueba". [16] Los problemas éticos involucrados en el uso de la lectura cerebral como detección de mentiras incluyen aplicaciones incorrectas debido a la adopción de la tecnología antes de que su confiabilidad y validez puedan evaluarse adecuadamente y debido a la falta de comprensión de la tecnología, y preocupaciones de privacidad debido al acceso sin precedentes a los pensamientos privados de los individuos. [16] Sin embargo, se ha observado que el uso de la detección de mentiras mediante polígrafo conlleva preocupaciones similares sobre la confiabilidad de los resultados [16] y la violación de la privacidad. [18]
La lectura cerebral también se ha propuesto como un método para mejorar las interfaces hombre-máquina , mediante el uso de EEG para detectar estados cerebrales relevantes de un humano. [19] En los últimos años, ha habido un rápido aumento en las patentes para la tecnología involucrada en la lectura de ondas cerebrales, aumentando de menos de 400 entre 2009 y 2012 a 1600 en 2014. [20] Estas incluyen formas propuestas para controlar los videojuegos a través de ondas cerebrales y " neuromarketing " para determinar los pensamientos de alguien sobre un nuevo producto o publicidad.
Emotiv Systems , una empresa de electrónica australiana, ha presentado un auricular que puede entrenarse para reconocer los patrones de pensamiento de un usuario para diferentes comandos. Tan Le demostró la capacidad del auricular para manipular objetos virtuales en la pantalla y analizó varias aplicaciones futuras para este tipo de dispositivos de interfaz cerebro-computadora , desde sillas de ruedas eléctricas hasta la sustitución del ratón y el teclado. [21]
Es posible rastrear cuál de las dos formas de ilusiones binoculares rivales estaba experimentando subjetivamente una persona a partir de señales de fMRI. [22]
Cuando los seres humanos pensamos en un objeto, como un destornillador, se activan muchas áreas diferentes del cerebro. Marcel Just y su colega, Tom Mitchell, han utilizado escáneres cerebrales fMRI para enseñar a un ordenador a identificar las distintas partes del cerebro asociadas con pensamientos específicos. [23] Esta tecnología también ha producido un descubrimiento: pensamientos similares en diferentes cerebros humanos son sorprendentemente similares neurológicamente. Para ilustrar esto, Just y Mitchell utilizaron su ordenador para predecir, basándose únicamente en datos fMRI, en cuál de varias imágenes estaba pensando un voluntario. El ordenador fue 100% preciso, pero hasta ahora la máquina sólo distingue entre 10 imágenes. [23]
La categoría del evento que una persona recuerda libremente se puede identificar a partir de fMRI antes de que diga lo que recordó. [24]
El 16 de diciembre de 2015, un estudio realizado por Toshimasa Yamazaki en el Instituto de Tecnología de Kyushu descubrió que durante un juego de piedra, papel o tijera, una computadora pudo determinar la elección hecha por los sujetos antes de que movieran su mano. Se utilizó un EEG para medir la actividad en el área de Broca para ver las palabras dos segundos antes de que se pronunciaran. [25] [26] [27]
En 2023, la Universidad de Texas en Austin entrenó a un decodificador cerebral no invasivo para traducir las ondas cerebrales de los voluntarios al modelo de lenguaje GPT-1 . Después de un largo entrenamiento con cada voluntario individual, el decodificador generalmente no logró reconstruir las palabras exactas, pero pudo reconstruir significados lo suficientemente cercanos como para que el decodificador pudiera, la mayoría de las veces, identificar qué marca de tiempo de un libro determinado estaba escuchando el sujeto. [28] [29]
Se ha afirmado que el análisis estadístico de las ondas cerebrales EEG permite el reconocimiento de fonemas [30] y (en 1999) en un nivel del 60% al 75% de palabras de color y forma visual. [31]
El 31 de enero de 2012, Brian Pasley y sus colegas de la Universidad de California en Berkeley publicaron su artículo en PLoS Biology en el que se decodificaba y reconstruía como sonido en una computadora el procesamiento neuronal interno de la información auditiva de los sujetos mediante la recopilación y el análisis de señales eléctricas directamente de los cerebros de los sujetos. [32] El equipo de investigación realizó sus estudios en el giro temporal superior, una región del cerebro que participa en el procesamiento neuronal de orden superior para dar sentido semántico a la información auditiva. [33] El equipo de investigación utilizó un modelo informático para analizar varias partes del cerebro que podrían estar involucradas en la activación neuronal durante el procesamiento de señales auditivas. Utilizando el modelo computacional, los científicos pudieron identificar la actividad cerebral involucrada en el procesamiento de la información auditiva cuando se les presentó a los sujetos la grabación de palabras individuales. [34] Más tarde, se utilizó el modelo informático de procesamiento de la información auditiva para reconstruir algunas de las palabras en sonido basándose en el procesamiento neuronal de los sujetos. Sin embargo, los sonidos reconstruidos no eran de buena calidad y solo podían reconocerse cuando los patrones de ondas de audio del sonido reconstruido se comparaban visualmente con los patrones de ondas de audio del sonido original que se presentó a los sujetos. [34] Sin embargo, esta investigación marca una dirección hacia una identificación más precisa de la actividad neuronal en la cognición.
En 2008, algunos investigadores fueron capaces de predecir, con un 60% de precisión, si un sujeto iba a pulsar un botón con la mano izquierda o derecha. Esto es notable, no sólo porque la precisión es mejor que la del azar, sino también porque los científicos pudieron hacer estas predicciones hasta 10 segundos antes de que el sujeto actuara, mucho antes de que el sujeto sintiera que había tomado una decisión. [35] Estos datos son aún más sorprendentes a la luz de otras investigaciones que sugieren que la decisión de moverse, y posiblemente la capacidad de cancelar ese movimiento en el último segundo, [36] pueden ser el resultado de un procesamiento inconsciente. [37]
John Dylan-Haynes también ha demostrado que la fMRI puede utilizarse para identificar si un voluntario está a punto de sumar o restar dos números en su cabeza. [23]
Las técnicas de decodificación neuronal se han utilizado para probar teorías sobre el cerebro predictivo y para investigar cómo las predicciones descendentes afectan áreas cerebrales como la corteza visual . Los estudios que utilizan técnicas de decodificación fMRI han descubierto que los eventos sensoriales predecibles [38] y las consecuencias esperadas de nuestras acciones [39] se decodifican mejor en las áreas cerebrales visuales, lo que sugiere que la predicción "agudiza" las representaciones en línea con las expectativas.
También se ha demostrado que la lectura del cerebro se puede lograr en un entorno virtual complejo . [40]
Just y Mitchell también afirman que están empezando a poder identificar la bondad, la hipocresía y el amor en el cerebro. [23]
En 2013, un proyecto dirigido por el profesor John Chuang de la Universidad de California en Berkeley publicó los resultados sobre la viabilidad de la autenticación informática basada en ondas cerebrales como sustituto de las contraseñas. Las mejoras en el uso de la biometría para la autenticación informática han mejorado continuamente desde la década de 1980, pero este equipo de investigación buscaba un método más rápido y menos intrusivo que los escáneres de retina, las huellas dactilares y el reconocimiento de voz actuales. La tecnología elegida para mejorar las medidas de seguridad es un electroencefalograma (EEG), o medidor de ondas cerebrales, para mejorar las contraseñas y convertirlas en "pensamientos de contraseña". Con este método, Chuang y su equipo pudieron personalizar las tareas y sus umbrales de autenticación hasta el punto de poder reducir las tasas de error por debajo del 1%, significativamente mejor que otros métodos recientes. Para atraer mejor a los usuarios a esta nueva forma de seguridad, el equipo sigue investigando tareas mentales que sean agradables para el usuario mientras se identifican sus ondas cerebrales. En el futuro, este método podría ser tan barato, accesible y sencillo como el propio pensamiento. [41]
John-Dylan Haynes afirma que la fMRI también puede utilizarse para identificar el reconocimiento en el cerebro. Pone el ejemplo de un criminal al que se le pregunta si reconoce la escena del crimen o las armas del crimen. [23]
En la clasificación, se utiliza un patrón de actividad en múltiples vóxeles para determinar la clase particular de la que se extrajo el estímulo. [42] Muchos estudios han clasificado los estímulos visuales, pero este enfoque también se ha utilizado para clasificar los estados cognitivos. [ cita requerida ]
En la lectura cerebral de reconstrucción, el objetivo es crear una imagen literal de la imagen que se presentó. Los primeros estudios utilizaron vóxeles de áreas tempranas de la corteza visual (V1, V2 y V3) para reconstruir estímulos geométricos compuestos por patrones de tablero de ajedrez parpadeantes. [43] [44]
El EEG también se ha utilizado para identificar el reconocimiento de información específica o recuerdos por el potencial relacionado con eventos P300 , lo que se ha denominado " huella digital cerebral ". [45]
La precisión de la lectura cerebral aumenta de forma constante a medida que mejora la calidad de los datos y la complejidad de los algoritmos de decodificación. En un experimento reciente fue posible identificar qué imagen individual se estaba viendo de un conjunto de 120. [46] En otro experimento fue posible identificar correctamente el 90% de las veces a cuál de las dos categorías pertenecía el estímulo y la categoría semántica específica (de 23) de la imagen objetivo el 40% de las veces. [3]
Se ha observado que hasta ahora la lectura del cerebro es limitada. "En la práctica, es imposible lograr reconstrucciones exactas con cualquier algoritmo de reconstrucción basado en señales de actividad cerebral adquiridas por fMRI. Esto se debe a que todas las reconstrucciones estarán inevitablemente limitadas por imprecisiones en los modelos de codificación y ruido en las señales medidas. Nuestros resultados [ ¿quién? ] demuestran que la imagen natural previa es una herramienta poderosa (aunque poco convencional) para mitigar los efectos de estas limitaciones fundamentales. Una imagen natural previa con solo seis millones de imágenes es suficiente para producir reconstrucciones que sean estructural y semánticamente similares a una imagen objetivo". [3]
Los expertos predicen que, a medida que la tecnología de escaneo cerebral se vuelve cada vez más precisa, habrá importantes debates sobre cómo y cuándo se debe utilizar. Un área potencial de aplicación es el derecho penal. Haynes afirma que simplemente negarse a utilizar escáneres cerebrales en sospechosos también impide que los acusados injustamente demuestren su inocencia. [2] Los académicos estadounidenses generalmente creen que la lectura involuntaria del cerebro y las pruebas de polígrafo involuntarias violarían el derecho de la Quinta Enmienda a no autoincriminarse. [47] [48] Una perspectiva es considerar si las imágenes cerebrales son como un testimonio o, en cambio, como el ADN, la sangre o el semen. Paul Root Wolpe, director del Centro de Ética de la Universidad Emory en Atlanta, predice que esta cuestión se decidirá en un caso de la Corte Suprema. [49]
En otros países, aparte de Estados Unidos, la identificación del pensamiento ya se ha utilizado en el derecho penal. En 2008, una mujer india fue condenada por asesinato después de que un electroencefalograma de su cerebro revelara supuestamente que estaba familiarizada con las circunstancias que rodearon el envenenamiento de su ex prometido. [49] Algunos neurocientíficos y juristas dudan de la validez de utilizar la identificación del pensamiento en su conjunto para cualquier investigación que vaya más allá de la naturaleza del engaño y el cerebro. [50]
The Economist advirtió a la gente que tuviera "miedo" del impacto futuro, y algunos especialistas en ética argumentan que las leyes de privacidad deberían proteger los pensamientos privados. El académico de derecho Hank Greely sostiene que los sistemas judiciales podrían beneficiarse de esa tecnología, y el neuroeticista Julian Savulescu afirma que los datos cerebrales no son fundamentalmente diferentes de otros tipos de evidencia. [51] En Nature , el periodista Liam Drew escribe sobre proyectos emergentes para conectar dispositivos de lectura cerebral a sintetizadores de voz u otros dispositivos de salida para el beneficio de los tetrapléjicos . Tales dispositivos podrían crear preocupaciones de transmisión accidental de los "pensamientos internos" del paciente en lugar de meramente el habla consciente. [52]
En 2006, el psicólogo John-Dylan Haynes realizó importantes avances en la investigación de imágenes cerebrales gracias al uso de fMRI . Esta investigación incluyó nuevos hallazgos sobre el reconocimiento visual de objetos, el seguimiento de procesos mentales dinámicos, la detección de mentiras y la decodificación de procesos inconscientes. La combinación de estos cuatro descubrimientos reveló una cantidad tan significativa de información sobre los pensamientos de un individuo que Haynes lo denominó "lectura del cerebro". [1]
La fMRI ha permitido que la investigación se expanda de manera significativa, ya que puede rastrear la actividad en el cerebro de un individuo midiendo el flujo sanguíneo cerebral. Actualmente se cree que es el mejor método para medir la actividad cerebral, por lo que se ha utilizado en múltiples experimentos de investigación para mejorar la comprensión de cómo los médicos y psicólogos pueden identificar los pensamientos. [53]
En un estudio de 2020, una IA que utilizó electrodos implantados pudo transcribir correctamente una oración leída en voz alta de un conjunto de pruebas de cincuenta oraciones el 97 % de las veces, dados 40 minutos de datos de entrenamiento por participante. [54]
Los expertos no están seguros de hasta dónde puede ampliarse la identificación de pensamientos, pero Marcel Just creía en 2014 que en 3 a 5 años habrá una máquina capaz de leer pensamientos complejos como "Odio a fulano de tal". [49]
Donald Marks, fundador y director científico de MMT, está trabajando en la reproducción de los pensamientos que tienen las personas después de haber sido registrados. [55]
Los investigadores de la Universidad de California en Berkeley ya han logrado formar, borrar y reactivar recuerdos en ratas. Marks dice que están trabajando para aplicar las mismas técnicas a los seres humanos. Este descubrimiento podría ser monumental para los veteranos de guerra que sufren de trastorno de estrés postraumático . [55]
También se están realizando más investigaciones para analizar la actividad cerebral durante los videojuegos para detectar criminales, el neuromarketing y el uso de escáneres cerebrales en los controles de seguridad gubernamentales. [49] [53]
El episodio Black Hole del drama médico estadounidense House , que se emitió el 15 de marzo de 2010, presentó un dispositivo experimental de "imágenes cognitivas" que supuestamente permitía ver el subconsciente de un paciente. Primero se puso al paciente en una fase de preparación de seis horas mientras veía videoclips, conectado a un dispositivo de neuroimagen que parecía una electroencefalografía o espectroscopia funcional de infrarrojo cercano , para entrenar al clasificador de neuroimagen. Luego, se puso al paciente bajo anestesia crepuscular y se utilizó el mismo dispositivo para tratar de inferir lo que estaba pasando por la mente del paciente. El episodio ficticio anticipó un poco el estudio de Nishimoto et al. publicado el año siguiente, en el que se utilizó fMRI en su lugar. [5] [6] [7] [8] En la película Dumb and Dumber To , una escena muestra un lector de cerebros. En el episodio de Henry Danger , "Dream Busters", una máquina mostró el sueño de Henry .
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )Ronald Allen y Kristen Mace perciben un "acuerdo universal" de que la (Máquina Lectora de la Mente) es inaceptable.