La teoría de la atenuación , también conocida como modelo de atenuación de Treisman , es un modelo de atención selectiva propuesto por Anne Treisman y puede considerarse una revisión del modelo de filtro de Donald Broadbent . Treisman propuso la teoría de la atenuación como un medio para explicar cómo los estímulos desatendidos a veces llegan a procesarse de una manera más rigurosa que la que el modelo de filtro de Broadbent podía explicar. [1] Como resultado, la teoría de la atenuación agregó capas de sofisticación a la idea original de Broadbent de cómo podría operar la atención selectiva: afirmando que en lugar de un filtro que impidiera que las entradas desatendidas ingresaran a la conciencia, era un proceso de atenuación . [2] Por lo tanto, la atenuación de los estímulos desatendidos dificultaría, pero no imposibilitaría, extraer contenido significativo de las entradas irrelevantes, siempre que los estímulos aún poseyeran suficiente "fuerza" después de la atenuación para pasar por un proceso de análisis jerárquico. [2]
Las teorías de la atención selectiva tienen como objetivo explicar por qué y cómo los individuos tienden a procesar solo ciertas partes del mundo que los rodea, mientras ignoran otras. Dado que la información sensorial nos asedia constantemente desde las cinco modalidades sensoriales , era de interés no solo señalar dónde se producía la selección de la atención, sino también explicar cómo las personas priorizan y procesan las entradas sensoriales. [3] Las primeras teorías de la atención, como las propuestas por Broadbent y Treisman, adoptaron una perspectiva de cuello de botella . [2] [4] Es decir, infirieron que era imposible atender a toda la información sensorial disponible en un momento dado debido a la capacidad de procesamiento limitada . Como resultado de esta capacidad limitada para procesar la información sensorial, se creía que existía un filtro que evitaría la sobrecarga al reducir la cantidad de información que se transmitía para su procesamiento. [5]
Las primeras investigaciones surgieron en una época centrada principalmente en la audición y en la explicación de fenómenos como el efecto cóctel . [6] De ahí surgió el interés por cómo las personas pueden elegir prestar atención a ciertos sonidos de nuestro entorno y, a un nivel más profundo, cómo el procesamiento de las señales de habla a las que se presta atención difiere de las que no se prestan atención. [7] La atención auditiva se describe a menudo como la selección de un canal, un mensaje, un oído, un estímulo o, en la frase más general utilizada por Treisman, la "selección entre entradas". [8] A medida que la audición se convirtió en la forma preferida de examinar la atención selectiva, también lo hicieron los procedimientos de prueba de escucha dicótica y de seguimiento . [6]
La escucha dicótica es un procedimiento experimental utilizado para demostrar el filtrado selectivo de las entradas auditivas, y fue utilizado principalmente por Broadbent. [4] En una tarea de escucha dicótica, se les pediría a los participantes que usaran un par de auriculares y prestaran atención a la información presentada en ambos oídos (dos canales), o en un solo oído (un canal) mientras ignoraban cualquier cosa presentada en el canal opuesto. Al finalizar una tarea de escucha, se les pediría a los participantes que recordaran cualquier detalle notado sobre el canal no atendido. [9]
El shadowing puede considerarse como una elaboración de la escucha dicótica. En el shadowing, los participantes pasan por el mismo proceso, solo que esta vez se les pide que repitan en voz alta la información que escuchan en el oído atendido mientras se presenta. Esta recitación de información se lleva a cabo para que los experimentadores puedan verificar que los participantes están prestando atención al canal correcto, y la cantidad de palabras percibidas (recitadas) correctamente se puede puntuar para su uso posterior como variable dependiente . [2] Debido a su característica de ensayo en vivo, el shadowing es un procedimiento de prueba más versátil porque las manipulaciones de los canales y sus resultados inmediatos se pueden presenciar en tiempo real. [10] También se prefiere por ser más preciso, ya que el shadowing depende menos de la capacidad de los participantes para recordar las palabras escuchadas correctamente. [10]
El modelo de filtro de Donald Broadbent es la primera teoría de cuello de botella de la atención y sirvió como base sobre la que Anne Treisman construiría más tarde su modelo de atenuación. [9] Broadbent propuso la idea de que la mente sólo puede funcionar con una determinada cantidad de información sensorial en un momento dado y, como resultado, debe haber un filtro que nos permita prestar atención selectiva a las cosas mientras bloqueamos otras. Se postuló que este filtro precedió al reconocimiento de patrones de estímulos y que la atención dictaba qué información llegaba a la etapa de reconocimiento de patrones al controlar si las entradas se filtraban o no. [4]
La primera etapa del proceso de filtración extrae propiedades físicas de todos los estímulos de manera paralela. [9] Se afirmó que la segunda etapa tenía una capacidad limitada, por lo que se creía que aquí residía el filtro selectivo para protegerse de una sobrecarga de procesamiento sensorial. [9] Con base en las propiedades físicas extraídas en la etapa inicial, el filtro permitiría que pasaran solo aquellos estímulos que poseyeran ciertas características de criterio (por ejemplo, tono , volumen , ubicación). Según Broadbent, cualquier información a la que no se prestara atención se filtraría y debería procesarse solo en la medida en que tuviera las cualidades físicas necesarias para el filtro. [4] Dado que la selección era sensible solo a las propiedades físicas, se pensó que esta era la razón por la que las personas poseían tan poco conocimiento sobre el contenido de un mensaje desatendido. [9] Todo el procesamiento de nivel superior, como la extracción de significado, ocurre después del filtro. Por lo tanto, la información en el canal desatendido no debería comprenderse. En consecuencia, eventos como escuchar el propio nombre sin prestar atención deberían ser una imposibilidad, ya que esta información debe filtrarse antes de poder procesar su significado.
Como se ha señalado anteriormente, el modelo de filtro de la atención se topa con dificultades cuando se intenta explicar cómo las personas llegan a extraer significado de un acontecimiento del que de otro modo no serían conscientes. Por este motivo, y como se ilustra con los ejemplos siguientes, Treisman propuso la teoría de la atenuación como un medio para explicar cómo los estímulos desatendidos a veces llegan a procesarse de una manera más rigurosa que la que podía explicar el modelo de filtro de Broadbent. [1]
El modelo de atenuación de la atención selectiva de Treisman conserva tanto la idea de un proceso de selección temprana como el mecanismo por el cual las señales físicas se utilizan como el punto principal de discriminación. [3] Sin embargo, a diferencia del modelo de Broadbent, el filtro ahora atenúa la información desatendida en lugar de filtrarla por completo. [1] Treisman elaboró más este modelo al introducir el concepto de umbral para explicar cómo algunas palabras llegaron a ser escuchadas en el canal desatendido con mayor frecuencia que otras. Se creía que cada palabra contenía su propio umbral que dictaba la probabilidad de que fuera percibida después de la atenuación. [15]
Después de la fase inicial de atenuación, la información se transmite a una jerarquía de analizadores que realizan procesos de nivel superior para extraer contenido más significativo (consulte la sección "Analizadores jerárquicos" a continuación). [1] El aspecto crucial de la teoría de la atenuación es que las entradas atendidas siempre se someterán a un procesamiento completo, mientras que los estímulos irrelevantes a menudo carecen de un umbral lo suficientemente bajo como para ser analizados por completo, lo que da como resultado que solo se recuerden las cualidades físicas en lugar de la semántica. [3] Además, la atenuación y el posterior procesamiento de los estímulos están dictados por las demandas actuales en el sistema de procesamiento. A menudo ocurre que no hay suficientes recursos disponibles para procesar por completo las entradas no atendidas. [15]
El funcionamiento del umbral de reconocimiento es sencillo: para cada posible entrada, un individuo tiene un cierto umbral o “cantidad de activación requerida” para poder percibirla. Cuanto más bajo sea este umbral, más fácil y probable será que una entrada sea percibida, incluso después de sufrir una atenuación. [16]
El contexto juega un papel clave en la reducción del umbral requerido para reconocer estímulos al crear una expectativa de información relacionada. [9] El contexto actúa por un mecanismo de preparación , en el que la información relacionada se vuelve momentáneamente más pertinente y accesible, bajando el umbral de reconocimiento en el proceso. [3] Un ejemplo de esto se puede ver en la declaración " sonó la campana del recreo " , donde la palabra sonó y sus sinónimos experimentarían un umbral reducido debido a la preparación facilitada por las palabras que la preceden.
Las palabras que poseen importancia subjetiva (por ejemplo, ayuda, fuego) tendrán un umbral más bajo que aquellas que no la poseen. [2] Las palabras de gran importancia individual, como su propio nombre, tendrán un umbral permanentemente bajo y podrán llegar a la conciencia en casi todas las circunstancias. [17] Por otro lado, algunas palabras son más variables en su significado individual y dependen de su frecuencia de uso, contexto y continuidad con el mensaje atendido para ser percibidas. [17]
El grado de atenuación puede cambiar en relación con el contenido del mensaje subyacente; la atenuación es mayor en el caso de los mensajes incoherentes que aportan poco beneficio a la persona que los escucha. [1] Los mensajes incoherentes reciben la mayor atenuación porque cualquier interferencia que pudieran presentar en el mensaje atendido sería más perjudicial que la de la información comprensible o complementaria. [1] El nivel de atenuación puede tener un profundo impacto en si una entrada será percibida o no, y puede variar dinámicamente dependiendo de las demandas de atención. [18]
El sistema jerárquico de análisis es de máxima economía: al tiempo que facilita la posibilidad de percibir estímulos importantes, inesperados o desatendidos, garantiza que aquellos mensajes suficientemente atenuados no pasen mucho más allá de las primeras etapas del análisis, lo que evita una sobrecarga de la capacidad de procesamiento sensorial. [2] Si las demandas de atención (y las demandas de procesamiento subsiguientes) son bajas, se produce un procesamiento jerárquico completo. Si las demandas son altas, la atenuación se vuelve más agresiva y solo permite procesar la información importante o relevante del mensaje desatendido. [1] El proceso de análisis jerárquico se caracteriza por una naturaleza serial, lo que produce un resultado único para cada palabra o pieza de datos analizados. [17] La información atenuada pasa por todos los analizadores solo si se ha bajado el umbral a su favor, si no, la información solo pasa en la medida en que su umbral lo permita. [17]
El sistema nervioso analiza secuencialmente una entrada, comenzando con las características físicas generales como el tono y la sonoridad, seguidas por la identificación de palabras y significados (por ejemplo, sílabas , palabras, gramática y semántica ). [8] El proceso jerárquico también cumple un propósito esencial si las entradas son idénticas en términos de voz, amplitud y señales espaciales. Si todas estas características físicas son idénticas entre los mensajes, entonces la atenuación no puede tener lugar de manera efectiva en un nivel temprano basado en estas propiedades. En cambio, la atenuación ocurrirá durante la identificación de palabras y significados, y aquí es donde la capacidad para manejar la información puede ser escasa. [8]
Durante los experimentos de seguimiento, Treisman presentaba un flujo único de estímulos prosaicos a cada oído. En algún momento durante el seguimiento, los estímulos cambiaban al lado opuesto de modo que el mensaje que antes estaba en la sombra se presentaba ahora al oído desatendido. Los participantes a menudo "seguirían" el mensaje hasta el oído desatendido antes de darse cuenta de su error, [14] especialmente si los estímulos tenían un alto grado de continuidad. [19] Este "seguimiento del mensaje" ilustra cómo el oído desatendido sigue extrayendo cierto grado de información del canal desatendido y contradice el modelo de filtro de Broadbent que esperaría que los participantes fueran completamente ajenos al cambio en el canal desatendido. [14]
En una serie de experimentos realizados por Treisman (1964), se reproducían dos mensajes idénticos en contenido y se variaba la cantidad de tiempo entre el inicio del mensaje irrelevante en relación con el mensaje sombreado. Los participantes nunca fueron informados de la duplicidad del mensaje y el desfase temporal entre mensajes se modificaba hasta que los participantes notaran la similitud. Si se permitía que el mensaje irrelevante fuera el primero, se descubrió que el intervalo de tiempo no podía superar los 1,4 segundos. [1] Se creía que esto era el resultado de que el mensaje irrelevante sufría una atenuación y no recibía ningún procesamiento más allá del nivel físico. Esta falta de procesamiento profundo requiere que el mensaje irrelevante se mantenga en el almacén sensorial antes de compararlo con el mensaje sombreado, lo que lo hace vulnerable a la descomposición. [1] En cambio, cuando el mensaje sombreado era el primero, el mensaje irrelevante podía retrasarse hasta cinco segundos y los participantes podían seguir percibiendo la similitud. Esto demuestra que el mensaje sombreado no se desintegra tan rápidamente y coincide con lo que predeciría la teoría de la atenuación: el mensaje sombreado no recibe atenuación, se somete a un procesamiento completo y luego pasa a la memoria de trabajo, donde puede conservarse durante un tiempo comparativamente más largo que el mensaje desatendido en el almacén sensorial. [1]
Las variaciones de este método implicaban el uso de mensajes idénticos pronunciados con voces diferentes (por ejemplo, según el género) o la manipulación para determinar si el mensaje estaba compuesto de palabras no verbales para examinar el efecto de no poder extraer significado. En todos los casos se encontró apoyo a la teoría de la atenuación. [1] [6]
Se descubrió que los estudiantes bilingües reconocían que un mensaje presentado en el canal no atendido era el mismo que el que se estaba escuchando, incluso cuando se presentaba en un idioma diferente. [1] Esto se logró haciendo que los participantes imitaran un mensaje presentado en inglés , mientras reproducían el mismo mensaje en francés para el oído no atendido. Una vez más, esto demuestra la extracción de información significativa de la señal de voz más allá de las características físicas por sí solas. [6]
Corteen y Dunn (1974) combinaron descargas eléctricas con palabras objetivo. Las descargas eléctricas se presentaron a una intensidad muy baja, tan baja que los participantes no sabían cuándo se produjo la descarga. Se descubrió que si estas palabras se presentaban más tarde en ausencia de descarga, los participantes responderían automáticamente con una respuesta galvánica de la piel (GSR, por sus siglas en inglés) incluso cuando se reprodujeran en el oído desatendido. Además, se descubrió que las GSR se generalizaban a sinónimos de palabras objetivo desatendidas, lo que implica que el procesamiento de palabras se estaba llevando a cabo a un nivel más profundo que el que predeciría el modelo de Broadbent. [20]
Von Voorhis y Hillyard (1977) utilizaron un EEG para observar los potenciales relacionados con eventos (PRE) de los estímulos visuales. Se pidió a los participantes que prestaran atención o ignoraran los estímulos específicos que se les presentaban. Los resultados demostraron que, al prestar atención a los estímulos visuales, la cantidad de fluctuación de voltaje era mayor en los sitios occipitales para los estímulos atendidos en comparación con los estímulos no atendidos. Se observaron modulaciones de voltaje después de 100 ms del inicio del estímulo, lo que es coherente con lo que se podría predecir por la atenuación de las entradas irrelevantes. [21]
En un estudio de resonancia magnética funcional (fMRI) que examinó si el significado se extraía implícitamente de palabras no atendidas, o si la extracción de significado se podía evitar presentando simultáneamente estímulos distractores; se encontró que cuando los estímulos en competencia crean suficiente demanda de atención, no se observó actividad cerebral en respuesta a las palabras no atendidas, incluso cuando se fijaba la atención directamente en ellas. [22] Estos resultados están en consonancia con lo que se predeciría mediante un estilo de selección de atenuación y son contrarios a la teoría clásica de selección tardía. [23]
En 1963, Deutsch y Deutsch propusieron un modelo de selección tardía para explicar cómo funciona la atención selectiva . Propusieron que todos los estímulos se procesan en su totalidad, con la diferencia crucial de que hay un filtro colocado más tarde en la rutina de procesamiento de la información, justo antes de que ingresen a la memoria de trabajo . El proceso de selección tardía supuestamente operaba sobre las características semánticas de un mensaje, impidiendo que la información llegue a la memoria y a la conciencia posterior si no posee el contenido deseado. [19] Según este modelo, la conciencia depreciada de los estímulos desatendidos provenía de la negación en la memoria de trabajo y la generación controlada de respuestas a ella. [9] El modelo de Deutsch y Deutsch fue revisado posteriormente por Norman en 1968, quien agregó que la fuerza de una información también era un factor importante para su selección. [24]
Una crítica tanto al modelo original de Deutsch como al modelo de selección de Deutsch-Norman revisado es que todos los estímulos, incluidos aquellos considerados irrelevantes, se procesan completamente. [10] Cuando se contrasta con el modelo de atenuación de Treisman, el enfoque de selección tardía parece derrochador con su procesamiento exhaustivo de toda la información antes de la selección de admisión en la memoria de trabajo. [17]