stringtranslate.com

Condicionamiento operante

El condicionamiento operante , también llamado condicionamiento instrumental , es un proceso de aprendizaje donde las conductas voluntarias se modifican mediante asociación con la adición (o eliminación) de recompensa o estímulos aversivos. La frecuencia o duración de la conducta puede aumentar mediante refuerzo o disminuir mediante castigo o extinción .

El condicionamiento operante se originó en el trabajo de Edward Thorndike , cuya ley del efecto teorizó que las conductas surgen como resultado de si sus consecuencias son satisfactorias o incómodas. En el siglo XX, el condicionamiento operante fue estudiado por psicólogos conductistas , quienes creían que gran parte, si no toda, la mente y el comportamiento pueden explicarse como resultado del condicionamiento ambiental. Los refuerzos son estímulos ambientales que aumentan las conductas, mientras que los castigos son estímulos que las disminuyen. Ambos tipos de estímulos se pueden clasificar además en estímulos positivos y negativos, que implican respectivamente la adición o eliminación de estímulos ambientales.

El condicionamiento operante difiere del condicionamiento clásico , que es un proceso en el que los estímulos se combinan con eventos biológicamente significativos para producir conductas involuntarias y reflexivas . Por el contrario, el condicionamiento operante es voluntario y depende de las consecuencias de una conducta.

El estudio del aprendizaje animal en el siglo XX estuvo dominado por el análisis de estos dos tipos de aprendizaje, [1] y todavía están en el centro del análisis del comportamiento. También se han aplicado al estudio de la psicología social , ayudando a esclarecer ciertos fenómenos como el efecto del falso consenso . [2]

Historia

Edward Lee Thorndike en 1912

Ley del efecto de Thorndike

El condicionamiento operante, a veces llamado aprendizaje instrumental , fue estudiado exhaustivamente por primera vez por Edward L. Thorndike (1874-1949), quien observó el comportamiento de los gatos que intentaban escapar de cajas de rompecabezas hechas en casa. [3] Un gato podía escapar de la caja con una simple respuesta, como tirar de una cuerda o empujar un poste, pero cuando se los obligaba por primera vez, los gatos tardaban mucho en salir. Con pruebas repetidas, las respuestas ineficaces ocurrieron con menos frecuencia y las respuestas exitosas ocurrieron con mayor frecuencia, por lo que los gatos escaparon cada vez más rápidamente. [3] Thorndike generalizó este hallazgo en su ley del efecto , que establece que las conductas seguidas de consecuencias satisfactorias tienden a repetirse y aquellas que producen consecuencias desagradables tienen menos probabilidades de repetirse. En resumen, algunas consecuencias fortalecen la conducta y otras debilitan la conducta. Al comparar el tiempo de escape con el número de prueba, Thorndike produjo las primeras curvas de aprendizaje en animales conocidas mediante este procedimiento. [4]

Los humanos parecen aprender muchos comportamientos simples a través del tipo de proceso estudiado por Thorndike, ahora llamado condicionamiento operante. Es decir, las respuestas se retienen cuando conducen a un resultado exitoso y se descartan cuando no lo hacen o cuando producen efectos aversivos. Esto suele suceder sin que ningún "maestro" lo planee, pero el condicionamiento operante ha sido utilizado por los padres para enseñar a sus hijos durante miles de años. [5]

BF Skinner

BF Skinner en el Departamento de Psicología de Harvard, alrededor de 1950

A BF Skinner (1904-1990) se le conoce como el padre del condicionamiento operante y su trabajo se cita con frecuencia en relación con este tema. Su libro de 1938 "El comportamiento de los organismos: un análisis experimental", [6] inició su estudio de toda la vida sobre el condicionamiento operante y su aplicación al comportamiento humano y animal. Siguiendo las ideas de Ernst Mach , Skinner rechazó la referencia de Thorndike a estados mentales no observables como la satisfacción, construyendo su análisis sobre la conducta observable y sus consecuencias igualmente observables. [7]

Skinner creía que el condicionamiento clásico era demasiado simplista para usarlo para describir algo tan complejo como el comportamiento humano. El condicionamiento operante, en su opinión, describía mejor el comportamiento humano al examinar las causas y efectos del comportamiento intencional.

Para implementar su enfoque empírico, Skinner inventó la cámara de condicionamiento operante , o " Skinner Box ", en la que sujetos como palomas y ratas estaban aislados y podían exponerse a estímulos cuidadosamente controlados. A diferencia de la caja de rompecabezas de Thorndike, esta disposición permitía al sujeto dar una o dos respuestas simples y repetibles, y la tasa de tales respuestas se convirtió en la principal medida conductual de Skinner. [8] Otro invento, el registrador acumulativo, produjo un registro gráfico a partir del cual se podían estimar estas tasas de respuesta. Estos registros fueron los datos principales que Skinner y sus colegas utilizaron para explorar los efectos sobre la tasa de respuesta de varios programas de refuerzo. [9] Un programa de refuerzo puede definirse como "cualquier procedimiento que proporcione refuerzo a un organismo de acuerdo con alguna regla bien definida". [10] Los efectos de los horarios se convirtieron, a su vez, en los hallazgos básicos a partir de los cuales Skinner desarrolló su explicación del condicionamiento operante. También se basó en muchas observaciones menos formales del comportamiento humano y animal. [11]

Muchos de los escritos de Skinner están dedicados a la aplicación del condicionamiento operante al comportamiento humano. [12] En 1948 publicó Walden Two , un relato ficticio de una comunidad pacífica, feliz y productiva organizada en torno a sus principios condicionantes. [13] En 1957, Skinner publicó Verbal Behavior , [14] que extendió los principios del condicionamiento operante al lenguaje, una forma de comportamiento humano que previamente había sido analizada de manera muy diferente por lingüistas y otros. Skinner definió nuevas relaciones funcionales como "mandos" y "tactos" para capturar algunos elementos esenciales del lenguaje, pero no introdujo nuevos principios y trató el comportamiento verbal como cualquier otro comportamiento controlado por sus consecuencias, que incluían las reacciones de la audiencia del hablante.

Conceptos y procedimientos

Orígenes de la conducta operante: variabilidad operante

Se dice que la conducta operante es "emitida"; es decir, inicialmente no es provocado por ningún estímulo particular. Por tanto, cabe preguntarse por qué ocurre esto en primer lugar. La respuesta a esta pregunta es como la respuesta de Darwin a la pregunta sobre el origen de una "nueva" estructura corporal, es decir, la variación y la selección. De manera similar, el comportamiento de un individuo varía de un momento a otro, en aspectos tales como los movimientos específicos involucrados, la cantidad de fuerza aplicada o el momento de la respuesta. Las variaciones que conducen al refuerzo se fortalecen y, si el refuerzo es consistente, la conducta tiende a permanecer estable. Sin embargo, la variabilidad del comportamiento puede alterarse mediante la manipulación de ciertas variables. [15]

Modificación de la conducta operante: refuerzo y castigo.

El refuerzo y el castigo son las herramientas centrales a través de las cuales se modifica la conducta operante. Estos términos se definen por su efecto sobre el comportamiento. Cualquiera puede ser positivo o negativo.

Otro procedimiento se llama "extinción".

Hay un total de cinco consecuencias.

  1. El refuerzo positivo ocurre cuando una conducta (respuesta) es gratificante o la conducta es seguida por otro estímulo que es gratificante, aumentando la frecuencia de esa conducta. [17] Por ejemplo, si una rata en una caja Skinner obtiene comida cuando presiona una palanca, su velocidad de presión aumentará. A este procedimiento se le suele llamar simplemente refuerzo .
  2. El refuerzo negativo (también conocido como escape) ocurre cuando a una conducta (respuesta) le sigue la eliminación de un estímulo aversivo , aumentando así la frecuencia de la conducta original. En el experimento de la Caja Skinner, el estímulo aversivo podría ser un ruido fuerte y continuo dentro de la caja; El refuerzo negativo ocurriría cuando la rata presiona una palanca para apagar el ruido.
  3. El castigo positivo (también conocido como "castigo por estimulación contingente") ocurre cuando una conducta (respuesta) va seguida de un estímulo aversivo. Ejemplo: dolor por una paliza , que muchas veces resultaría en una disminución de esa conducta. El castigo positivo es un término confuso, por lo que el procedimiento suele denominarse "castigo".
  4. El castigo negativo (pena) (también llamado "castigo por retirada contingente") ocurre cuando a una conducta (respuesta) le sigue la eliminación de un estímulo. Ejemplo: quitarle el juguete a un niño tras una conducta no deseada por su parte, lo que daría lugar a una disminución de la conducta indeseable.
  5. La extinción ocurre cuando una conducta (respuesta) que previamente había sido reforzada ya no es efectiva. Ejemplo: a una rata se le da comida por primera vez muchas veces por presionar una palanca, hasta que el experimentador ya no le da comida como recompensa. Por lo general, la rata presionaría la palanca con menos frecuencia y luego se detendría. Entonces se diría que la presión de la palanca está "extinguida".

No se dice que los actores (por ejemplo, una rata) sean reforzados, castigados o extinguidos; son las acciones las que se refuerzan, se castigan o se extinguen. Reforzamiento, castigo y extinción no son términos cuyo uso esté restringido al laboratorio. Las consecuencias que ocurren naturalmente también pueden reforzar, castigar o extinguir el comportamiento y no siempre se planifican o se implementan a propósito.

Horarios de refuerzo

Los horarios de refuerzo son reglas que controlan la entrega de refuerzo. Las reglas especifican el momento en que el refuerzo estará disponible, el número de respuestas que se darán, o ambas cosas. Son posibles muchas reglas, pero las siguientes son las más básicas y comúnmente utilizadas [18] [9]

Factores que alteran la eficacia del refuerzo y el castigo

La eficacia del refuerzo y el castigo se puede cambiar.

  1. Saciedad/Privación : La eficacia de un estímulo positivo o "apetitivo" se reducirá si el individuo ha recibido suficiente cantidad de ese estímulo para satisfacer su apetito. Se producirá el efecto contrario si el individuo se ve privado de ese estímulo: entonces aumentará la eficacia de una consecuencia. Un sujeto con el estómago lleno no se sentiría tan motivado como uno hambriento. [19]
  2. Inmediatez : Una consecuencia inmediata es más eficaz que una retardada. Si se le da a un perro una golosina por sentarse en cinco segundos, el perro aprenderá más rápido que si se le da la golosina después de treinta segundos. [20]
  3. Contingencia : Para ser más efectivo, el refuerzo debe ocurrir consistentemente después de las respuestas y no en otros momentos. El aprendizaje puede ser más lento si el refuerzo es intermitente, es decir, sigue sólo algunos casos de la misma respuesta. Las respuestas reforzadas intermitentemente suelen tardar más en extinguirse que las respuestas que siempre han sido reforzadas. [19]
  4. Tamaño : El tamaño o cantidad de un estímulo a menudo afecta su potencia como reforzador. Los humanos y los animales participan en análisis de costo-beneficio. Si una prensa de palanca trae diez bolitas de comida, se puede aprender a presionar la palanca más rápidamente que si una prensa trae solo una bolita. Una pila de monedas de veinticinco centavos de una máquina tragamonedas puede hacer que un jugador siga tirando de la palanca por más tiempo que una sola moneda de veinticinco centavos.

La mayoría de estos factores cumplen funciones biológicas. Por ejemplo, el proceso de saciedad ayuda al organismo a mantener un ambiente interno estable ( homeostasis ). Cuando un organismo ha sido privado de azúcar, por ejemplo, el sabor del azúcar es un reforzador eficaz. Cuando el nivel de azúcar en sangre del organismo alcanza o supera un nivel óptimo, el sabor del azúcar se vuelve menos efectivo o incluso aversivo.

Formación

El modelado es un método de acondicionamiento que se utiliza a menudo en el adiestramiento de animales y en la enseñanza de seres humanos no verbales. Depende de la variabilidad operante y el refuerzo, como se describió anteriormente. El formador comienza identificando la conducta final deseada (o "objetivo"). A continuación, el entrenador elige una conducta que el animal o la persona ya emite con cierta probabilidad. Luego, la forma de esta conducta se cambia gradualmente a lo largo de pruebas sucesivas reforzando conductas que se aproximan cada vez más a la conducta objetivo. Cuando finalmente se emite la conducta objetivo, se puede fortalecer y mantener mediante el uso de un programa de refuerzo.

Refuerzo no contingente

El refuerzo no contingente es la entrega de estímulos reforzantes independientemente del comportamiento del organismo. El refuerzo no contingente se puede utilizar en un intento de reducir una conducta objetivo no deseada reforzando múltiples respuestas alternativas mientras se extingue la respuesta objetivo. [21] Como no se identifica ningún comportamiento medido como fortalecido, existe controversia en torno al uso del término "refuerzo" no contingente. [22]

Control de estímulos de la conducta operante.

Aunque inicialmente la conducta operante se emite sin una referencia identificada a un estímulo particular, durante el condicionamiento operante los operantes quedan bajo el control de estímulos que están presentes cuando se refuerza la conducta. Estos estímulos se denominan "estímulos discriminativos". El resultado es la llamada " contingencia de tres períodos ". Es decir, los estímulos discriminativos crean la ocasión para respuestas que producen recompensa o castigo. Ejemplo: se puede entrenar a una rata para que presione una palanca sólo cuando se enciende una luz; un perro corre a la cocina cuando escucha el ruido de su bolsa de comida; un niño busca un caramelo cuando lo ve sobre una mesa.

Discriminación, generalización y contexto

La mayor parte del comportamiento está bajo control de estímulos. De esto se pueden distinguir varios aspectos:

Secuencias conductuales: refuerzo condicionado y encadenamiento

La mayor parte de la conducta no puede describirse fácilmente en términos de respuestas individuales reforzadas una por una. El alcance del análisis operante se amplía a través de la idea de cadenas conductuales, que son secuencias de respuestas unidas por las contingencias de tres términos definidas anteriormente. El encadenamiento se basa en el hecho, demostrado experimentalmente, de que un estímulo discriminativo no sólo prepara la ocasión para una conducta posterior, sino que también puede reforzar una conducta que la precede. Es decir, un estímulo discriminativo es también un "reforzador condicionado". Por ejemplo, la luz que propicia el momento de pulsar la palanca puede utilizarse para reforzar el "giro" en presencia de un ruido. Esto da como resultado la secuencia "ruido – giro – luz – presionar la palanca – comida". Se pueden construir cadenas mucho más largas añadiendo más estímulos y respuestas.

Escape y evitación

En el aprendizaje de escape, una conducta pone fin a un estímulo (aversivo). Por ejemplo, proteger los ojos de la luz solar pone fin a la estimulación (aversiva) de la luz brillante en los ojos. (Este es un ejemplo de refuerzo negativo, definido anteriormente). La conducta que se mantiene evitando un estímulo se llama "evitación", como, por ejemplo, ponerse gafas de sol antes de salir al aire libre. La conducta de evitación plantea la llamada "paradoja de la evitación", porque, cabe preguntarse, ¿cómo puede la no aparición de un estímulo servir como reforzador? Esta cuestión es abordada por varias teorías de la evitación (ver más abajo).

Se utilizan habitualmente dos tipos de entornos experimentales: aprendizaje de evitación discriminado y de operación libre.

Aprendizaje de evitación discriminada

Un experimento de evitación discriminada implica una serie de pruebas en las que un estímulo neutro, como una luz, es seguido por un estímulo aversivo, como una descarga eléctrica. Después de que aparece el estímulo neutral, una respuesta operante, como presionar una palanca, previene o finaliza el estímulo aversivo. En las primeras pruebas, el sujeto no responde hasta que se produce el estímulo aversivo, por lo que estas primeras pruebas se denominan pruebas de "escape". A medida que avanza el aprendizaje, el sujeto comienza a responder durante el estímulo neutro y así evita que se produzca el estímulo aversivo. Estos juicios se denominan "juicios de evasión". Se dice que este experimento implica condicionamiento clásico porque un CS neutro (estímulo condicionado) se combina con el EI aversivo (estímulo incondicionado); Esta idea subyace a la teoría de dos factores del aprendizaje por evitación que se describe a continuación.

Aprendizaje de evitación operante libre

En la evitación operante libre, un sujeto recibe periódicamente un estímulo aversivo (a menudo una descarga eléctrica) a menos que se dé una respuesta operante; la respuesta retrasa el inicio del shock. En esta situación, a diferencia de la evitación discriminada, ningún estímulo previo señala el shock. Dos intervalos de tiempo cruciales determinan la tasa de aprendizaje de la evitación. Este primero es el intervalo SS (shock-shock). Este es el tiempo entre shocks sucesivos en ausencia de una respuesta. El segundo intervalo es el intervalo RS (respuesta-shock). Esto especifica el tiempo durante el cual una respuesta operante retrasa el inicio del siguiente shock. Cada vez que el sujeto realiza la respuesta operante, el intervalo RS sin descarga comienza de nuevo.

Teoría de la evitación de dos procesos

Esta teoría se propuso originalmente para explicar el aprendizaje de evitación discriminada, en el que un organismo aprende a evitar un estímulo aversivo escapando de una señal de ese estímulo. Están involucrados dos procesos: condicionamiento clásico de la señal seguido de condicionamiento operante de la respuesta de escape:

a) Condicionamiento clásico del miedo. Inicialmente el organismo experimenta el emparejamiento de un EC con un EI aversivo. La teoría supone que este emparejamiento crea una asociación entre el CS y el EE.UU. a través del condicionamiento clásico y, debido a la naturaleza aversiva del EE.UU., el SC llega a provocar una reacción emocional condicionada (CER): "miedo". b) Reforzamiento de la respuesta operante por reducción del miedo. Como resultado del primer proceso, el CS ahora indica miedo; esta reacción emocional desagradable sirve para motivar respuestas operantes, y las respuestas que ponen fin al EC se ven reforzadas por la terminación del miedo. La teoría no dice que el organismo "evita" el EE.UU. en el sentido de anticiparlo, sino más bien que el organismo "escapa" de un estado interno aversivo causado por el SC. Varios hallazgos experimentales parecen ir en contra de la teoría de dos factores. Por ejemplo, la conducta de evitación a menudo se extingue muy lentamente incluso cuando el emparejamiento CS-US inicial nunca vuelve a ocurrir, por lo que se podría esperar que la respuesta de miedo se extinga (ver Condicionamiento clásico ). Además, los animales que han aprendido a evitar a menudo muestran poca evidencia de miedo, lo que sugiere que escapar del miedo no es necesario para mantener una conducta de evitación. [23]

Teoría operante o de "un factor"

Algunos teóricos sugieren que la conducta de evitación puede ser simplemente un caso especial de conducta operante mantenida por sus consecuencias. Desde este punto de vista, la idea de "consecuencias" se amplía para incluir la sensibilidad a un patrón de acontecimientos. Así, en la evitación, la consecuencia de una respuesta es una reducción en la tasa de estimulación aversiva. De hecho, la evidencia experimental sugiere que un "shock fallido" se detecta como un estímulo y puede actuar como reforzador. Las teorías cognitivas de la evitación llevan esta idea un paso más allá. Por ejemplo, una rata llega a "esperar" una descarga si no presiona una palanca y "no esperar ninguna descarga" si la presiona, y la conducta de evitación se fortalece si estas expectativas se confirman. [23]

Acaparamiento operante

El acaparamiento operante se refiere a la observación de que las ratas reforzadas de cierta manera pueden permitir que los gránulos de comida se acumulen en una bandeja de comida en lugar de recuperarlos. En este procedimiento, la recuperación de los gránulos siempre instituía un período de extinción de un minuto durante el cual no había gránulos de alimento adicionales disponibles, pero se podían consumir los que se habían acumulado anteriormente. Este hallazgo parece contradecir el hallazgo habitual de que las ratas se comportan impulsivamente en situaciones en las que pueden elegir entre un objeto de comida más pequeño de inmediato y un objeto de comida más grande después de algún retraso. Ver horarios de refuerzo . [24]

Correlatos neurobiológicos

Los primeros estudios científicos que identificaron neuronas que respondían de maneras que sugerían que codificaban estímulos condicionados provinieron del trabajo de Mahlon deLong [25] [26] y RT Richardson. [26] Demostraron que las neuronas del núcleo basal , que liberan acetilcolina ampliamente en toda la corteza cerebral , se activan poco después de un estímulo condicionado, o después de una recompensa primaria si no existe ningún estímulo condicionado. Estas neuronas son igualmente activas para reforzadores positivos y negativos y se ha demostrado que están relacionadas con la neuroplasticidad en muchas regiones corticales . [27] También existe evidencia de que la dopamina se activa en momentos similares. Existe evidencia considerable de que la dopamina participa tanto en el refuerzo como en el aprendizaje aversivo. [28] Las vías de la dopamina se proyectan mucho más densamente en las regiones de la corteza frontal . Las proyecciones colinérgicas , por el contrario, son densas incluso en las regiones corticales posteriores como la corteza visual primaria . Un estudio de pacientes con enfermedad de Parkinson , una condición atribuida a la acción insuficiente de la dopamina, ilustra aún más el papel de la dopamina en el refuerzo positivo. [29] Demostró que mientras no tomaban medicación, los pacientes aprendían más fácilmente con consecuencias aversivas que con refuerzo positivo. Los pacientes que estaban tomando medicación demostraron lo contrario: el refuerzo positivo demostró ser la forma más eficaz de aprendizaje cuando la actividad de la dopamina es alta.

Se ha sugerido que la base del refuerzo es un proceso neuroquímico que involucra la dopamina. Cuando un organismo experimenta un estímulo reforzador, se activan las vías de dopamina en el cerebro. Esta red de vías "libera un pulso corto de dopamina en muchas dendritas , transmitiendo así una señal de refuerzo global a las neuronas postsinápticas ". [30] Esto permite que las sinapsis recientemente activadas aumenten su sensibilidad a las señales eferentes (conducidas hacia afuera), aumentando así la probabilidad de que ocurran las respuestas recientes que precedieron al refuerzo. Estas respuestas son, estadísticamente, las que tienen más probabilidades de haber sido la conducta responsable de lograr con éxito el refuerzo. Pero cuando la aplicación del refuerzo es menos inmediata o menos contingente (menos consistente), se reduce la capacidad de la dopamina para actuar sobre las sinapsis apropiadas.

Preguntas sobre la ley del efecto.

Varias observaciones parecen mostrar que la conducta operante puede establecerse sin refuerzo en el sentido definido anteriormente. El más citado es el fenómeno de autoformación (a veces llamado "seguimiento de signos"), en el que un estímulo es seguido repetidamente por un refuerzo y, en consecuencia, el animal comienza a responder al estímulo. Por ejemplo, se enciende una tecla de respuesta y luego se presenta la comida. Cuando esto se repite varias veces, la paloma comienza a picotear la llave a pesar de que llega comida, ya sea que el pájaro picotee o no. De manera similar, las ratas comienzan a manipular objetos pequeños, como una palanca, cuando se les presenta comida cerca. [31] [32] Sorprendentemente, las palomas y las ratas persisten en este comportamiento incluso cuando picotear la llave o presionar la palanca conduce a menos comida (entrenamiento de omisión). [33] [34] Otro comportamiento operante aparente que aparece sin refuerzo es el contrafreeloading .

Estas observaciones y otras parecen contradecir la ley del efecto y han llevado a algunos investigadores a proponer nuevas conceptualizaciones del refuerzo operante (por ejemplo, [35] [36] [37] ). Una visión más general es que la autoformación es un ejemplo de condicionamiento clásico. ; De hecho, el procedimiento de autoformación se ha convertido en una de las formas más comunes de medir el condicionamiento clásico. Desde este punto de vista, muchas conductas pueden verse influenciadas tanto por contingencias clásicas (estímulo-respuesta) como por contingencias operantes (respuesta-refuerzo), y la tarea del experimentador es descubrir cómo interactúan. [38]

Aplicaciones

El refuerzo y el castigo son omnipresentes en las interacciones sociales humanas y se han sugerido e implementado muchas aplicaciones de principios operantes. Los siguientes son algunos ejemplos.

Adicción y dependencia

El refuerzo positivo y negativo desempeñan papeles centrales en el desarrollo y mantenimiento de la adicción y la drogodependencia . Una droga adictiva es intrínsecamente gratificante ; es decir, funciona como un reforzador positivo primario del consumo de drogas. El sistema de recompensa del cerebro le asigna un incentivo destacado (es decir, es "deseado" o "deseado"), [39] [40] [41] de modo que, a medida que se desarrolla una adicción, la privación de la droga conduce al deseo. Además, los estímulos asociados con el consumo de drogas (por ejemplo, la vista de una jeringa y el lugar de uso) se asocian con el intenso refuerzo inducido por la droga. [39] [40] [41] Estos estímulos previamente neutrales adquieren varias propiedades: su apariencia puede inducir el deseo y pueden convertirse en reforzadores positivos condicionados de su uso continuo. [39] [40] [41] Por lo tanto, si un individuo adicto encuentra una de estas señales de drogas, puede reaparecer un anhelo por la droga asociada. Por ejemplo, las agencias antidrogas utilizaban anteriormente carteles con imágenes de parafernalia de drogas como un intento de mostrar los peligros del consumo de drogas. Sin embargo, estos carteles ya no se utilizan debido a los efectos de la prominencia de los incentivos al provocar una recaída al ver los estímulos ilustrados en los carteles.

En individuos drogodependientes, el refuerzo negativo se produce cuando se autoadministra una droga con el fin de aliviar o "escapar" de los síntomas de dependencia física (p. ej., temblores y sudoración) y/o dependencia psicológica (p. ej., anhedonia , inquietud, irritabilidad y ansiedad) que surgen durante el estado de abstinencia de drogas . [39]

entrenamiento de animales

Los entrenadores de animales y los dueños de mascotas aplicaban los principios y prácticas del condicionamiento operante mucho antes de que estas ideas fueran nombradas y estudiadas, y el entrenamiento de animales todavía proporciona uno de los ejemplos más claros y convincentes de control operante. De los conceptos y procedimientos descritos en este artículo, algunos de los más destacados son los siguientes: (a) disponibilidad de refuerzo primario (por ejemplo, una bolsa de golosinas para perros); (b) el uso de refuerzo secundario (por ejemplo, hacer sonar un clicker inmediatamente después de una respuesta deseada y luego dar yummy); (c) contingencia, asegurando que el refuerzo (por ejemplo, el clicker) sigue el comportamiento deseado y no otra cosa; (d) dar forma, como hacer que un perro salte gradualmente más y más alto; (e) refuerzo intermitente, como reducir gradualmente la frecuencia del refuerzo para inducir una conducta persistente sin saciedad; (f) encadenamiento, donde un comportamiento complejo se construye gradualmente a partir de unidades más pequeñas. [42]

Ejemplo de entrenamiento de animales de Seaworld relacionado con el condicionamiento operante [43]

El adiestramiento animal tiene efectos sobre el refuerzo positivo y el refuerzo negativo. Los programas de refuerzos pueden desempeñar un papel importante en el caso del adiestramiento animal. [ cita necesaria ]

Analisis de comportamiento aplicado

El análisis aplicado de la conducta es la disciplina iniciada por BF Skinner que aplica los principios del condicionamiento a la modificación de la conducta humana socialmente significativa. Utiliza los conceptos básicos de la teoría del condicionamiento, incluido el estímulo condicionado (S C ), el estímulo discriminativo (S d ), la respuesta (R) y el estímulo reforzante (S rein o S r para reforzadores, a veces S ave para estímulos aversivos). [23]

Los practicantes del análisis de comportamiento aplicado (ABA) aplican estos procedimientos, y muchas variaciones y desarrollos de ellos, a una variedad de comportamientos y problemas socialmente significativos. En muchos casos, los profesionales utilizan técnicas operantes para desarrollar conductas constructivas y socialmente aceptables para reemplazar conductas aberrantes. Las técnicas de ABA se han aplicado eficazmente en cosas como intervenciones conductuales intensivas tempranas para niños con un trastorno del espectro autista (TEA) [44] investigación sobre los principios que influyen en el comportamiento criminal , prevención del VIH, [45] conservación de recursos naturales, [ 46] educación, [47] gerontología , [48] salud y ejercicio , [49] seguridad industrial , [50] adquisición del lenguaje , [51] tirar basura, [52] procedimientos médicos , [53] crianza de los hijos, [54] psicoterapia , [ cita necesaria ] uso del cinturón de seguridad, [55] trastornos mentales graves , [56] deportes, [57] abuso de sustancias , fobias , trastornos alimentarios pediátricos y manejo y cuidado de animales en zoológicos . [58] Algunas de estas aplicaciones se encuentran entre las que se describen a continuación.

Comportamiento infantil: formación en gestión de padres

Proporcionar refuerzo positivo para las conductas infantiles apropiadas es un objetivo importante de la capacitación en gestión de padres. Normalmente, los padres aprenden a recompensar el comportamiento apropiado a través de recompensas sociales (como elogios, sonrisas y abrazos), así como recompensas concretas (como pegatinas o puntos para una recompensa mayor como parte de un sistema de incentivos creado en colaboración con el niño). [59] Además, los padres aprenden a seleccionar comportamientos simples como enfoque inicial y recompensan cada uno de los pequeños pasos que su hijo logra para alcanzar una meta mayor (este concepto se llama "aproximaciones sucesivas"). [59] [60]

Ciencias económicas

Tanto los psicólogos como los economistas se han interesado en aplicar conceptos y hallazgos operantes al comportamiento de los humanos en el mercado. Un ejemplo es el análisis de la demanda de los consumidores, indexada por la cantidad de un bien que se compra. En economía, el grado en que el precio influye en el consumo se denomina "elasticidad precio de la demanda". Ciertos productos son más elásticos que otros; por ejemplo, un cambio en el precio de ciertos alimentos puede tener un gran efecto en la cantidad comprada, mientras que la gasolina y otros consumibles cotidianos pueden verse menos afectados por los cambios de precio. En términos de análisis operante, tales efectos pueden interpretarse en términos de las motivaciones de los consumidores y el valor relativo de las mercancías como reforzadores. [61]

Juegos de azar: programación de proporción variable

Como se indicó anteriormente en este artículo, un programa de proporción variable produce refuerzo después de la emisión de un número impredecible de respuestas. Este programa suele generar una respuesta rápida y persistente. Las máquinas tragamonedas pagan según un programa de proporción variable y producen precisamente este tipo de comportamiento persistente de tirar de la palanca en los jugadores. La rentabilidad variable de las máquinas tragamonedas y otras formas de juego se ha citado a menudo como un factor subyacente a la adicción al juego. [62]

Psicología militar

Los seres humanos tienen una resistencia innata a matar y son reacios a actuar de manera directa y agresiva hacia miembros de su propia especie, incluso para salvar vidas. Esta resistencia a matar ha provocado que la infantería sea notablemente ineficiente a lo largo de la historia de la guerra militar. [63]

Este fenómeno no se entendió hasta que SLA Marshall (general de brigada e historiador militar) llevó a cabo estudios de entrevistas con la infantería de la Segunda Guerra Mundial inmediatamente después del combate. El conocido y controvertido libro de Marshall, Hombres contra el fuego, reveló que sólo el 15% de los soldados disparaban sus rifles con el propósito de matar en combate. [64] Tras la aceptación de la investigación de Marshall por parte del ejército de los EE. UU. en 1946, la Oficina de Investigación de Recursos Humanos del ejército de los EE. UU. comenzó a implementar nuevos protocolos de entrenamiento que se asemejan a los métodos de condicionamiento operante. Las aplicaciones posteriores de tales métodos aumentaron el porcentaje de soldados capaces de matar a alrededor del 50% en Corea y a más del 90% en Vietnam. [63] Las revoluciones en el entrenamiento incluyeron el reemplazo de los tradicionales campos de tiro emergentes con objetivos emergentes tridimensionales, con forma de hombre, que colapsaban cuando eran alcanzados. Esto proporcionó retroalimentación inmediata y actuó como refuerzo positivo para el comportamiento de un soldado. [65] Otras mejoras en los métodos de entrenamiento militar han incluido el curso de tiro cronometrado; formación más realista; altas repeticiones; elogios de los superiores; recompensas de puntería; y reconocimiento grupal. El refuerzo negativo incluye la responsabilidad de los pares o el requisito de volver a tomar cursos. El entrenamiento militar moderno condiciona la respuesta del cerebro medio a la presión del combate simulando estrechamente el combate real, utilizando principalmente el condicionamiento clásico pavloviano y el condicionamiento operante skinneriano (ambas formas de conductismo ). [63]

El entrenamiento moderno en puntería es un ejemplo tan excelente de conductismo que se ha utilizado durante años en el curso de introducción a la psicología impartido a todos los cadetes de la Academia Militar de Estados Unidos en West Point como un ejemplo clásico de condicionamiento operante. En la década de 1980, durante una visita a West Point, BF Skinner identificó el entrenamiento de puntería militar moderno como una aplicación casi perfecta del condicionamiento operante. [sesenta y cinco]

El teniente coronel Dave Grossman afirma sobre el condicionamiento operante y el entrenamiento militar estadounidense que:

Es muy posible que nadie se haya sentado intencionalmente a usar condicionamiento operante o técnicas de modificación de conducta para entrenar soldados en esta área... Pero desde el punto de vista de un psicólogo que también es historiador y soldado de carrera, se ha vuelto cada vez más obvio para mí que esto es exactamente lo que se ha logrado. [63]

Teoría del empujón

La teoría del empujón (o nudge) es un concepto de las ciencias del comportamiento , la teoría política y la economía que sostiene que las sugerencias indirectas para tratar de lograr un cumplimiento no forzado pueden influir en los motivos, incentivos y la toma de decisiones de grupos e individuos, al menos con la misma eficacia, si no más eficazmente que la instrucción directa, la legislación o la aplicación de la ley. [ cita necesaria ]

Elogio

El concepto de elogio como medio de refuerzo conductual tiene sus raíces en el modelo de condicionamiento operante de BF Skinner. A través de esta lente, los elogios se han visto como un medio de refuerzo positivo, en el que es más probable que ocurra una conducta observada al elogiar contingentemente dicha conducta. [66] Cientos de estudios han demostrado la eficacia de los elogios para promover conductas positivas, en particular en el estudio del uso de los elogios por parte de maestros y padres en los niños para promover una mejor conducta y rendimiento académico, [67] [68] pero también en el estudio de desempeño laboral. [69] También se ha demostrado que los elogios refuerzan conductas positivas en individuos adyacentes no elogiados (como un compañero de clase del destinatario del elogio) a través del refuerzo indirecto. [70] El elogio puede ser más o menos eficaz para cambiar el comportamiento dependiendo de su forma, contenido y entrega. Para que los elogios produzcan un cambio de conducta positivo, deben depender de la conducta positiva (es decir, administrarse sólo después de que se haya implementado la conducta objetivo), deben especificar los detalles de la conducta que se va a reforzar y deben entregarse con sinceridad y sinceridad. creíblemente. [71]

Al reconocer el efecto de los elogios como estrategia de refuerzo positivo, numerosas intervenciones conductuales y cognitivo-conductuales han incorporado el uso de los elogios en sus protocolos. [72] [73] El uso estratégico de los elogios se reconoce como una práctica basada en evidencia tanto en la gestión del aula [72] como en las intervenciones de capacitación para padres, [68] aunque los elogios a menudo se subsumen en la investigación de intervenciones en una categoría más amplia de refuerzo positivo. que incluye estrategias como atención estratégica y recompensas conductuales.

Se han realizado varios estudios sobre el efecto que tienen la terapia cognitivo-conductual y la terapia conductual operante en diferentes afecciones médicas. Cuando los pacientes desarrollaron técnicas cognitivas y conductuales que cambiaron sus conductas, actitudes y emociones; la intensidad de su dolor disminuyó. Los resultados de estos estudios mostraron una influencia de las cogniciones en la percepción del dolor y el impacto presentado explicó la eficacia general de la terapia cognitivo-conductual (TCC) y la terapia operante-conductual (OBT). [ cita necesaria ]

Juegos de vídeo

La mayoría [ cita necesaria ] de los videojuegos están diseñados en torno a un ciclo de compulsión , agregando un tipo de refuerzo positivo a través de un programa de ritmo variable para mantener al jugador jugando. Esto puede conducir a la patología de la adicción a los videojuegos . [74]

Como parte de una tendencia en la monetización de los videojuegos durante la década de 2010, algunos juegos ofrecían cajas de botín como recompensas o como artículos que se podían comprar con fondos del mundo real. Las cajas contienen una selección aleatoria de elementos del juego. La práctica se ha vinculado a los mismos métodos con los que las máquinas tragamonedas y otros dispositivos de juego reparten recompensas, ya que sigue un programa de tasa variable. Si bien existe la percepción general de que las cajas de botín son una forma de juego, la práctica sólo se clasifica como tal en unos pocos países. Sin embargo, los métodos para utilizar esos artículos como moneda virtual para juegos de azar en línea o para intercambiar con dinero del mundo real han creado un mercado de juegos de azar que se encuentra bajo evaluación legal. [75]

Condicionamiento Operante y Medicina Defensiva

Una de las muchas razones propuestas para los dramáticos costos asociados con la atención médica es la práctica de la medicina defensiva. Prabhu revisa el artículo de Cole y analiza cómo las respuestas de dos grupos de neurocirujanos son un comportamiento operante clásico. Un grupo practica en un estado con restricciones a las demandas médicas y el otro grupo sin restricciones. Se preguntó al grupo de neurocirujanos de forma anónima sobre sus patrones de práctica. Los médicos cambiaron su práctica en respuesta a una respuesta negativa (miedo a las demandas) en el grupo que practicaba en un estado sin restricciones a las demandas médicas. [76]

Ver también

Referencias

  1. ^ Jenkins, HM "Teoría del comportamiento y aprendizaje animal" Cap. 5 en Hearst, E. "El primer siglo de la psicología experimental" Hillsdale NJ, Earlbaum, 1979
  2. ^ Tarantola, Tor; Kumaran, Dharshan; Dayán, Peters; De Martino, Benedetto (10 de octubre de 2017). "Las preferencias previas influyen beneficiosamente en el aprendizaje social y no social". Comunicaciones de la naturaleza . 8 (1): 817. Código Bib : 2017NatCo...8..817T. doi : 10.1038/s41467-017-00826-8 . ISSN  2041-1723. PMC  5635122 . PMID  29018195.
  3. ^ ab Thorndike, EL (1901). "Inteligencia animal: un estudio experimental de los procesos asociativos en animales". Suplemento monográfico de revisión psicológica . 2 : 1–109.
  4. ^ Miltenberger, RG "Modificación del comportamiento: principios y procedimientos". Thomson/Wadsworth , 2008. pág. 9.
  5. ^ Miltenberger, RG y Crosland, KA (2014). Crianza de los hijos. El manual de wiley blackwell de condicionamiento operante y clásico. (págs. 509–531) Wiley-Blackwell. doi :10.1002/9781118468135.ch20
  6. ^ Skinner, BF "El comportamiento de los organismos: un análisis experimental", 1938 Nueva York: Appleton-Century-Crofts
  7. ^ Skinner, BF (1950). "¿Son las teorias de aprendizaje necesarias?". Revisión psicológica . 57 (4): 193–216. doi :10.1037/h0054367. PMID  15440996. S2CID  17811847.
  8. ^ Schacter, Daniel L., Daniel T. Gilbert y Daniel M. Wegner. "BF Skinner: El papel del refuerzo y el castigo", subsección en: Psicología; Segunda edicion. Nueva York: Worth, Incorporated, 2011, 278–288.
  9. ^ ab Ferster, CB y Skinner, BF "Programas de refuerzo", 1957 Nueva York: Appleton-Century-Crofts
  10. ^ Staddon, JER; DT Cerutti (febrero de 2003). "Condicionamiento operante". Revista Anual de Psicología . 54 (1): 115-144. doi : 10.1146/annurev.psych.54.101601.145124. PMC 1473025 . PMID  12415075. 
  11. ^ Mecca Chiesa (2004) Conductismo radical: la filosofía y la ciencia
  12. ^ Skinner, BF "Ciencia y comportamiento humano", 1953. Nueva York: MacMillan
  13. ^ Skinner, BF (1948). Walden dos. Indianápolis: Hackett
  14. ^ Skinner, BF "Verbal Behavior", 1957. Nueva York: Appleton-Century-Crofts
  15. ^ Neuringer, A (2002). "Variabilidad operante: evidencia, funciones y teoría". Boletín y revisión psiconómica . 9 (4): 672–705. doi : 10.3758/bf03196324 . PMID  12613672.
  16. ^ Skinner, BF (2014). Ciencia y comportamiento humano (PDF) . Cambridge, MA: Fundación BF Skinner. pag. 70 . Consultado el 13 de marzo de 2019 .
  17. ^ Schultz W (2015). "Señales de decisión y recompensa neuronal: de las teorías a los datos". Revisiones fisiológicas . 95 (3): 853–951. doi :10.1152/physrev.00023.2014. PMC 4491543 . PMID  26109341. Las recompensas en el condicionamiento operante son reforzadores positivos. ... El comportamiento operante da una buena definición de recompensa. Cualquier cosa que haga que un individuo regrese por más es un reforzador positivo y, por tanto, una recompensa. Aunque proporciona una buena definición, el refuerzo positivo es sólo una de varias funciones de recompensa. ... Las recompensas son atractivas. Son motivadores y nos hacen esforzarnos. ... Las recompensas inducen una conducta de acercamiento, también llamada conducta apetitiva o preparatoria, y conducta consumatoria. ... Así, cualquier estímulo, objeto, evento, actividad o situación que tenga el potencial de hacernos acercarnos y consumirlo es, por definición, una recompensa. 
  18. ^ Schacter et al.2011 Psicología 2ª ed. pg.280–284 Referencia para toda la sección Principios versión 130317
  19. ^ ab Miltenberger, RG "Modificación del comportamiento: principios y procedimientos". Thomson/Wadsworth , 2008. pág. 84.
  20. ^ Miltenberger, RG "Modificación del comportamiento: principios y procedimientos". Thomson/Wadsworth , 2008. pág. 86.
  21. ^ Tucker, M.; Sigafoos, J.; Bushell, H. (1998). "Uso de refuerzo no contingente en el tratamiento de conductas desafiantes". Modificación de comportamiento . 22 (4): 529–547. doi :10.1177/01454455980224005. PMID  9755650. S2CID  21542125.
  22. ^ Poling, A.; Normand, M. (1999). "Refuerzo no contingente: una descripción inapropiada de horarios basados ​​en el tiempo que reducen el comportamiento". Revista de análisis de conducta aplicado . 32 (2): 237–238. doi :10.1901/jaba.1999.32-237. PMC 1284187 . 
  23. ^ abc Pierce & Cheney (2004) Análisis y aprendizaje del comportamiento
  24. ^ Cole, señor (1990). "Acaparamiento operante: un nuevo paradigma para el estudio del autocontrol". Revista de Análisis Experimental del Comportamiento . 53 (2): 247–262. doi :10.1901/jeab.1990.53-247. PMC 1323010 . PMID  2324665. 
  25. ^ "Actividad de las neuronas pálidas durante el movimiento", MR DeLong, J. Neurophysiol. , 34:414–27, 1971
  26. ^ ab Richardson RT, DeLong MR (1991): Estudios electrofisiológicos de la función del núcleo basal en primates. En Napier TC, Kalivas P, Hamin I (eds), The Basal Forebrain: Anatomy to Function ( Avances en medicina y biología experimentales ), vol. 295. Nueva York, Pleno, págs. 232-252
  27. ^ PNAS 93:11219-24 1996, Ciencia 279:1714–8 1998
  28. ^ Neuron 63:244–253, 2009, Fronteras de la neurociencia conductual, 3: artículo 13, 2009
  29. ^ Michael J. Frank, Lauren C. Seeberger y Randall C. O'Reilly (2004) "Con zanahoria o palo: aprendizaje por refuerzo cognitivo en el parkinsonismo", Science 4, noviembre de 2004
  30. ^ Schultz, Wolfram (1998). "Señal de recompensa predictiva de las neuronas de dopamina". La Revista de Neurofisiología . 80 (1): 1–27. doi : 10.1152/junio de 1998.80.1.1 . PMID  9658025. S2CID  52857162.
  31. ^ Timberlake, W (1983). "Respuestas de las ratas a un objeto en movimiento relacionado con la comida o el agua: un análisis de sistemas de comportamiento". Aprendizaje y comportamiento animal . 11 (3): 309–320. doi : 10.3758/bf03199781 .
  32. ^ Neuringer, AJ (1969). "Los animales responden por comida en presencia de comida gratis". Ciencia . 166 (3903): 399–401. Código bibliográfico : 1969 Ciencia... 166..399N. doi : 10.1126/ciencia.166.3903.399. PMID  5812041. S2CID  35969740.
  33. ^ Williams, DR; Williams, H. (1969). "Automantenimiento en la paloma: picoteo sostenido a pesar del no refuerzo contingente". Revista de Análisis Experimental del Comportamiento . 12 (4): 511–520. doi :10.1901/jeab.1969.12-511. PMC 1338642 . PMID  16811370. 
  34. ^ Peden, BF; Marrón, diputado; Hearst, E. (1977). "Aproximaciones persistentes a una señal de comida a pesar de la omisión de comida al acercarse". Revista de Psicología Experimental: Procesos de comportamiento animal . 3 (4): 377–399. doi :10.1037/0097-7403.3.4.377.
  35. ^ Gardner, RA; Gardner, BT (1988). "Feedforward vs feedbackward: una alternativa etológica a la ley del efecto". Ciencias del comportamiento y del cerebro . 11 (3): 429–447. doi :10.1017/s0140525x00058258. S2CID  143876403.
  36. ^ Gardner, RA y Gardner BT (1998) La estructura del aprendizaje desde los estímulos de señas hasta el lenguaje de señas. Mahwah Nueva Jersey: Lawrence Erlbaum Associates.
  37. ^ Baum, WM (2012). "Repensar el refuerzo: Asignación, inducción y contingencia". Revista de Análisis Experimental del Comportamiento . 97 (1): 101-124. doi :10.1901/jeab.2012.97-101. PMC 3266735 . PMID  22287807. 
  38. ^ Locurto, CM, Terrace, HS y Gibbon, J. (1981) Teoría del condicionamiento y la autoformación. Nueva York: Academic Press.
  39. ^ abcd Edwards S (2016). "Principios de refuerzo para la medicina de las adicciones; desde el uso de drogas recreativas hasta el trastorno psiquiátrico". Neurociencia para la medicina de las adicciones: de la prevención a la rehabilitación: constructos y drogas . Progreso en la investigación del cerebro. vol. 223, págs. 63–76. doi :10.1016/bs.pbr.2015.07.005. ISBN 9780444635457. PMID  26806771. Las sustancias de las que se abusa (desde alcohol hasta psicoestimulantes) se ingieren inicialmente en ocasiones regulares de acuerdo con sus propiedades de refuerzo positivo. Es importante destacar que la exposición repetida a sustancias gratificantes desencadena una cadena de eventos de refuerzo secundarios, mediante los cuales las señales y contextos asociados con el consumo de drogas pueden convertirse en refuerzos y, por lo tanto, contribuir al uso continuo y posible abuso de la sustancia de elección. ...
    Una dimensión importante del refuerzo muy relevante para el proceso de adicción (y particularmente la recaída) es el refuerzo secundario (Stewart, 1992). Los reforzadores secundarios (en muchos casos también considerados reforzadores condicionados) probablemente impulsen la mayoría de los procesos de refuerzo en humanos. En el caso específico de la [adicción] a las drogas, las señales y contextos que están íntima y repetidamente asociados con el uso de drogas a menudo se convertirán en refuerzo... Una pieza fundamental de la teoría de la adicción a la sensibilización por incentivos de Robinson y Berridge postula que el valor del incentivo o la atracción La naturaleza de tales procesos de refuerzo secundario, además de los propios reforzadores primarios, puede persistir e incluso sensibilizarse con el tiempo junto con el desarrollo de la adicción a las drogas (Robinson y Berridge, 1993). ...
    El refuerzo negativo es una condición especial asociada con un fortalecimiento de las respuestas conductuales que ponen fin a algún estímulo en curso (presumiblemente aversivo). En este caso podemos definir un reforzador negativo como un estímulo motivacional que fortalece dicha respuesta de "escape". Históricamente, en relación con la adicción a las drogas, este fenómeno se ha observado consistentemente en humanos mediante el cual las drogas de abuso se autoadministran para saciar una necesidad motivacional en el estado de abstinencia (Wikler, 1952).
    {{cite book}}: |journal=ignorado ( ayuda )
  40. ^ abc Berridge KC (abril de 2012). "Del error de predicción a la prominencia del incentivo: cálculo mesolímbico de la motivación de la recompensa". EUR. J. Neurociencias . 35 (7): 1124-1143. doi :10.1111/j.1460-9568.2012.07990.x. PMC 3325516 . PMID  22487042. Cuando a un CS + pavloviano se le atribuye prominencia de incentivo, no solo desencadena un "deseo" de su UCS, sino que a menudo la señal en sí se vuelve muy atractiva, incluso en un grado irracional. Esta atracción de señal es otra característica distintiva de la prominencia de incentivos. Se vuelve difícil no mirar el CS (Wiers & Stacy, 2006; Hickey et al., 2010a; Piech et al., 2010; Anderson et al., 2011). El CS incluso adopta algunas propiedades incentivadoras similares a las del UCS. Un CS atractivo a menudo provoca un enfoque motivado por el comportamiento y, a veces, un individuo puede incluso intentar "consumir" el CS de alguna manera como su UCS (por ejemplo, comer, beber, fumar, tener relaciones sexuales, tomarlo como droga). El "deseo" de un CS también puede convertir el estímulo anteriormente neutral en un reforzador condicionado instrumental, de modo que un individuo trabajará para obtener la señal (sin embargo, también existen mecanismos psicológicos alternativos para el refuerzo condicionado). 
  41. ^ abc Berridge KC, Kringelbach ML (mayo de 2015). "Sistemas de placer en el cerebro". Neurona . 86 (3): 646–664. doi :10.1016/j.neuron.2015.02.018. PMC 4425246 . PMID  25950633. Un objetivo importante en el futuro para la neurociencia de las adicciones es comprender cómo la motivación intensa se centra estrechamente en un objetivo particular. Se ha sugerido que la adicción se debe en parte a una excesiva prominencia de incentivos producida por sistemas de dopamina sensibilizados o hiperreactivos que producen un intenso "deseo" (Robinson y Berridge, 1993). Pero no se ha explicado completamente por qué un objetivo se vuelve más "buscado" que todos los demás. En adictos o pacientes estimulados por agonistas, la repetición de la estimulación dopaminérgica de la importancia del incentivo se atribuye a actividades individualizadas particulares, como tomar la droga adictiva o las compulsiones particulares. En situaciones de recompensa pavlovianas, algunas señales de recompensa se vuelven más "deseadas" que otras como poderosos imanes motivacionales, de maneras que difieren entre individuos (Robinson et al., 2014b; Saunders y Robinson, 2013). ... Sin embargo, los efectos hedónicos bien podrían cambiar con el tiempo. Como una droga se toma repetidamente, la sensibilización dopaminérgica mesolímbica podría ocurrir en individuos susceptibles para amplificar el "deseo" (Leyton y Vezina, 2013; Lodge y Grace, 2011; Wolf y Ferrario, 2010), incluso si los mecanismos hedónicos de los opioides sufrieran una regulación negativa. debido a la estimulación continua de las drogas, lo que produce tolerancia al "agrado". La sensibilización a los incentivos produciría adicción, al magnificar selectivamente el "deseo" desencadenado por señales de volver a consumir la droga, y provocaría poderosamente motivación incluso si la droga se volviera menos placentera (Robinson y Berridge, 1993). 
  42. ^ McGreevy, P & Boakes, R."Zanahorias y palos: principios del adiestramiento animal". (Sydney: "Sydney University Press"., 2011)
  43. ^ "Todo sobre el adiestramiento de animales: conceptos básicos | Parques y entretenimiento de SeaWorld". Conceptos básicos del adiestramiento de animales . Parques Seaworld. Archivado desde el original el 1 de diciembre de 2017 . Consultado el 29 de noviembre de 2017 .
  44. ^ Dillenburger, K.; Keenan, M. (2009). "Ninguna de las A en ABA significa autismo: disipando los mitos". J Intellect Dev Disabil . 34 (2): 193–95. doi :10.1080/13668250902845244. PMID  19404840. S2CID  1818966.
  45. ^ DeVries, JE; Burnett, MM; Redmon, WK (1991). "Prevención del SIDA: mejorar el cumplimiento de las enfermeras con el uso de guantes mediante comentarios sobre el desempeño". Revista de análisis de conducta aplicado . 24 (4): 705–11. doi :10.1901/jaba.1991.24-705. PMC 1279627 . PMID  1797773. 
  46. ^ Hermanos, KJ; Krantz, PJ; McClannahan, LE (1994). "Reciclaje de papel de oficina: una función de la proximidad de los contenedores". Revista de análisis de conducta aplicado . 27 (1): 153–60. doi :10.1901/jaba.1994.27-153. PMC 1297784 . PMID  16795821. 
  47. ^ Dardig, Jill C.; Heward, William L.; Garza, Timothy E.; Nancy A. Neef; Peterson, Stephanie; Diane M. Sainato; Cartledge, Gwendolyn; Gardner, Ralph; Peterson, Lloyd R.; Susan B. Hersh (2005). Centrarse en el análisis del comportamiento en educación: logros, desafíos y oportunidades . Upper Saddle River, Nueva Jersey: Pearson/Merrill/Prentice Hall. ISBN 978-0-13-111339-8.
  48. ^ Gallagher, SM; Keenan M. (2000). "Uso independiente de materiales de actividad por parte de personas mayores en un entorno residencial". Revista de análisis de conducta aplicado . 33 (3): 325–28. doi :10.1901/jaba.2000.33-325. PMC 1284256 . PMID  11051575. 
  49. ^ De Luca, RV; Holborn, SW (1992). "Efectos de un programa de refuerzo de proporción variable con criterios cambiantes sobre el ejercicio en niños obesos y no obesos". Revista de análisis de conducta aplicado . 25 (3): 671–79. doi :10.1901/jaba.1992.25-671. PMC 1279749 . PMID  1429319. 
  50. ^ Zorro, DK; Hopkins, BL; Ira, WK (1987). "Los efectos a largo plazo de una economía simbólica sobre el desempeño de la seguridad en la minería a cielo abierto". Revista de análisis de conducta aplicado . 20 (3): 215–24. doi :10.1901/jaba.1987.20-215. PMC 1286011 . PMID  3667473. 
  51. ^ Drasgow, E.; Halle, JW; Ostrosky, MM (1998). "Efectos del refuerzo diferencial sobre la generalización de un mando de reemplazo en tres niños con retrasos severos en el lenguaje". Revista de análisis de conducta aplicado . 31 (3): 357–74. doi :10.1901/jaba.1998.31-357. PMC 1284128 . PMID  9757580. 
  52. ^ Poderes, RB; Osborne, JG; Anderson, EG (1973). "Refuerzo positivo de la retirada de basura en el medio natural". Revista de análisis de conducta aplicado . 6 (4): 579–86. doi :10.1901/jaba.1973.6-579. PMC 1310876 . PMID  16795442. 
  53. ^ Hagopiano, LP; Thompson, RH (1999). "Refuerzo del cumplimiento del tratamiento respiratorio en un niño con fibrosis quística". Revista de análisis de conducta aplicado . 32 (2): 233–36. doi :10.1901/jaba.1999.32-233. PMC 1284184 . PMID  10396778. 
  54. ^ Kuhn, SAC; Lerman, CC; Vorndran, CM (2003). "Entrenamiento piramidal para familias de niños con problemas de conducta". Revista de análisis de conducta aplicado . 36 (1): 77–88. doi :10.1901/jaba.2003.36-77. PMC 1284418 . PMID  12723868. 
  55. ^ Van Houten, R.; Malenfant, JEL; Austin, J.; Lebbon, A. (2005). Vollmer, Timoteo (ed.). "Los efectos de un retraso en el cambio de marchas provocado por el cinturón de seguridad sobre el uso del cinturón de seguridad por parte de los automovilistas que no lo usan regularmente". Revista de análisis de conducta aplicado . 38 (2): 195-203. doi :10.1901/jaba.2005.48-04. PMC 1226155 . PMID  16033166. 
  56. ^ Wong, SE; Martínez-Díaz, JA; Massel, HK; Edelstein, Licenciatura en Letras; Wiegand, W.; Bowen, L.; Liberman, RP (1993). "Entrenamiento de habilidades conversacionales con pacientes esquizofrénicos hospitalizados: un estudio de generalización en entornos y personas conversacionales". Terapia de comportamiento . 24 (2): 285–304. doi :10.1016/S0005-7894(05)80270-9.
  57. ^ Brobst, B.; Sala, P. (2002). "Efectos de la publicación pública, el establecimiento de objetivos y la retroalimentación oral sobre las habilidades de las futbolistas". Revista de análisis de conducta aplicado . 35 (3): 247–57. doi :10.1901/jaba.2002.35-247. PMC 1284383 . PMID  12365738. 
  58. ^ Forthman, DL; Ogden, JJ (1992). "El papel del análisis de comportamiento aplicado en la gestión de zoológicos: hoy y mañana". Revista de análisis de conducta aplicado . 25 (3): 647–52. doi :10.1901/jaba.1992.25-647. PMC 1279745 . PMID  16795790. 
  59. ^ ab Kazdin AE (2010). Capacitación en habilidades para la resolución de problemas y capacitación en manejo de padres para el trastorno de oposición desafiante y el trastorno de conducta. Psicoterapias basadas en evidencia para niños y adolescentes (2ª ed.), 211–226. Nueva York: Guilford Press.
  60. ^ Olvídese de MS, Patterson GR (2010). Capacitación en gestión de padres: modelo de Oregón: una intervención para el comportamiento antisocial en niños y adolescentes. Psicoterapias basadas en evidencia para niños y adolescentes (2ª ed.), 159–78. Nueva York: Guilford Press.
  61. ^ Domjan, M. (2009). Los principios del aprendizaje y la conducta. Compañía editorial Wadsworth. 6ta Edición. páginas 244–249.
  62. ^ Bleda, Miguel Ángel Pérez; Nieto, José Héctor Lozano (2012). "Impulsividad, inteligencia y contingencias de refuerzo discriminantes en un programa de relación fija 3". La Revista Española de Psicología . 3 (15): 922–929. doi : 10.5209/rev_SJOP.2012.v15.n3.39384. PMID  23156902. S2CID  144193503. ProQuest  1439791203.
  63. ^ abcd Grossman, Dave (1995). Sobre matar: el costo psicológico de aprender a matar en la guerra y la sociedad . Boston: Pequeño marrón. ISBN 978-0316040938.
  64. ^ Marshall, SLA (1947). Hombres contra el fuego: el problema del mando de batalla en la guerra futura . Washington: Diario de infantería. ISBN 978-0-8061-3280-8.
  65. ^ ab Murray KA, Grossman D, Kentridge RW (21 de octubre de 2018). "Psicología del comportamiento". Killology.com/behavioral-psychology .
  66. ^ Kazdin, Alan (1978). Historia de la modificación de la conducta: fundamentos experimentales de la investigación contemporánea . Baltimore: Prensa de University Park. ISBN 9780839112051.
  67. ^ Cepa, Phillip S.; Lambert, Deborah L.; Kerr, María Margarita; Stagg, Vaughan; Lenkner, Donna A. (1983). "Evaluación naturalista del cumplimiento de los niños de las solicitudes de los maestros y consecuencias del cumplimiento". Revista de análisis de conducta aplicado . 16 (2): 243–249. doi :10.1901/jaba.1983.16-243. PMC 1307879 . PMID  16795665. 
  68. ^ ab Garland, Ann F.; Hawley, Kristin M.; Brookman-Frazee, Lauren; Hurlburt, Michael S. (mayo de 2008). "Identificación de elementos comunes de tratamientos psicosociales basados ​​en evidencia para problemas de conducta disruptiva en niños". Revista de la Academia Estadounidense de Psiquiatría Infantil y Adolescente . 47 (5): 505–514. doi :10.1097/CHI.0b013e31816765c2. PMID  18356768.
  69. ^ Crowell, Charles R.; Anderson, D. Chris; Abel, Amanecer M.; Sergio, José P. (1988). "Aclaración de tareas, retroalimentación del desempeño y elogio social: Procedimientos para mejorar el servicio al cliente de los cajeros bancarios". Revista de análisis de conducta aplicado . 21 (1): 65–71. doi :10.1901/jaba.1988.21-65. PMC 1286094 . PMID  16795713. 
  70. ^ Kazdin, Alan E. (1973). "El efecto del refuerzo indirecto sobre la conducta atenta en el aula". Revista de análisis de conducta aplicado . 6 (1): 71–78. doi :10.1901/jaba.1973.6-71. PMC 1310808 . PMID  16795397. 
  71. ^ Brophy, Jere (1981). "Sobre alabar eficazmente". El diario de la escuela primaria . 81 (5): 269–278. doi :10.1086/461229. JSTOR  1001606. S2CID  144444174.
  72. ^ ab Simonsen, Brandi; Fairbanks, Sara; Briesch, Amy; Myers, Diana; Sugai, George (2008). "Prácticas basadas en evidencia en la gestión del aula: consideraciones para la investigación y la práctica". Educación y Tratamiento de los Niños . 31 (1): 351–380. doi : 10.1353/etc.0.0007. S2CID  145087451.
  73. ^ Weisz, John R.; Kazdin, Alan E. (2010). Psicoterapias basadas en evidencia para niños y adolescentes . Prensa de Guilford.
  74. ^ John Hopson: Diseño de juegos de comportamiento, Gamasutra , 27 de abril de 2001
  75. ^ Hood, Vic (12 de octubre de 2017). "¿Las cajas de botín son juegos de azar?". Eurogamer . Consultado el 12 de octubre de 2017 .
  76. ^ Condicionamiento operante y práctica de la medicina defensiva. Vikram C. Prabhu World Neurosurgery, 2016-07-01, volumen 91, páginas 603–605

enlaces externos