Parte Segunda. 4-Reforzamiento
— ¿En qué consiste el principio de reforzamiento?
— ¿En qué se diferencia el reforzamiento positivo del negativo?
— ¿En qué se diferencian los reforzadores incondicionados de los condicionados?
— ¿Qué factores influyen en la efectividad del reforzamiento?
— ¿En qué consisten los programas de reforzamiento intermitente y cómo afectan al comportamiento?
Este capítulo se centra en el principio básico del comportamiento conocido como reforzamiento. La investigación científica ha establecido una serie de principios básicos que explican el comportamiento de personas y animales. El reforzamiento fue uno de los primeros principios básicos en ser investigado sistemáticamente, siendo un componente central de muchas de las aplicaciones en modificación de conducta que se describen en este texto. El reforzamiento es el proceso mediante el cual una conducta es fortalecida por las consecuencias que le siguen. Estas consecuencias deben seguir a la conducta de manera inmediata y fiable. Cuando una conducta es reforzada por sus consecuencias, es más probable que ocurra de nuevo en el futuro. La primera demostración del proceso de reforzamiento fue descrita por Thorndike en 1911. Thorndike puso a un gato hambriento en una caja y depositó alimentos fuera de ella a la vista del animal. La caja disponía de una palanca que abría su puerta si el gato la pisaba. El gato fue arañando y mordiendo los barrotes de la jaula, introduciendo sus patas a través de las aberturas que había entre las barras y tratando de introducirse por ellas. Finalmente, golpeó accidentalmente la palanca, la puerta se abrió, salió y se comió la comida depositaba fuera de la jaula. Thorndike repitió la experiencia observando que cada vez que ponía al gato hambriento dentro de la jaula, éste tardaba menos tiempo en accionar la palanca y abrir la puerta. Finalmente, el gato manipulaba la palanca tan pronto se le ponía en la jaula (Thorndike, 1911). Thorndike llamó a este fenómeno ley del efecto.
Reforzamiento. Respuesta Consecuencia
Resultado: es más probable que la conducta ocurra en el futuro.
El ejemplo muestra que cuando el gato era puesto nuevamente en la jaula (figura 4.1) tenía cada vez más probabilidades de accionar con éxito la palanca, ya que el comportamiento de apretarla daba acceso a una consecuencia inmediata: escapar de la jaula y obtener alimentos. El acceso a la comida fue la consecuencia que reforzó (fortaleció) el comportamiento de accionar la palanca con la pata.
Respuesta
El gato golpea la palanca con una pata
Consecuencia
La puerta se abre inmediatamente y se puede acceder a la comida.
Resultado: es más probable que el gato golpee la palanca cuando se le ponga en la jaula en futuras ocasiones.
A partir de la década de 1930, B. F. Skinner comenzó a realizar numerosos estudios sobre reforzamiento en ratas y palomas (Skinner, 1938, 1956). Por ejemplo, en una caja experimental, Skinner colocaba una rata que había sido privada de alimento y le daba una bolita de comida cada vez que presionaba una palanca instalada en una de las paredes de la caja. Al principio, la rata exploraba la caja moviéndose, husmeando y alzándose sobre sus cuartos traseros. Cuando por casualidad lograba presionar la palanca con una de sus patas, aparecía una bolita en el comedero situado en una de las paredes de la caja. Cada vez que la rata presionaba la palanca recibía una bolita de comida. A consecuencia de ello, se incrementó la probabilidad de que la rata presionara la palanca cada vez que era colocada en la caja ex- perimental. De entre todos los comportamientos mostrados por la rata al entrar inicialmente en la caja, presionar la palanca fue el único que se reforzó por haber sido seguido inmediatamente por la recepción de alimento. En otras palabras, el comportamiento de presionar la palanca se incrementó en frecuencia con relación al resto de conductas exhibidas inicialmente por la rata en la caja experimental.
Respuesta
La rata presiona la palanca
Consecuencia
e inmediatamente se presenta la comida.
Resultado: es más probable que la rata presione la palanca en el futuro.
1. DEFINICIÓN DE REFORZAMIENTO
Los ejemplos del gato de Thorndike y la rata de Skinner ilustran claramente el principio de reforzamiento. Cuando un comportamiento provoca un resultado favorable (contribuye al bienestar o a la supervivencia del animal), dicho comportamiento tiene mayor probabilidad de repetirse en el futuro bajo circunstancias similares. Aunque el principio de reforzamiento ha sido explorado sistemáticamente en animales de laboratorio, el reforzamiento es un proceso natural que también afecta al comportamiento humano. En el libro Ciencia y conducta humana (1953a), Skinner examinó el papel del reforzamiento en la determinación de una amplia variedad de comportamientos humanos. Como señalan Sulzer-Azaroff y Mayer (1991), el reforzamiento puede producirse naturalmente como resultado de nuestras interacciones diarias con el medio social y físico, o puede ser el resultado planificado de un programa de modificación de conducta diseñado para cambiar el comportamiento de una persona.
TABLA 4.1
Ejemplos de autoevaluación (reforzamiento)
1. Un niño llora por la noche después de que lo pongan en la cama y sus padres llegan a su habitación para consolarle y calmarle. A consecuencia de ello, el niño llora más a menudo a la hora de acostarse.
2. Una mujer que esperaba el autobús abre su paraguas cuando llueve. El paraguas evita que la lluvia le moje. A consecuencia de ello, siempre abre el paraguas cuando llueve.
3. Cuando un chef hace filetes muy hechos y se crea humo, acciona el extractor y el humo es absorbido. Ello hace que sea más probable encender el ventilador cuando cocina carne muy hecha.
4. Un estudiante de universidad responde a preguntas para su asignatura de modificación de conducta. Cuando no entiende alguna de las preguntas, pide ayuda a un compañero que ya dio la asignatura y éste le da la respuesta correcta. A consecuencia de ello, es más probable que vuelva a pedir consejo a su compañero para contestar las preguntas que no entiende.
5. Un maestro sonríe y alaba a Juan por quedarse sentado en su pupitre y prestar atención en clase. A consecuencia de ello, es más probable que Juan permanezca sentado prestando atención cuando su maestro está explicando en clase.
6. Cuando Patricia se va a la cama mientras su marido se queda viendo la televisión, el ruido le impide conciliar el sueño. En estos casos se pone unos tapones para eliminar el ruido y conseguir dormirse. Ello hace que sea más probable que use tapones para los oídos cuando se va a la cama y el televisor sigue encendido.
7. Una empresa de fabricación de bicicletas comienza a pagar a sus trabajadores a destajo, en lugar de pagarles por hora, es decir, los operarios de la cadena de montaje ganaban una cierta cantidad por cada bicicleta que ensamblaban. A consecuencia de ello, los trabajadores lograron ensamblar diariamente más bicicletas y ganar más dinero.
8. Un niño de 2 años tiene una rabieta (llora y grita) en el supermercado cuando pide a su madre que le compre unas chucherías y ésta le dice que no. Finalmente, su madre accede a comprarle las golosinas y el berrinche concluye. Ello hace que sea más probable que la madre le dé chucherías al niño si vuelve a tener una rabieta. Además, el niño tiene más probabilidades de tener una rabieta en el supermercado, ya que hace posible que su madre le dé chucherías.
La tabla 4.1 presenta algunos ejemplos de reforzamiento. Como se puede ver en cada uno de los ejemplos de la tabla 4.1, el reforzamiento es un proceso que reúne los siguientes elementos:
1. La ocurrencia de un comportamiento específico.
2. La ocurrencia de una consecuencia inmediatamente posterior a dicho comportamiento.
3. El fortalecimiento de la conducta, es decir, el individuo tiene una mayor probabilidad de realizar esa conducta en el futuro. La conducta que se refuerza a través de un proceso de reforzamiento recibe el nombre de conducta operante. La conducta operante actúa sobre el entorno para producir una consecuencia, estando a su vez controlada por las consecuencias inmediatas que la siguen. En otras palabras, la ocurrencia futura de la conducta operante está controlada por las consecuencias inmediatas que la siguen. La consecuencia que refuerza una conducta operante recibe el nombre de reforzador. El primer ejemplo de la tabla 4.1 describe el caso de un niño que se pone a llorar cuando sus padres le llevan a la cama. En este caso, el llanto del niño es una conducta operante y la atención recibida por sus padres funciona como reforzador de su conducta de llorar. El llanto se refuerza porque fue seguido de una consecuencia inmediata (reforzador), haciendo el llanto más probable en el futuro bajo similares circunstancias.
Intenta identificar la conducta operante y el reforzador en cada uno de los ejemplos que se presentan en la tabla 4.1. Puedes ver las respuestas en el apéndice A, al final de este capítulo.
El gráfico de la figura 4.2 presenta datos hipotéticos de un efecto de reforzamiento en una conducta. Observa cómo la frecuencia de la conducta en la lineabase es baja, incrementándose durante la fase de reforzamiento. Como se ilustra en esta figura 4.2, cuando la ocurrencia de una conducta es reforzada, su frecuencia aumenta. Otras dimensiones de la conducta, tales como duración o intensidad, también pueden aumentar a consecuencia del reforzamiento. El gráfico de la figura 4.3 muestra el efecto de un proceso de reforzamiento en la duración de un comportamiento. El gráfico procede de un estudio de Liberman, Teigen, Patterson y Baker (1973) en el que se muestra la duración del discurso racional (no delirante) de pacientes con esquizofrenia antes y después de una intervención. Los autores midieron la duración del habla racional durante conversaciones con las enfermeras. Liberman quería reforzar el habla racional para que ésta se incrementase al objeto de que los pacientes diagnosticados con esquizofrenia tuviesen una apariencia más normalizada. En este estudio el habla racional fue reforzada con atención y charlas individuales con una enfermera durante la merienda. Al mismo tiempo, el habla delirante no fue reforzada, es decir, las enfermeras no daban atención cuando los pacientes hablaban de forma irracional o delirante. En la figura 4.3 se observa cómo el habla racional aumentó en duración durante la fase de tratamiento como consecuencia del uso de reforzamiento social.
Figura 4.3.—Este gráfico de lineabase múltiple muestra el efecto del reforzamiento sobre la duración del habla racional en cuatro pacientes con esquizofrenia. Nótese que la duración del habla racional se incrementó en los cuatro sujetos cuando se usó reforzamiento en la fase de tratamiento (según Liberman, R. P., Teigen, J., Patterson, R. y Baker, V. [1973]. Reducing delusional speech in chronic paranoid schizophrenics. Journal of Appplied Behavior Analysis, 6, 57-64. Copyright © 1973 University of Kansas Press, reproducido con permiso de Robert P. Liberman, James R. Teigen y el editor).
¿Qué tipo de diseño experimental se ilustra en la figura 4.3?
La figura 4.3 presenta un diseño de lineabase múltiple a través de varios sujetos. Hay una lineabase y una fase de tratamiento (reforzamiento) para cada uno de los cuatro pacientes. El momento en el que se inicia el procedimiento de reforzamiento en cada paciente se ha escalonado entre un paciente y el siguiente.
Términos:
Se refuerzan las conductas, no las personas
— Es correcto decir que reforzamos una conducta o respuesta, es decir, fortalecemos la conducta mediante reforzamiento. Por ejemplo, sería correcto decir: «el maestro reforzó con felicitaciones el hecho de permanecer en fila sin armar ruido».
— Es incorrecto decir que reforzamos a una persona, ya que no fortalecemos a la persona, sino a su conducta. Por ejemplo, no sería correcto decir: «el maestro reforzó a Sara por estar en la fila sin armar ruido».
Ahora que ya estás familiarizado con la defi nición básica de reforzamiento es importante comprender la distinción entre reforzamiento positivo y reforzamiento negativo.
2. REFORZAMIENTOS POSITIVO Y NEGATIVO
Es muy importante recordar que tanto el reforzamiento positivo como el reforzamiento negativo son procesos que refuerzan la conducta, es decir, ambos aumentan la probabilidad de que el comportamiento se produzca en el futuro. El reforzamiento positivo se distingue del negativo sólo por la naturaleza de la consecuencia que sigue a la conducta.
El reforzamiento positivo reúne los siguientes elementos:
1. La ocurrencia de una conducta.
2. Dicha conducta es seguida por un estímulo reforzante o por un aumento en la intensidad de un estímulo reforzante.
3. La presentación del reforzador fortalece la conducta.
El reforzamiento negativo, por el contrario, está definido por los siguientes aspectos:
1. La ocurrencia de una conducta.
2. Dicha conducta es seguida por la eliminación de un estímulo aversivo o por la disminución en intensidad de un estímulo aversivo.
3. La retirada del estímulo aversivo fortalece la conducta.
Un estímulo es un objeto o acontecimiento que puede ser detectado por uno de los sentidos, y tiene, por tanto, el potencial de influir en el individuo. El objeto o suceso puede ser una característica del medio físico o el entorno social (por ejemplo, la conducta del propio individuo o de otros).
En el reforzamiento positivo, el estímulo que se presenta o aparece después del comportamiento se llama reforzador positivo.
En el reforzamiento negativo, el estímulo que se retira o se evita después de realizar el comportamiento recibe el nombre de estímulo aversivo. La diferencia esencial, por tanto, es que en el reforzamiento positivo, la respuesta produce un estímulo (un reforzador positivo), mientras que en el reforzamiento negativo, una respuesta elimina o impide la aparición de un estímulo (un estímulo aversivo). Ambos procesos incrementan la probabilidad de que el comportamiento ocurra en el futuro.
Consideremos el ejemplo 8 que aparece en la tabla 4.1. Cuando la madre compra chucherías al niño, la rabieta (estímulo aversivo) desaparece. Ello hace más probable que la madre le compre chucherías cuando vuelva a presentar una rabieta otro día que salgan a comprar. Éste es un ejemplo de reforzamiento negativo. Por el contrario, desde el punto de vista del niño, gritar y patalear es seguido por la recepción de chucherías (reforzador positivo), haciéndose más probable que las rabietas vuelvan a ocurrir cuando salga otro día a comprar con su madre. Éste sería un ejemplo de reforzamiento positivo. Hay quien confunde el reforzamiento negativo con el castigo (véase el capítulo 6). Debemos tener presente que son procesos diferentes. El reforzamiento negativo, igual que el reforzamiento positivo, aumenta o refuerza una conducta, mientras que el castigo la disminuye o la debilita. La confusión proviene del uso de la palabra «negativo» para describir el reforzamiento negativo. En este contexto, la palabra negativo no hace referencia a nada malo o desagradable, sino a la retirada del estímulo aversivo después de la ocurrencia de la conducta.
Existen numerosos ejemplos de reforzamiento positivo y negativo en la vida cotidiana. De los ocho ejemplos que se presentan en la tabla 4.1, cuatro ilustran casos de reforzamiento positivo y cuatro ilustran casos de reforzamiento negativo. El ejemplo 8 ilustra ambos procesos.
Lee los ejemplos de la tabla 4.1 e identifica cuáles son de reforzamiento positivo y cuáles son de reforzamiento negativo razonando tus respuestas. Puedes encontrar las respuestas en el apéndice B, al final de este capítulo.
El aspecto más importante que debemos recordar acerca del reforzamiento positivo y el reforzamiento negativo es que ambos procesos fortalecen la conducta. El reforzamiento se define funcionalmente, es decir, siempre viene definido por su efecto en el comportamiento (Skinner, 1958). Pensemos en el siguiente ejemplo. Un niño termina una tarea escolar solo, su maestro se acerca a su pupitre y le dice «Buen trabajo», dándole una palmadita en la espalda. ¿Sería éste un ejemplo de reforzamiento positivo? En este caso no podríamos afirmarlo a ciencia cierta, ya que la información que se nos ha presentado es insufi ciente. Esta situación sería un ejemplo del reforzamiento positivo sólo en el caso de que las palabras y la palmadita del maestro hiciesen más probable que el niño termine sus tareas solo en el futuro. Recordemos la definición funcional del proceso de reforzamiento: la consecuencia de una conducta aumenta la probabilidad de que dicha conducta se repita en el futuro. Para la mayoría de los niños, los elogios y la atención del maestro refuerzan la conducta de hacer tareas escolares; no obstante, hay casos (por ejemplo, niños con autismo) en los que la atención del maestro no funciona como reforzador. La alabanza y una palmadita en la espalda no reforzarían la conducta en estos casos (Durand, Crimmins, Caufi eld y Taylor, 1989). Durand y sus colegas mostraron que para determinar si una consecuencia dada funcionaba como reforzador en un caso particular debían comprobarlo midiendo su efecto en el comportamiento. A este fin compararon el efecto de dos consecuencias diferentes sobre el rendimiento en tareas escolares de niños con trastornos generalizados del desarrollo. Algunas veces les elogiaban por hacer bien la tarea, mientras que en otras ocasiones les daban un breve descanso de la tarea. Durand y sus colegas hallaron que el elogio producía mayor incremento en el rendimiento en ciertos niños, pero no en otros, y que los descansos producían un mayor rendimiento para algunos niños, pero no para otros. Los resultados de Durand llaman la atención sobre la importancia de identificar potenciales reforzadores midiendo directamente su efecto en el comportamiento.
Siempre que tengas que analizar una situación y determinar si se trata de un caso de reforzamiento positivo o negativo, hazte las siguientes preguntas:
1. ¿Cuál es el comportamiento?
2. ¿Qué sucedió inmediatamente después de la conducta? (¿Apareció un estímulo o se retiró un estímulo que estaba presente previamente?).
3. ¿Qué pasó con el comportamiento posteriormente? (¿Fue reforzado? es decir, ¿incrementó la probabilidad de que ocurriera?). Si puedes contestar a cada una de estas preguntas, podrás identificar si un ejemplo dado es o no un caso de reforzamiento, y, siendo así, si se trata de reforzamiento positivo o negativo.
2.1. Reforzamiento social y reforzamiento automático
Como ya hemos visto, durante el reforzamiento la conducta puede ser seguida por la aparición de un reforzador en casos de reforzamiento positivo, o la eliminación de un estímulo aversivo en casos de reforzamiento negativo. En ambos casos la conducta es fortalecida. Tanto durante el reforzamiento positivo como durante el reforzamiento negativo la consecuencia reforzante puede ser el resultado de las acciones de otra persona o el resultado de la interacción directa con el entorno físico (por ejemplo, Iwata, Vollmer y Zarcone, 1990; Iwata, Vollmer, Zarcone y Rodgers, 1993). Cuando un comportamiento produce una consecuencia reforzante a través de las acciones de otra persona hablamos de un proceso de reforzamiento social. Un ejemplo de reforzamiento social sería pedirle a nuestro compañero de piso que nos pase la bolsa de patatas fritas. Un ejemplo de reforzamiento social negativo sería que le pidiésemos a nuestro compañero de piso que baje el volumen del televisor cuando está demasiado alto. En ambos casos, la consecuencia de la conducta se produce a través de las acciones de otra persona. Por el contrario, cuando el comportamiento produce una consecuencia reforzante que resulta del contacto directo con el entorno físico, el proceso se denomina reforzamiento automático. Un ejemplo de reforzamiento automático positivo sería ir uno mismo a la cocina a traer las patatas fritas. Un ejemplo de reforzamiento automático negativo sería bajar uno mismo el volumen del televisor usando el mando a distancia. En ambos casos, la consecuencia reforzante no fue producida por otra persona. Un tipo especial de reforzamiento positivo se da cuando se realiza un comportamiento muy probable, es decir, un comportamiento preferido, como consecuencia de realizar un comportamiento poco probable o poco preferido. Este procedimiento recibe el nombre de principio de Premack (Premack, 1959) y permite aumentar la baja frecuencia con la que ocurre el comportamiento poco probable (Mitchell y Stoffelmayr, 1973). Por ejemplo, cuando unos padres piden a su hijo que termine la tarea antes de salir a jugar con sus amigos estarían aplicando el principio de Premack. La oportunidad de jugar (un comportamiento muy probable) después de la finalización de la tarea (comportamiento poco probable) refuerza la conducta de hacer la tarea, es decir, hace más probable que el niño termine la tarea.
Términos:
Distinción entre reforzamiento positivo y negativo
Hay estudiantes que confunden entre refor zamiento positivo y negativo. Ambos son tipos de reforzamiento y ambos fortalecen la conducta. La única diferencia consiste en que después de la conducta puede presentarse un estímulo, en cuyo caso hablaríamos de reforzamiento positivo, o puede retirarse un estímulo, en cuyo caso hablaríamos de reforzamiento negativo. Si representamos el carácter positivo del reforzamiento con un signo más (+) y el negativo como un signo menos (-), podríamos decir que en el reforzamiento + sumamos un estímulo (el reforzador) después de la conducta, mientras que en el reforzamiento – restamos un estímulo (el estímulo averisivo) después de la conducta. Pensar en ambos tipos de reforzamiento en términos de sumar o restar un estímulo después de la conducta puede ayudar a aclarar la diferencia.
3. CONDUCTAS DE ESCAPE Y EVITACIÓN
Cuando definimos el reforzamiento negativo distinguimos entre escape y evitación. En el caso de la conducta de escape, la ocurrencia de la conducta hace que finalice la estimulación aversiva que estaba presente. En otras palabras, el comportamiento permite escapar del estímulo aversivo, siendo por ello reforzado. Por otra parte, en la conducta de evitación, la ocurrencia de la conducta impide que el estímulo aversivo llegue a presentarse. Es decir, el individuo evita el estímulo aversivo al realizar la conducta y, en consecuencia, ésta se fortalece.
En una situación de evitación, generalmente, se presenta un estímulo de advertencia antes de que aparezca el estímulo aversivo como tal; ello permite realizar la conducta de evitación antes de que el estímulo aversivo se presente. Tanto el escape como la evitación son dos tipos de reforzamiento negativo; por tanto, ambos dan lugar a un aumento en la tasa de la conducta que permite eliminar o evitar el estímulo aversivo. La siguiente situación permite diferenciar claramente la distinción entre escape y evitación. Una rata de laboratorio se coloca en una caja experimental dividida en dos espacios separados por una barrera; la rata puede saltar por encima de la barrera para ir de un lado a otro. En el suelo hay una malla electrificada que permite presentar descargas eléctricas en ambos espacios de la caja experimental. Cada vez que la descarga se presenta en el lado derecho de la caja, la rata salta al lado izquierdo, y viceversa, escapando así de la descarga. En este caso saltar a la parte izquierda de la caja es una conducta de escape, ya que la rata escapa de un estímulo aversivo (la descarga eléctrica). La rata aprende la conducta de escape rápidamente saltando de un lado al otro de la caja tan pronto como se aplica la descarga. Por el contrario, en una situación de evitación, se presenta un tono, que sirve de estímulo de advertencia, justo antes de aplicar la descarga. Suele usarse un estímulo auditivo porque la audición de las ratas es superior a su sentido de la vista.
¿Qué aprende la rata cuando se presenta el tono?
Después de una serie de ensayos en los que el tono se presenta justo antes de la descarga, la rata comienza a ir al otro lado de la caja tan pronto como oye el tono, de este modo, la rata evita la descarga saltando al otro lado tan pronto como el estímulo de advertencia se presenta.
Respuesta
Cuando recibe una descarga eléctrica, la rata salta al otro lado de la caja e inmediatamente
Consecuencia
logra escapar de la descarga.
Resultado: es más probable que la rata salte a la otra parte de la caja en futuras ocasiones en las que se presente la descarga eléctrica. Respuesta Consecuencia Cuando se presenta el tono, la rata salta al otro lado y de inmediato evita la descarga eléctrica. Resultado: es más probable que la rata salte a la otra parte de la caja en futuras ocasiones en las que se presente un tono.
Ejemplos cotidianos de conductas de escape y evitación
Escape Una persona pisa descalza sobre el asfalto caliente y de inmediato salta para pisar sobre la hierba. Pisar la hierba es resultado de escapar del calor del asfalto caliente.
Evitación Una persona se pone zapatos la próxima vez que camina sobre el asfalto caliente. Los zapatos permiten evitar el calor del asfalto caliente.
Escape Enciendes el coche y la radio se conecta a gran volumen porque la última persona que usó el coche lo dejó al máximo. Bajas el volumen para escapar de ese sonido tan fuerte.
Evitación Bajas el volumen de la radio del coche antes de arrancar. En este caso se evita el ruido de la radio.
Escape En un cine, te sientas cerca de un grupo de niños que hacen ruido durante la película, después de un rato te cambias a otro sitio lo suficientemente alejado para escapar del ruido.
Evitación Entras en una sala de cine y eliges un asiento alejado de un grupo de niños de cuya presencia te has percatado. De esta manera logras evitar el ruido que hacen.
4. REFORZADORES CONDICIONADOS E INCONDICIONADOS
El reforzamiento es un proceso natural que afecta al comportamiento de seres humanos y animales. A través de la evolución, hemos heredado algunas características biológicas que contribuyen a nuestra supervivencia. Una de ellas es la capacidad de aprender nuevas conductas a través de procesos de reforzamiento. Ciertos estímulos son reforzantes de forma natural sin mediar aprendizaje alguno. Ello parece deberse a que la capacidad de que nuestra conducta sea reforzada por estos estímulos ha tenido un efecto en la supervivencia de la especie (Cooper, Heron y Heward, 1987, 2007). Por ejemplo, el consumo de alimentos y agua o la estimulación sexual son reforzadores naturales positivos porque contribuyen a la supervivencia del individuo y de la especie. De igual modo, el escape de la estimulación dolorosa o de niveles extremos de otras formas de estimulación (frío, calor u otras formas de estimulación aversiva) son reforzadores naturales negativos porque el escape o la evitación de estos estímulos también contribuye a la supervivencia. Estos reforzadores naturales reciben la denominación de reforzadores incondicionados o primarios, ya que en la mayoría de los individuos funcionan como reforzadores la primera vez que se presentan sin necesidad de que medie experiencia previa. Como decimos, su carácter incondicionado parece deberse a que tienen importancia biológica (Cooper et al., 1987, 2007). Otra clase de reforzadores son los reforzadores condicionados o reforzadores secundarios. Un reforzador condicionado es un estímulo que fue inicialmente neutral, es decir, que no funcionaba como reforzador y no tenía influencia sobre el comportamiento, pero que ha llegado a establecerse como reforzador al ser emparejado con un reforzador incondicionado o con un reforzador condicionado ya establecido. Por ejemplo, la atención de los padres es un reforzador condicionado para la mayoría de los niños por haberse emparejado en numerosas ocasiones con el acceso a alimentos, calor y otros muchos reforzadores en el transcurso de la vida de un niño. El dinero es otro reforzador condicionado muy común, ya que permite comprar bienes y servicios y, por tanto, se presenta conjuntamente con una amplia variedad de reforzadores incondicionados y condicionados durante la vida de una persona. Si no pudiésemos comprar cosas con dinero, éste dejaría de ser un reforzador condicionado; por ejemplo, dejaríamos de trabajar o de realizar cualquier conducta que tenga como fin conseguir dinero en el caso de que no pudiéramos usarlo para acceder a otros reforzadores. Esto ilustra un aspecto importante de los reforzadores condicionados; los reforzadores condicionados siguen siendo reforzadores siempre y cuando continúen siendo emparejados, al menos periódicamente, con otros reforzadores. Casi cualquier estímulo puede convertirse en un reforzador condicionado si se empareja con un reforzador ya establecido. Por ejemplo, cuando enseñan a un delfín a hacer trucos y acrobacias en un parque acuático, se usa como reforzador el clic que emite un pequeño aparato portátil (clicker) cuando es accionado. Antes de poder usar el clic como reforzador condicionado, el entrenador habrá ofrecido pescado como reforzador emparejando la presen cia de los pescados con el clic. Después de repetir este proceso varias veces, el clic llega a convertirse en un reforzador condicionado. Una vez el clic se ha establecido como reforzador condicionado, el entrenador emparejará el sonido con el reforzador incondicionado esporádicamente, en este caso el pescado, a fin de que el clic continúe funcionando como reforzador condicionado (Pryor, 1985). Un estímulo inicialmente neutro, como un disco de plástico o una tarjeta de cartón, puede utilizarse como reforzador condicionado (fichas) para modificar la conducta en un programa de reforzamiento que use una economía de fichas. En una economía de fichas, se da la ficha después de que se haya realizado una conducta deseada. Posteriormente, la persona intercambiará la ficha por otros reforzadores, llamados reforzadores intercambiables. El emparejamiento de las fichas con los reforzadores intercambiables hace que éstas se conviertan en reforzadores de la conducta (véase una revisión de los programas de reforzamiento con fichas en Kazdin, 1982). El capítulo 22 explica en mayor detalle los programas de reforzamiento con fichas. Cuando un reforzador condicionado se empareja con una amplia variedad de reforzadores recibe el nombre de reforzador condicionado generalizado o simplemente reforzador generalizado. El dinero es un reforzador generalizado, ya que se ha emparejado, o intercambiado, con una variedad casi ilimitada de reforzadores. Ello hace que el dinero sea un reforzador potente cuyo valor tiene una menor probabilidad de saciarse a pesar incluso de que se acumule en cantidades considerables. Es otras palabras, la saciedad, definida como la disminución o pérdida del efecto reforzante de un reforzador, es menos probable que se produzca con reforzadores generalizados tales como el dinero. Las fichas que se usan en una economía de fichas serían otro ejemplo del uso de reforzadores condicionados generalizados, ya que son intercambiables por múltiples reforzadores haciendo que puedan acumularse sin riesgo a que se produzca una rápida saciedad (pérdida de efectividad del reforzador por exposición repetida o continuada). El reconocimiento social también es un reforzador condicionado generalizado por haberse emparejado con numerosos reforzadores durante la vida del individuo.
5. FACTORES QUE AFECTAN A LA EFECTIVIDAD DEL REFORZAMIENTO
La efectividad del reforzamiento está infl uida por una serie de factores tales como la inmediatez y la consistencia con la que se presenta la consecuen- cia, las operaciones de establecimiento, la magnitud del reforzador y las diferencias individuales.
5.1. Inmediatez
La inmediatez hace referencia al tiempo que transcurre entre la ocurrencia de un comportamiento y la aparición de la consecuencia reforzante. Con objeto de maximizar la efectividad de una consecuencia como reforzador, ésta debe ocurrir inmediatamente después de que el comportamiento se produzca. Cuanto más larga sea la demora entre la respuesta y la consecuencia, tanto menor será el efecto reforzante de la consecuencia por haberse debilitado la contigüidad o conexión entre ambos eventos. Si el tiempo entre la respuesta y la consecuencia se hace demasiado prolongado y no hay contigüidad, la consecuencia no afectará al comportamiento. Por ejemplo, si queremos enseñarle a un perro a que se siente cuando se lo ordenamos y le damos una galleta 5 minutos después de que haya realizado la conducta, la galleta no reforzará la conducta de sentarse. En este ejemplo la demora de la consecuencia sería demasiado larga como para ejercer control sobre la conducta. Lo que podría ocurrir en el ejemplo es que la galleta reforzase cualquier conducta que el perro resultase estar haciendo inmediatamente antes de recibir la galleta, por ejemplo, la conducta de merodear o mendigar, que suelen ser las conductas reforzadas cuando se dan chucherías a los animales de compañía. Por el contrario, si le hubiésemos dado la galleta justo después de que se sentase, estaríamos reforzando la conducta de sentarse y, por tanto, se incrementaría la probabilidad de que en el futuro el perro se siente cuando se le dé la orden correspondiente. Consideremos por un momento la importancia de la inmediatez de los reforzadores en el comportamiento social. Cuando hablamos con alguien recibimos de inmediato respuestas sociales por parte del oyente, por ejemplo, sonrisas, gestos de asentimiento, contacto visual o risas, respuestas éstas que refuerzan nuestra conducta de hablar. Estos reforzadores fortalecen conductas sociales apropiadas. Aprendemos qué es apropiado decir y qué no es apropiado decir en función de las respuestas inmediatas que recibimos del oyente. Imaginemos, por ejemplo, que cuentas un chiste y la gente se ríe, ello incrementará la probabilidad de que cuentes este chiste en el futuro. Si, por el contrario, la gente no se ríe inmediatamente después de haber contado el chiste, será menos probable que lo contemos en el futuro.
5.2. Contingencia
Si una respuesta va seguida siempre de manera inmediata por una misma consecuencia, es más probable que dicha consecuencia refuerce la respuesta. Cuando la respuesta produce la consecuencia y ésta no se produce, a menos que la respuesta haya ocurrido previamente, decimos que existe una contingencia entre la respuesta y la consecuencia. Cuando existe una relación de contingencia entre respuesta y consecuencia es más probable que la consecuencia refuerce la respuesta (véase, por ejemplo, Borrero, Vollmer y Wright, 2002). Consideremos como ejemplo girar la llave de un coche para arrancarlo. Éste sería un caso de contingencia, ya que siempre que se gira la llave el coche arranca. La conducta de girar la llave sería reforzada por el encendido del motor. Si el motor se encendiese sólo algunas veces después de haber girado la llave, o si se hubiese encendido en otras ocasiones sin haber girado la llave, no se fortalecería el comportamiento de girar la llave en este coche particular. En resumen, es más probable que repitamos un comportamiento si éste produce una respuesta reforzante de manera consistente. En otras palabras, una conducta se fortalece cuando un reforzador se presenta de manera contingente: el reforzador se da sólo si el comportamiento se produce.
5.3. Operaciones motivadoras
Ciertos eventos pueden hacer que una consecuencia concreta sea más reforzante en algunos momentos que en otros. Estos eventos antecedentes, denominados operaciones motivadoras, alteran el valor del reforzador. Existen dos tipos de operaciones motivadoras: operaciones de establecimiento y operaciones de abolición. Una operación de establecimiento hace que un reforzador sea más intenso; en otras palabras, establece la efectividad del reforzador. Por otra parte, una operación de abolición hace que el reforzador pierda intensidad; en otras palabras, reduce la efectividad del reforzador. Las operaciones motivadoras tienen dos efectos: a) alteran el valor del reforzador, y b) hacen que la conducta que produce ese reforzador altere temporalmente su probabilidad de ocurrencia. En el caso de la operación de establecimiento, el reforzador se hace más potente y la conducta que lo produce se vuelve más probable. En el caso de la operación de abolición, el reforzador pierde potencia y la conducta que permite acceder al mismo se vuelve menos probable.
Consideremos algunos ejemplos de operaciones de establecimiento. La ingesta de alimento es un reforzador más poderoso para una persona que no ha comido recientemente que para otra que acaba de ingerir una copiosa comida. Del mismo modo, el agua es un reforzador más potente para alguien que no ha bebido en todo el día o que acaba de correr 10 kilómetros. Análogamente, el agua u otras bebi- das serán más reforzantes para una persona que acaba de comer palomitas de maíz saladas que para alguien que no lo hizo (ello explica por qué en algunos bares den aperitivos salados gratuitamente). En estos ejemplos, quedarse sin agua o comida (privación de alimentos), correr 10 kilómetros o comer palomitas saladas son casos de operaciones de establecimiento, ya que incrementan temporalmente la efectividad de un reforzador y hacen que la conducta que permite acceder a dicho reforzador se produzca con mayor probabilidad.
La privación es un tipo de operación de establecimiento que incrementa el efecto reforzante de la mayoría de los reforzadores incondicionados y de algunos de los condicionados. Un reforzador dado, como, por ejemplo, agua o comida, se hace más poderoso si una persona no ha tenido acceso a él por algún tiempo. La atención, por ejemplo, puede ser un reforzador más poderoso para un niño que la ha recibido durante un tiempo. Del mismo modo, el dinero, aunque es casi siempre un reforzador, puede ser más poderoso para alguien que no lo tenga o no disponga del sufi ciente. Además de la privación, cualquier circunstancia que incremente la necesidad de dinero por parte del individuo, por ejemplo, debido a un gasto inesperado, incrementa el valor del dinero como reforzador.
Consideremos ahora algunos ejemplos de operaciones de abolición. La ingesta de alimentos puede no ser reforzante justo después de concluir una copiosa comida. Haber comido mucho es una operación de abolición que devalúa temporalmente la comida como reforzador y que hace que las conductas que permiten obtener alimentos tengan una menor probabilidad. De igual modo, el agua u otras bebidas no reforzarán la conducta de alguien que acaba de beber una cantidad considerable de agua. Beber gran cantidad de agua hace que ésta pierda su capacidad reforzante temporalmente, haciendo que las conductas que facilitan la obtención de agua sean menos probables. Todos éstos son ejemplos de operaciones de abolición, ya que reducen la efectividad del reforzador en un tiempo o situación particulares y hacen que la conducta que permite obtener dicho reforzador se dé con menor probabilidad.
Los ejemplos anteriores ilustran un tipo de operación de abolición conocido como saciedad. La saciedad se da cuando una persona ha consumido recientemente una cantidad notable de un reforzador particular (por ejemplo, comida o agua) o ha estado expuesta en cantidades considerables a dicho estímulo reforzante. A consecuencia de ello, estos reforzadores pierden potencia temporalmente. Por ejemplo, las canciones de tu cantante favorito se harán menos reforzantes si has estado escuchándolas cinco horas seguidas. Análogamente, la atención de un adulto puede ser poco reforzante para un niño que acaba de recibir atención individual por parte de su maestra durante un buen rato. Pese a que la exposición prolongada o el consumo de reforzadores reduce su efectividad, los efectos de la saciedad decaen con el paso del tiempo. Cuanto más tiempo transcurra desde que el reforzador fue consumido, tanto más poderoso se hará dicho reforzador y menor será la probabilidad de observar efectos de saciedad.
Las instrucciones o las reglas también pueden funcionar como una operación de establecimiento y afectar al valor reforzante de un estímulo (Schlinger, 1993). Por ejemplo, las monedas de 1 céntimo no son reforzadores potentes para la mayoría de la gente, sin embargo, si te dijeran que hay escasez de monedas de cobre y que ahora valen 50 céntimos cada una, el valor reforzante de estas monedas aumentaría, y se incrementaría la probabilidad de que realices conductas que permitan adquirir más monedas de 1 céntimo.
El ejemplo previo, ¿es un caso de operación de establecimiento o de operación de abolición?
El ejemplo constituye un caso de operación de establecimiento, ya que se incrementó el valor reforzante de las monedas de 1 céntimo.
Consideremos otro ejemplo. Supongamos que un amigo tiene entradas para un parque de atracciones al que tenías planeado ir. Si te dijesen que las entradas de tu amigo han caducado, su valor reforzante desaparecería y sería menos probable que le pidieras las entradas.
El ejemplo previo, ¿es un caso de operación de establecimiento o de operación de abolición?
Es un caso de operación de abolición, ya que el valor reforzante de las entradas se redujo.
Consideremos un ejemplo más. Imagina que acabas de comprar una nueva mesa para el ordenador y la impresora y cuando lees las instrucciones de montaje caes en la cuenta de que necesitas un destornillador para montarla. Esta circunstancia aumentaría el valor reforzante del destornillador requerido y se haría probable que fueras a buscar uno. Buscar el destornillador estaría reforzado por encontrarlo y poder montar la mesa.
El ejemplo previo, ¿es un caso de operación de establecimiento o de operación de abolición?
Es un caso de operación de establecimiento debido a que el valor reforzante del destornillador se incrementó.
Las operaciones de establecimiento y las operaciones de abolición también afectan a la efectividad del reforzamiento negativo. Cuando un evento incrementa el carácter aversivo de un estímulo, se incrementa el valor reforzante de eliminar el estímulo o escapar de él (operación de establecimiento). Cuando un evento reduce el carácter aversivo de un estímulo, el escape de dicho estímulo o su retirada se hacen menos reforzantes (operación de abolición). Por ejemplo, un dolor de cabeza puede ser una operación de establecimiento que incremente el carácter aversivo de la música alta haciendo el silencio más reforzante bajo esta circunstancia (por ejemplo, es más probable que apaguemos la música alta si tenemos dolor de cabeza). Por otra parte, pasar un fin de semana en compañía de un grupo de amigos sin tener dolores de cabeza reduce el carácter aversivo de la música alta y hace que apagarla sea menos reforzante. Consideremos otro ejemplo. Un día soleado probablemente no es aversivo para la mayoría de la gente; sin embargo, si una persona sufre quemaduras en la piel a consecuencia de una exposición excesiva a la luz solar, escapar de la luz directa del sol se hace más reforzante. La quemadura funcionaría como una operación de establecimiento para permanecer bajo techo o sentado a la sombra más reforzante, ya que estas conductas eliminan la posibilidad de estar expuesto al sol (estímulo aversivo). Por otras parte, aplicar protector solar podría ser una operación de abolición que reduce el carácter aversivo de estar expuesto a la luz solar y hace que el escape de la luz directa del sol sea menos reforzante (véase Michael, 1982, 1993b, y Laraway, Snycerski, Michael, Poling, 2003, para una discusión completa sobre las operaciones de establecimiento y abolición). Véase también una discusión más completa sobre operaciones de establecimiento y abolición en Michael, 1982, 1993b, y Laraway, Snycerski, Michael y Poling, 2003).
LECTURAS PARA AMPLIAR
Operaciones motivadoras
Usamos el término operación de establecimiento para describir cualquier acontecimiento que hace que un reforzador sea más potente e incremente la probabilidad de los comportamientos que producen tal reforzador. Este concepto fue descrito inicialmente con detalle por Jack Michael en 1982 y se ha escrito mucho sobre él desde entonces (por ejemplo, de McGill, 1999). En su artículo de 1982, Michael define las operaciones de establecimiento y las distingue del concepto de estímulo discriminativo, que es otro tipo de evento antecedente (véase capítulo 7). En un artículo más reciente, Laraway y sus colaboradores (Laraway, Snycerski, Michael y Poling, 2003) perfeccionaron el concepto presentándolo en el contexto más amplio de la motivación. También introdujeron el concepto de operación de abolición. Tanto las operaciones de establecimiento como las de abolición son importantes debido a su influencia sobre la efectividad del reforzamiento y a que ambas pueden manipularse en procedimientos de modificación de conducta para ayudar a las personas a cambiar su conducta (véanse capítulos 13 y 16).
5.4. Diferencias individuales
La probabilidad de que una consecuencia sea un reforzador varía de una persona a otra, por ello es importante determinar si una consecuencia particular funciona como reforzador para una persona particular. No debemos presuponer que un determinado estímulo funciona como reforzador para una persona sólo porque el mismo estímulo parece ser un reforzador para la mayoría de la gente. Por ejemplo, los elogios pueden carecer de sentido para algunas personas, a pesar de ser un reforzador para la mayoría de la gente. Los dulces de chocolate suelen ser reforzadores para la mayoría de los niños, aunque no lo serán para un niño que sea alérgico al chocolate y enferme cuando los tome. El capítulo 15 presenta varias formas de identificar qué consecuencias funcionan como reforzadores.
5.5. Magnitud
La otra característica de un estímulo que se relaciona con su poder como reforzador es su cantidad o magnitud. Generalmente, cuando se presentan las operaciones de establecimiento adecuadas, el efecto de un estímulo como reforzador es mayor si la cantidad o magnitud del estímulo es mayor, siendo ello cierto tanto para el reforzamiento positivo como para el negativo. Una mayor cantidad de reforzador fortalece el comportamiento que lo produce en mayor medida que una cantidad igual o más pequeña del mismo reforzador. Por ejemplo, una persona trabajaría más tiempo y con más intensidad para obtener una gran suma de dinero que para obtener una pequeña cantidad. Asimismo, hacer desaparecer un estímulo aversivo muy intenso fortalecería más la conducta que permita acabar con dicho estímulo de lo que se fortalecería con una versión de menor magnitud o intensidad del mismo estímulo. Por ejemplo, una persona haría más cosas y más intensamente para reducir o eliminar un estímulo muy doloroso que para reducir o eliminar un estímulo doloroso leve. Igualmente, haríamos mucho más por escapar de un edificio en llamas de lo que lo haríamos para evitar que nos dé el calor del sol.
Factores que influyen en la efectividad del reforzamiento
Inmediatez. Un estímulo es un reforzador más efectivo cuando se presenta inmediatamente después de la conducta.
Contingencia. Un estímulo es un reforzador más efectivo cuando su presentación depende de la conducta.
Operaciones motivadoras. Las operaciones de establecimiento hacen que un estímulo sea más efectivo como reforzador durante un momento determinado. Las operaciones de abolición hacen que un estímulo sea menos potente como reforzador durante un momento determinado.
Diferencias individuales. Los reforzadores varían de persona a persona.
Magnitud. En general, un estímulo más intenso es un reforzador más efectivo.
6. PROGRAMAS DE REFORZAMIENTO
El programa de reforzamiento de una conducta particular especifica si cada respuesta es seguida por un reforzador o si en cambio sólo algunas de las respuestas van seguidas de un reforzador. En un programa de reforzamiento continuo se refuerza cada aparición de una respuesta; por el contrario, en un programa de reforzamiento intermitente no se refuerza cada aparición de la respuesta, siendo sólo reforzadas ocasionalmente o intermitentemente. Consideremos el siguiente ejemplo. María trabaja desde hace poco en una fábrica de muebles. Su trabajo consiste en atornillar los pomos de las puertas de varios tipos de muebles. El primer día que acudió al trabajo, el supervisor le mostró cómo atornillar los pomos. A continuación, el supervisor observaba a María realizando el trabajo durante unos minutos elogiándola cada vez que atornillaba un pomo de forma correcta. El ejemplo describe un programa de reforzamiento continuo, ya que cada respuesta (atornillar un pomo correctamente) era seguida por la consecuencia reforzante (elogio del supervisor). Después de los primeros minutos de María en el trabajo, el supervisor se fue, y luego volvió en varias ocasiones durante el día. Cuando lo hacía observaba a María hacer su trabajo y la elogiaba cuando atornillaba un pomo correctamente. «Éste sería un caso de programa de reforzamiento intermitente, ya que la conducta de atornillar pomos era reforzada sólo en algunas de las ocasiones en que ocurría». En el ejemplo, podemos observar el uso inicial de un programa de reforzamiento continuo cuando María estaba aprendiendo el comportamiento. Una vez que María aprendió el comportamiento (era capaz de atornillar pomos correctamente en todas las ocasiones), el supervisor pasó a un programa de reforzamiento intermitente. Un programa de reforzamiento continuo se utiliza cuando se está aprendiendo una conducta o se realiza el comportamiento por primera vez. Este proceso se llama la adquisición, ya que el individuo está adquiriendo un nuevo comportamiento. Una vez que la persona ha adquirido o aprendido la conducta, se utiliza un programa de reforzamiento intermitente a fin de que el individuo siga realizando el comportamiento. Este proceso se llama mantenimiento, ya que el comportamiento se mantiene en el tiempo gracias al uso del reforzamiento intermitente. El supervisor de María no podría alabarle todos los comportamientos correctos realizados cada día. Esto no sólo es imposible, sino también innecesario. El reforzamiento intermitente es más eficaz que el reforzamiento continuo para el mantenimiento de un comportamiento.
Describe cómo una máquina expendedora de refrescos sería un ejemplo de programa de reforzamiento continuo, mientras que una máquina tragaperras sería un ejemplo de programa de reforzamiento intermitente.
El comportamiento de poner dinero en una máquina expendedora y pulsar el botón de selección se refuerza cada vez que se produce, porque la máquina te da el artículo que has pagado y seleccionado. El comportamiento de poner dinero en una máquina tragaperras y accionar la palanca se ve reforzado en un programa intermitente debido a que la máquina tragaperras nos devuelve dinero sólo de vez en cuando (figura 4.4). Ferster y Skinner (1957) estudiaron distintos tipos de programas de reforzamiento intermitente. En sus experimentos, ponían palomas dentro de cajas experimentales, permitiendo que picotearan teclas en forma de disco instaladas delante del animal en la pared de la caja. La tecla podía iluminarse y la caja permitía registrar cada vez que la paloma pico-tease en la tecla. Como reforzadores de la conducta usaban pequeñas cantidades de alimento que se entregaban a través de una abertura en la pared debajo de la tecla. Ferster y Skinner describen cuatro tipos básicos de programas: razón fija, razón variable, intervalo fijo e intervalo variable. Aunque estos programas de reforzamiento se estudiaron originalmente con animales de laboratorio, también se aplican a la conducta humana.
Figura 4.4.— La máquina tragaperras funciona según un programa de reforzamiento intermitente, pues no obtenemos dinero de la máquina cada vez que introducimos una moneda en la ranura y accionamos la palanca. Por el contrario, las máquinas de refrescos funcionan de acuerdo con un programa de reforzamiento continuo: cada vez que introducimos dinero obtenemos una bebida de la maquina.
6.1. Razón fija
En los programas de reforzamiento de razón fija y de razón variable la entrega del reforzador depende del número de respuestas que se hayan producido. En el caso de los programas de razón fija, éste puede ser un número específico o fijo de respuestas que deben ocurrir antes de entregar el reforzador. En otras palabras, se presentará el reforzador después de un cierto número de respuestas. Por ejemplo, en un programa de razón fija 5 (RF 5), el reforzador se presentará después de la quinta respuesta. En estos programas el número de respuestas necesarias antes de la presentación del reforzador no cambia. Ferster y Skinner (1957) hallaron que las tasas de respuesta de palomas bajo programas de razón fija eran elevadas. También observaron que a menudo se producía una breve pausa en las respuestas después de la entrega del reforzador. Replicaron este análisis con programas de razón fija que requerían de 2 a 400 respuestas para obtener el reforzador, observándose generalmente que la tasa de respuestas se incrementaba de forma paralela al incremento de la razón del programa. Podemos ver ejemplos de programas de reforzamiento de razón fija en el ámbito académico o de trabajo con el propósito de mantener un comportamiento adecuado. Consideremos el ejemplo de Pablo, un joven de 26 años de edad con discapacidad intelectual grave que trabaja en una fábrica embalando piezas. Como las piezas llegan a través de una cinta transportadora, Pablo las recoge y las mete en cajas. El supervisor de Pablo le da una ficha (reforzador condicionado) después de cada 20 piezas empaquetadas. Éste sería un caso de programa de reforzamiento de razón fija 20 (RF 20). Durante el trabajo y después de él, las fichas pueden canjearse por reforzadores intercambiables (p. ej., aperitivos, palomitas de maíz...). Programas parecidos pueden usarse en el entorno escolar dando a los estudiantes reforzadores (por ejemplo, estrellas, pegatinas, buenas notas...) para la correcta realización de un número fijo de problemas u otras tareas escolares. Otro ejemplo de programa de reforzamiento de razón fija se da en el trabajo a destajo cuando se paga a los trabajadores una cantidad determinada de dinero por cada número fijo de respuestas (por ejemplo, 5 € por cada 12 piezas ensambladas).
6.2. Razón variable
Igual que en los programas de razón fija, en los programas de razón variable la entrega del reforzador depende del número de respuestas que se producen, sólo que en este caso el número de respuestas necesarias para obtener el reforzador varía en torno a un número promedio de respuestas. Es decir, el reforzador se presenta después de que una media de x respuestas se han emitido. Por ejemplo, en un programa de razón variable 10 (RV 10), el reforzador se proporciona después de un promedio de 10 respuestas. El número de respuestas necesarias para obtener cada reforzador podrá variar de entre dos o tres hasta 20 ó 25; no obstante, el número promedio de respuestas será igual a 10. Ferster y Skinner (1957) evaluaron programas de razón variable en palomas y hallaron que estos programas generan una tasa de respuestas elevada y constante. A diferencia de los programas de razón fija, en los programas de razón variable la pausa tras la entrega del reforzador es mínima. Ferster y Skinner evaluaron programas de razón variable incluyendo algunos que requerían un gran número de respuestas para obtener el reforzador (por ejemplo, la RV 360). Algunos programas de reforzamiento existen de forma natural, mientras que otros pueden ser creados deliberadamente. Consideremos de nuevo el ejemplo de Pablo, el hombre con discapacidad intelectual que empaquetaba piezas en una fábrica.
Describe cómo un programa de reforzamiento de razón variable 20 se podría aplicar con la remuneración que Pablo recibe por su trabajo.
El supervisor podría reforzar su desempeño en el trabajo de acuerdo con un programa de razón variable 20 entregando una ficha después de un promedio de 20 piezas empaquetadas. A veces, el número de respuestas necesarias sería inferior a 20, y en otras ocasiones superior. A diferencia de lo que sucedía en el programa de razón fija 20, en el que se requerían 20 respuestas (piezas embaladas) antes de entregar cada ficha, en un programa de razón variable Pablo no puede predecir el número exacto de respuestas requeridas para la entrega de dicha ficha. Por el contrario, con un programa de razón fija 20 el reforzador se proporciona regularmente después de cada 20 respuestas (piezas empaquetadas). Las máquinas tragaperras ofrecen otro ejemplo. La respuesta de colocar una moneda en la máquina y tirar de la palanca es reforzada por un programa de razón variable. El jugador nunca sabe cuántas respuestas se necesitan para obtener un premio importante (reforzador). Sin embargo, cuantas más respuestas hace el jugador, mayor será la probabilidad de obtener un premio, ya que los programas de razón variable dependen del número de respuestas, no del tiempo u otros factores. Por tanto, el programa de razón variable de una máquina tragaperras produce una tasa de respuestas elevada y estable. Por supuesto, el casino se asegura de que el programa de reforzamiento haga que los jugadores depositen más dinero en la máquina del que reciben de ella. Un vendedor que debe hacer múltiples llamadas para vender un producto proporciona otro ejemplo de programa de razón variable. El número de llamadas que debe ocurrir antes de que el vendedor logre vender un producto (reforzador) es variable. Cuantas más llamadas haga el vendedor, más probable será que realice una venta. Sin embargo, no puede predecirse qué llamada particular dará lugar a una venta. En los programas de razón fija y de razón variable la entrega del reforzador depende del número de respuestas que se producen, por ello en ambos casos el acceso al reforzador será tanto más frecuente cuanto más frecuentes sean las respuestas. Por este motivo los programas de razón son los programas de reforzamiento intermitente más utilizados en los procedimientos de modificación de conducta.
6.3. Intervalo fijo
Durante un programa de intervalo, ya sea de intervalo fijo o intervalo variable, una respuesta se ve reforzada si se produce después de que haya transcurrido un intervalo de tiempo. No importa cuántas respuestas se produzcan, tan pronto como el intervalo de tiempo haya transcurrido, la primera respuesta que se produzca será reforzada. En un programa de intervalo fijo, el intervalo de tiempo es fijo, es decir, es el mismo cada vez. Por ejemplo, en un programa de reforzamiento de intervalo fijo de 20 segundos, la primera respuesta que se produce después de transcurridos 20 segundos produce la aparición del reforzador. Las respuestas que se producen antes de que transcurran los 20 segundos no son reforzadas y no tienen efecto sobre la entrega posterior del reforzador (no hacen que el reforzador se presente antes). Una vez que los 20 segundos han transcurrido, el reforzador está disponible, y la primera respuesta que se produce es reforzada. Luego, 20 segundos más tarde, el reforzador está disponible de nuevo, y la primera respuesta que se produzca provocará la aparición del reforzador. Consideremos de nuevo el ejemplo de Pablo y su trabajo en la fábrica.
Describe cómo un programa de reforzamiento de intervalo fijo de 30 minutos se llevaría a cabo con el trabajo de Pablo.
programa de intervalo fijo de 30 minutos estaría operando si el supervisor acudiera cada 30 minutos y diera una ficha a Pablo después de la primera respuesta (empaquetar una pieza) que se produjera. El número de piezas que Pablo lograse empaquetar durante los 30 minutos anteriores sería irrelevante. El supervisor proporcionará la ficha (reforzador) por la primera pieza que viese empaquetar a Pablo después del período de 30 minutos. Mientras que en los programas de razón fija y razón variable Pablo recibe las fichas dependiendo del número de piezas que logre empaquetar, en un programa de intervalo fijo se necesita una única respuesta para acceder al reforzador, siempre y cuando ésta se produzca después del descanso.
Ferster y Skinner (1957) observaron que los programas de reforzamiento de intervalo fijo producen un cierto patrón de respuesta. La palomas respondían a un ritmo creciente al final del intervalo, tendencia que se interrumpía cuando recibían el reforzador, momento en el que se producía una pausa en las respuestas. A continuación, a medida que el final del intervalo se acercaba, la paloma comenzaba a responder de nuevo con mayor rapidez hasta que se entregaba el reforzador. El trabajo de Pablo en la fábrica podría seguir este mismo patrón de respuestas. Después de recibir una ficha por parte del supervisor y de que el supervisor se marche para observar a otros trabajadores, Pablo podría reducir el ritmo de su actividad o dejar de trabajar por un tiempo, para empezar a trabajar otra vez hacia el final de los períodos de 30 minutos. Debido a que Pablo recibe una ficha por empaquetar piezas sólo después del intervalo de 30 minutos, su comportamiento comenzaría a ocurrir con más frecuencia hacia el final de la duración del intervalo. Por otra parte, dado que nunca se reciben fichas por embalar piezas durante el intervalo de 30 minutos, de forma natural su comportamiento comenzaría a ser menos frecuente durante la primera parte del intervalo. Este patrón de comportamiento (mayor tasa de respuesta al final del intervalo) es característico de los programas de reforzamiento de intervalo fijo. Por esta razón, estos programas rara vez se utilizan en enseñanza o durante el entrenamiento de habilidades. Por el contrario, los programas de razón fija y razón variable se usan más frecuentemente, ya que producen tasas de respuesta más altas y estables. Pablo aprendió a embalar más piezas y a recibir más fichas bajo programas de razón fija y razón variable. Por el contrario, bajo el programa de intervalo fijo, Pablo aprendería a embalar piezas en un período limitado en torno al fi nal de cada intervalo de 30 minutos.
Análogamente a los programas de intervalo fijo, en un programa de reforzamiento de intervalo variable (IV) el reforzador se entrega coincidiendo con la primera respuesta que se produce después de transcurrido un intervalo de tiempo. A diferencia de los programas de intervalo fijo, en los programas de intervalo variable la duración de cada intervalo varía en torno a un tiempo promedio. Por ejemplo, en un programa de intervalo variable de 20 segundos (IV 20) el intervalo durará más de 20 segundos algunas veces y menos de 20 otras, no siendo predecible su duración en un intervalo particular; no obstante, la duración media será de 20 segundos. Ferster y Skinner (1957) investigaron diversos programas de reforzamiento de intervalo variable y hallaron que el patrón de respuesta era diferente que el observado en un programa de intervalo fijo. En el programa IV el comportamiento de la paloma (picotear una tecla) se produjo a un ritmo constante, mientras que en el programa de intervalo fijo se observó una disminución en la frecuencia durante la primera parte del intervalo y un aumento de frecuencia hacia el final del mismo. Dado que la duración del intervalo, y por tanto la disponibilidad del reforzador, es imprevisible en un programa de intervalo variable, esta bimodalidad en el patrón de respuesta no se desarrolló. Una vez más, consideremos el caso de Pablo y el embalaje de piezas.
Describe cómo el supervisor llevaría a cabo un programa de intervalo variable de 30 minutos con Pablo. Describe en qué se diferencia el comportamiento de Pablo durante un programa de intervalo variable de 30 minutos respecto de su comportamiento en un programa de intervalo fijo de 30 minutos.
Bajo un programa de intervalo variable de 30 minutos (IV 30), el supervisor pasaría a ver a Pablo a intervalos de tiempo de duración impredecible (por ejemplo, después de 5 minutos, 22 minutos, 45 minutos, 36 minutos...) y le daría una ficha después del primer paquete que le observara empaquetar. Los intervalos tendrían diferente duración, pero oscilarían en torno a un promedio de 30 minutos y el reforzador (ficha) se daría por la primera respuesta tras el intervalo. Bajo este programa es probable que Pablo empaquetase piezas de manera constante durante todo el día. La ralentización y la aceleración de su ritmo de trabajo observadas en el programa de intervalo fijo no ocurrirían porque la longitud de los intervalos es impredecible.
Programas de reforzamiento
Razón fija. El reforzador se presenta después de un cierto número de respuestas. Este programa produce una tasa elevada de conducta con una pausa después de que se presente el reforzador.
Razón variable. El reforzador se presenta después de un promedio x de respuestas. Este programa produce una tasa elevada y constante de conducta, sin pausas después del acceso al reforzador.
Intervalo fijo. El reforzador se presenta por la primera respuesta que se produce después de un intervalo fijo de tiempo. Este programa produce una baja tasa de comportamiento patrón de respuesta bimodal (respuestas presentes o ausentes). La tasa de respuesta se incrementa hacia el final del intervalo.
Intervalo variable. El reforzador se entrega por la primera respuesta que se produce después de un intervalo de tiempo variable. Produce un patrón de respuesta constante con una tasa de baja a moderada sin patrón bimodal.
7. REFORZAMIENTO DE DIFERENTES ASPECTOS DEL COMPORTAMIENTO
Pese a que el reforzamiento a menudo se utiliza para aumentar la tasa de un comportamiento, también puede influir en otras dimensiones de la conducta, tales como la duración, la intensidad o la latencia. Si un reforzador depende de que el comportamiento tenga una duración determinada, es probable que la conducta adquiera esa duración. Por ejemplo, si le permitimos a un niño jugar después de la escuela sólo después de hacer deberes durante una media hora, será más probable que trabaje en su tarea durante 30 minutos. Asimismo, si el reforzador está supeditado a una intensidad particular de un comportamiento, es probable que el comportamiento ocurra con esa intensidad. Por ejemplo, si una puerta se queda atascada por el frío y hay que empujar con más fuerza para abrirla, se reforzará una intensidad creciente de la respuesta hasta que la puerta se abra. Análogamente, si un reforzador es contingente a la disminución de la latencia de una respuesta, se fortalecerá una disminución de la latencia (aumento de la velocidad). Por ejemplo, si un niño recibe un reforzador por hacer inmediatamente lo que sus padres le dicen, la inmediatez de la respuesta (latencia corta) se fortalecerá y el niño tendrá más probabilidades de responder de inmediato cuando sus padres le piden que haga algo.
8. PROGRAMAS DE REFORZAMIENTO CONCURRENTE
En la mayoría de las situaciones, un individuo tiene la posibilidad de realizar más de un comportamiento. Para cada uno de estos posibles comportamientos que una persona puede realizar en un determinado momento existe un programa específico de reforzamiento. El conjunto de programas de reforzamiento que controlan las conductas de una persona en un momento dado se llaman programas concurrentes de reforzamiento. En otras palabras, los programas concurrentes controlan los comportamientos u opciones de respuesta diferentes que están disponibles al mismo tiempo. Los programas concurrentes de reforzamiento o castigo asociados a las diferentes opciones de respuesta disponibles en un momento determinado afectan a la probabilidad de que un comportamiento particular se produzca en ese momento. La persona, generalmente, se dedicará a una u otra opción de respuesta en función del programa de reforzamiento, la magnitud del reforzador, la inmediatez del reforzador y el esfuerzo de respuesta asociado a las diferentes opciones de respuesta disponibles (Neef, Mace y Shade, 1993; Neef, Mace, Shea y Shade, 1992; Neef, Shade y Miller, 1994). Por ejemplo, si Raimundo puede cortar el césped del jardín de un amigo por 10 € por hora o ayudar a su primo en la ferretería por 8 € por hora, es probable que ayude al amigo, ya que la magnitud del reforzador asociado a esa opción de respuesta es mayor. Si los dos trabajos se pagan a 10 € por hora, pero uno de los trabajos es considerablemente más fácil que el otro, probablemente elegirá el trabajo más fácil. Sin embargo, si tuviera la oportunidad de pasar la tarde haciendo esquí acuático con su novia, es posible que eligiese esta opción por encima de las otras dos, ya que permite el acceso a reforzadores más poderosos que la cantidad de dinero obtenido por realizar un trabajo.
La investigación sobre programas concurrentes de reforzamiento pone de manifiesto que la mayoría de la gente realiza con frecuencia comportamientos que maximizan la tasa de reforzamiento, la magnitud o inmediatez del reforzador, o que minimizan el esfuerzo de respuesta necesario para acceder al reforzador (Friman y Poling, 1995; Hoch, McComas, Johnson, Faranda y Guenther, 2002; Hoch, McComas, Thompson y Paone, 2002; Neef et al., 1992, 1993, 1994; Piazza, Roane, Keeney, Boney y Abt, 2002). Los programas concurrentes son de interés para la aplicación de procedimientos de modificación de conducta. Por ejemplo, un comportamiento no deseado controlado por un programa de reforzamiento determinado puede coexistir junto con un comportamiento que se desea incrementar y que está bajo el control de otro programa de reforzamiento. Cuando utilizamos reforzamiento para aumentar la conducta deseable también se debe tener en cuenta, y en algunos casos modificar, el programa de reforzamiento de la conducta que se desea reducir (Mace y Roberts, 1993).
RESUMEN DEL CAPÍTULO
1. El reforzamiento es un principio básico de la conducta que ocurre cuando un comportamiento es seguido de una consecuencia inmediata que fortalece la conducta o aumenta la probabilidad futura del comportamiento. El reforzamiento es el proceso responsable de la aparición de la conducta operante.
2. Tanto el reforzamiento positivo como el negativo refuerzan la conducta. La diferencia entre ambos radica en que en el reforzamiento positivo la conducta va seguida por la adición de un estímulo, mientras que en el reforzamiento negativo va seguida de la eliminación de un estímulo.
3. Los reforzadores incondicionados son estímulos que se refuerzan de forma natural por tener importancia biológica o favorecer la supervivencia. Los reforzadores condicionados son originalmente estímulos neutrales que se han establecido como reforzadores por haber sido emparejados con reforzadores incondicionados u otros reforzadores condicionados.
4. Varios factores afectan a la eficacia del reforzamiento. A fin de incrementar la eficacia de un reforzador, éste debe ser presentado inmediatamente después de que ocurra la conducta. Un reforzador es más eficaz cuando depende de la conducta, es decir, cuando se entrega sólo si el comportamiento se produce. Los reforzadores son más eficaces cuando existe un estado de privación o alguna otra operación de establecimiento. En general, un reforzador es más eficaz cuanto mayor sea su cantidad o magnitud.
5. El reforzamiento puede ser programado para ocurrir cada vez que se produce el comportamiento (reforzamiento continuo) o puede ocurrir de forma intermitente. Los programas de reforzamiento continuo se usan durante la adquisición, es decir, durante el aprendizaje de un nuevo comportamiento. Los programas intermitentes se utilizan para man tener la conducta una vez que ésta ha sido aprendida. Hay cuatro programas básicos de reforzamiento intermitente. En los programas de razón se requieren varias respuestas para que se pre sente el reforzador. En un programa de razón fija, el número de respuestas es fijo o constante, mientras que en un programa de razón variable, el número de respuestas necesarias para acceder al reforzador varía en torno a un número promedio. En los programas de intervalo, debe transcurrir un intervalo de tiempo antes de que se refuerce una respuesta. En un programa de intervalo fijo, el intervalo es fijo; en un programa de intervalo variable, el intervalo varía en torno a un tiempo medio. Los programas de razón producen una tasa de respuestas más elevada que los programas de intervalo, aunque a menudo hay una pausa después de la presentación del reforzador en los programas de razón fija. Los programas de intervalo producen tasas de respuesta más bajas que los programas de razón. El programa de intervalo variable produce un ritmo constante de respuestas, mientras que el programa de intervalo fijo produce un patrón de respuesta bimodal en el que la mayoría de las respuestas se producen hacia el final de los inter valos.
TÉRMINOS CLAVE
Adquisición, 100.
Conducta de escape, 93.
Conducta de evitación, 93.
Conducta operante, 89.
Consecuencia, 87.
Contingencia, 96.
Esfuerzo de respuesta, 104.
Estímulo, 91.
Estímulo aversivo, 91.
Ficha, 95.
Mantenimiento, 100.
Operación de abolición, 96.
Operación de establecimiento, 96.
Operación motivadora, 96.
Operantes concurrentes, 104.
Principio de Premack, 93.
Privación, 97.
Programa de intervalo fijo, 102.
Programa de intervalo variable, 103.
Programa de razón fija, 100.
Programa de razón variable, 101.
Programa de reforzamiento, 99.
Programa de reforzamiento continuo 99.
Programa de reforzamiento intermitente, 99.
Programas concurrentes de reforzamiento, 104.
Reforzador, 89.
Reforzador condicionado, 94.
Reforzador condicionado generalizado, 95.
Reforzador incondicionado, 94.
Reforzador positivo, 91.
Reforzador intercambiable, 95.
Reforzamiento, 87.
Reforzamiento negativo, 91.
Reforzamiento positivo, 91.
Respuesta, 96.
Saciedad, 97.
TEST PRÁCTICO
1. ¿Cuál es la defi nición de reforzamiento? (p. 87).
2. ¿Cuál era el reforzador del gato de Thorndike? ¿Qué comportamiento permitía acceder al reforzador? ¿Qué efecto tuvo el reforzador sobre el comportamiento del gato? (p. 87).
3. ¿Qué se quiere decir cuando se afirma que «un comportamiento se refuerza»? (p. 88).
4. ¿Qué es una conducta operante? ¿Qué conducta operante reforzaba Skinner en sus experimentos con ratas? (p. 88).
5. Dibuja un gráfico que muestre un efecto de reforzamiento en la duración de la conducta de juego cooperativo en un niño (p. 90).
6. Define reforzamiento positivo (p. 91).
7. Define reforzamiento negativo (p. 91).
8. Proporciona un ejemplo de reforzamiento positivo diferente de los presentados en el capítulo.
9. Proporciona un ejemplo de reforzamiento negativo diferente de los presentados en el capítulo.
10. ¿En qué se parecen el reforzamiento positivo y el negativo? ¿En qué se diferencian? (p. 91).
11. ¿En qué se diferencia el reforzamiento negativo del castigo? (p. 91).
12. Defi ne estímulo aversivo y proporciona un ejemplo (p. 91).
13. ¿Qué es un reforzador condicionado? Da ejemplos de reforzadores incondicionados tanto positivos como negativos (p. 94).
14. ¿Qué es un reforzador condicionado? Da ejemplos. Indica para cada uno de tus ejemplos cómo los estímulos llegaron a convertirse en reforzadores condicionados (p. 94).
15. Identifica los cinco factores que influyen en la efectividad del reforzamiento (pp. 95-99).
16. ¿Qué se entiende por contigüidad entre respuesta y reforzador? ¿Cómo influye la contigüidad en la efectividad del reforzador? (p. 95).
17. ¿Qué es una contingencia de reforzamiento? ¿Cómo afecta la contingencia a la efectividad del reforzamiento? (p. 96).
18. ¿Qué es una operación de establecimiento? Da algunos ejemplos (p. 96).
19. ¿Cómo podemos saber si un estímulo dado es un reforzador para una persona particular? (p. 98).
20. Indica qué diferencias hay entre los programas de reforzamiento continuo e intermitente (p. 99).
21. Los programas de reforzamiento continuo su usan para la adquisición, mientras que los programas intermitentes se utilizan para el mantenimiento de la conducta. Describe lo que esto significa (p. 99).
22. ¿Qué es un programa de razón fija?, ¿y un programa de razón variable? Describe un ejemplo que ilustre cada programa (pp. 100-101).
23. ¿Qué es un programa de intervalo fijo?, ¿y un programa de intervalo variable? Describe el patrón de respuestas típico de un programa de intervalo fijo (pp. 102-103).
24. En programas de enseñanza o entrenamiento, ¿es más probable usar programas de intervalo o de razón? ¿Por qué? (p. 103).
25. ¿Qué son los programas concurrentes de reforzamiento? Proporciona un ejemplo (p. 105).
26. Indica si cada uno de los siguientes casos es un ejemplo de reforzamiento positivo o negativo:
a) Alicia interrumpe a sus padres y éstos le regañan cada vez que lo hace. Pese a ello, Alicia continúa interrumpiéndoles.
b) Ricardo insulta a su maestra cada vez que ésta le pide que haga sus ejercicios de matemáticas. Cuando esto ocurre, la maestra lo envía fuera de clase 15 minutos. En el tiempo que esta fuera se libera de tener que realizar los ejercicios. No obstante, Ricardo sigue insultando cuando regresa y la maestra le pide nuevamente que haga sus ejercicios.
c) Máximo tiene una irritación en la piel que le causa picores. Cada vez que se rasca, la comezón desaparece brevemente, pero cuando le pica otra vez, vuelve a rascarse.
d) Jorge entregó su tarea a tiempo y su maestro le sonrió. A consecuencia de ello, Jorge sigue entregando su tarea a tiempo.
e) Guillermo está conduciendo su camioneta a gran velocidad por un carril. En una curva con mucho barro pierde el control del vehículo y empieza a dar vueltas sin control. A consecuencia de ello se hace más probable que conduzca la camioneta a gran velocidad cuando va por carriles de tierra.
f) La madre de María le grita cuando no limpia su cuarto los sábados. Ello hace más probable que permanezca en casa de un amigo el sábado a fin de evitar los gritos de su madre.
APÉNDICE A
Conductas operantes y reforzadores correspon-dientes a los ejemplos de la tabla 4.1:
Conducta operante
1. Llanto de un niño.
Reforzador
Atención de los padres.
Conducta operante
2. Abrir un paraguas.
Reforzador
Evitar que le moje la lluvia.
Conducta operante
3. Encender el extractor.
Reforzador
Eliminar el humo de la cocina.
Conducta operante
4. Preguntar a su amigo la respuesta a una pregunta de clase.
Reforzador
El amigo da la respuesta correcta.
Conducta operante
5. Juan se sienta en su sitio.
Reforzador
El maestro le sonríe y le elogia.
Conducta operante
6. Patricia se pone tapones para los oídos.
Reforzador
Se elimina el ruido del televisor.
Conducta operante
7. Los empleados fabrican bicicletas.
Reforzador
Ganan dinero.
Conducta operante
8. La madre le da un caramelo al niño cuando tiene una rabieta.
Reforzador
La rabieta para.
APÉNDICE B
Ejemplos de reforzamiento positivo y negativo de la tabla 4.1:
1. Reforzamiento positivo. La atención de los padres es un reforzador positivo para el llanto de un niño. El cese del llanto también refuerza negativamente el comportamiento de los padres de prestar atención a su hijo cuando llora.
2. Reforzamiento negativo. Abrir el paraguas impide que la lluvia moje la cabeza de la mujer (elimina el estímulo aversivo).
3. Reforzamiento negativo. Encender el extractor de aire elimina el humo.
4. Reforzamiento positivo. Cuando el estudiante pregunta a su amigo la respuesta a la pregunta, éste te da la respuesta correcta.
5. Reforzamiento positivo. La sonrisa y el elogio del maestro son reforzadores positivos para la conducta de Juan de permanecer sentado prestando atención.
6. Reforzamiento negativo. Ponerse los tapones hace que termine el ruido del televisor.
7. Reforzamiento positivo. El dinero es un reforzador positivo para la conducta de ensamblar bicicletas.
8. Reforzamiento negativo (madre). Para la madre, la terminación de la rabieta del niño refuerza su conducta de darle un caramelo. Reforzamiento positivo (niño). Para el niño, los caramelos que le da su madre refuerzan la rabieta.