Experimento de la caja de Skinner (estudio de conductismo) –

Recibimos recompensas y castigos por muchos comportamientos. Más importante aún, una vez que experimentamos esa recompensa o castigo, es probable que volvamos a realizar (o no) esa conducta anticipando el resultado.

Los psicólogos de finales del siglo XIX y principios del XX creían que las recompensas y los castigos eran cruciales para moldear y fomentar el comportamiento voluntario. Pero necesitaban una forma de probarlo. Y necesitaban un nombre para describir cómo las recompensas y los castigos moldeaban los comportamientos voluntarios. Llegó Burrhus Frederic Skinner, el creador de Skinner's Box, y el resto es historia.

¿Qué es la caja de Skinner?

La «caja Skinner» es una configuración utilizada en experimentos con animales. Un animal está aislado en una caja equipada con palancas u otros dispositivos en este entorno. El animal aprende que presionar una palanca o mostrar comportamientos específicos puede generar recompensas o castigos.

Esta configuración fue crucial para que el psicólogo conductual BF Skinner desarrollara sus teorías sobre el condicionamiento operante. También ayudó a comprender el concepto de programas de refuerzo.

Aquí, «programaciones» se refieren al momento y la frecuencia de las recompensas o castigos, que desempeñan un papel clave en la configuración del comportamiento. La investigación de Skinner mostró cómo los diferentes horarios afectan la forma en que los animales aprenden y responden a los estímulos.

¿Quién es BF Skinner?

Burrhus Frederic Skinner, también conocido como BF Skinner, es considerado el «padre del condicionamiento operante». Sus experimentos, realizados en lo que se conoce como “caja de Skinner”, son algunos de los experimentos más conocidos de la psicología. Ayudaron a dar forma a las ideas del condicionamiento operante en el conductismo.

Ley del efecto (Thorndike vs. Skinner)

En ese momento, el condicionamiento clásico era la principal teoría del conductismo. Sin embargo, Skinner sabía que las investigaciones demostraban que las conductas voluntarias podían ser parte del proceso de condicionamiento. A finales del siglo XIX, un psicólogo llamado Edward Thorndike escribió sobre «La ley del efecto». Dijo: «Es más probable que las respuestas que producen un efecto satisfactorio en una situación particular vuelvan a ocurrir en esa situación, y es menos probable que las respuestas que producen un efecto incómodo vuelvan a ocurrir en esa situación».

Thorndike probó La Ley del Efecto con una caja propia. La caja contenía un laberinto y una palanca. Colocó un gato dentro de la caja y un pez fuera de la caja. Luego registró cómo los gatos salieron de la caja y se comieron el pescado.

Thorndike notó que los gatos explorarían el laberinto y finalmente encontró la palanca. El nivel les permitiría salir de la caja, llevándolos más rápido hacia el pez. Una vez que descubrieron esto, era más probable que los gatos usaran la palanca cuando querían pescar.

Skinner tomó esta idea y la puso en práctica. A la caja donde se realizan experimentos con animales la llamamos «caja de Skinner».

¿Por qué llamamos a esta caja la «Caja Skinner»?

Edward Thorndike usó una caja para entrenar animales para que realizaran comportamientos a cambio de recompensas. Más tarde, psicólogos como Martin Seligman utilizaron este aparato para observar la «impotencia aprendida». Entonces, ¿por qué esta configuración se llama «Skinner Box»? Skinner no sólo utilizó los experimentos de la caja de Skinner para mostrar la existencia del condicionamiento operante, sino que también mostró horarios en los que el condicionamiento operante era más o menos efectivo, dependiendo de sus objetivos. Y por eso se le llama el padre del condicionamiento operante.

Cómo funcionó la caja de Skinner

Inspirándose en Thorndike, Skinner creó una caja para probar su teoría del condicionamiento operante. (Esta caja también se conoce como “cámara de acondicionamiento operante”).

La caja era típicamente muy simple. Skinner colocaría a las ratas en una caja Skinner con estimulantes neutros (que no producían ni refuerzo ni castigo) y una palanca que dispensaba comida. Cuando las ratas comenzaron a explorar la caja, tropezaban con el nivel, lo activaban y conseguían comida. Skinner observó que era probable que volvieran a tener este comportamiento, anticipando la comida. En algunas casillas también se aplicarían castigos. Los experimentos de impotencia aprendida de Martin Seligman son un gran ejemplo del uso de castigos para observar o moldear el comportamiento de un animal. Skinner solía trabajar con animales como ratas o palomas. Y llevó su investigación más allá de lo que hizo Thorndike. Observó cómo los refuerzos y los programas de refuerzo influirían en el comportamiento.

Acerca de los refuerzos

Los refuerzos son las recompensas que satisfacen tus necesidades. El pescado que los gatos recibieron fuera de la caja de Thorndike fue un refuerzo positivo. En los experimentos con cajas de Skinner, las palomas o las ratas también recibieron comida. Pero los refuerzos positivos pueden ser cualquier cosa. agregado después de realizar un comportamiento: dinero, elogios, dulces, lo que sea. El condicionamiento operante ciertamente se vuelve más complicado cuando se trata de refuerzos humanos.

Refuerzos positivos versus negativos

Skinner también analizó los refuerzos negativos. Mientras que los refuerzos positivos son dado Para los sujetos, los refuerzos negativos son recompensas en forma de cosas. quitado de los sujetos. En algunos experimentos en la caja Skinner, enviaba una corriente eléctrica a través de la caja que descargaba a las ratas. Si las ratas empujaran la palanca, las descargas se detendrían. La eliminación de ese terrible dolor fue un refuerzo negativo. Las ratas todavía buscaron el refuerzo pero no fueron ganando cualquier cosa cuando terminaron los shocks. Skinner vio que las ratas aprendieron rápidamente a desactivar los amortiguadores empujando la palanca.

Sobre los castigos

Skinner's Box también experimentó con castigos positivos o negativos, en los que se quitaban o se entregaban cosas dañinas o insatisfactorias debido a un «mal comportamiento». Por ahora, centrémonos en los horarios de reforzamiento.

Horarios de refuerzo

Sabemos que no todas las conductas tienen el mismo refuerzo siempre. Piense en dar propina como conductor de un viaje compartido o como barista en una cafetería. Es posible que tenga una serie de clientes que le den generosas propinas después de conversar con ellos. En este punto, es probable que converse con su próximo cliente. Pero, ¿qué pasa si no te dan propina después de conversar con ellos? ¿Qué pasa si te quedas en silencio durante un viaje y recibes una gran propina?

Psicólogos como Skinner querían saber con qué rapidez alguien convierte una conducta en hábito después de recibir refuerzo. Es decir, ¿cuántos viajes necesitarás para conversar con los pasajeros cada vez? También querían saber qué tan rápido un sujeto dejaría de conversar con los pasajeros si dejara de recibir propinas. Si la rata tira de la palanca y no consigue comida, ¿dejará de tirar de la palanca por completo?

Skinner intentó responder a estas preguntas observando diferentes programas de refuerzo. Ofrecería refuerzos positivos en diferentes horarios, como ofrecerlos cada vez que se realizaba la conducta (refuerzo continuo) o al azar (refuerzo de proporción variable). Con base en sus experimentos, mediría lo siguiente:

  • Tasa de respuesta (qué tan rápido se realizó el comportamiento)
  • Tasa de extinción (qué tan rápido se detendría el comportamiento)

Descubrió que existen múltiples programas de refuerzo y que todos producen resultados diferentes. Estos horarios explican por qué es posible que su perro no responda a las golosinas que a veces le da o por qué el juego puede ser tan adictivo. No todos estos horarios son posibles y eso también está bien.

Refuerzo continuo

Si refuerzas una conducta repetidamente, la tasa de respuesta es media y la tasa de extinción es rápida. La conducta se realizará sólo cuando se necesite refuerzo. Tan pronto como deje de reforzar una conducta en este programa, dicha conducta no se realizará.

Refuerzo de relación fija

Digamos que refuerzas el comportamiento cada cuatro o cinco veces. La tasa de respuesta es rápida y la tasa de extinción es media. La conducta se realizará rápidamente para llegar al refuerzo.

Refuerzo de intervalo fijo

En los casos anteriores, el refuerzo se dio inmediatamente después de realizar la conducta. Pero ¿qué pasaría si el refuerzo se diera en un intervalo fijo, siempre que la conducta se realizara en algún momento? Skinner descubrió que la tasa de respuesta es media y la tasa de extinción es media.

Refuerzo de relación variable

Así es como el juego se vuelve tan impredecible y adictivo. En los juegos de azar, se obtienen ganancias ocasionales, pero a menudo se enfrentan pérdidas. Esta incertidumbre te mantiene enganchado, sin saber cuándo llegará la próxima gran victoria o el próximo golpe de dopamina. El comportamiento se refuerza aleatoriamente. Al jugar, tu respuesta es rápida, pero lleva mucho tiempo dejar de querer apostar. Esta aleatoriedad es una razón clave por la cual el juego es altamente adictivo.

Refuerzo de intervalo variable

Por último, el refuerzo se otorga a intervalos aleatorios, siempre que se realice la conducta. Los inspectores de salud o los compradores secretos son ejemplos comúnmente utilizados de refuerzo de intervalo variable. El refuerzo podría administrarse cinco minutos después de realizar la conducta o siete horas después de realizarla. Skinner descubrió que la tasa de respuesta para este programa es rápida y la tasa de extinción es lenta.

Caja de Skinner y pilotos de palomas en la Segunda Guerra Mundial

Sí, lo leiste bien. El trabajo de Skinner con palomas y otros animales en la caja de Skinner tuvo efectos en la vida real. Después de algún tiempo entrenando palomas en sus cajas, a BF Skinner se le ocurrió una idea. Las palomas eran fáciles de entrenar. Pueden ver muy bien mientras vuelan por el cielo. También son criaturas bastante tranquilas y no entran en pánico en situaciones intensas. Sus habilidades podrían aplicarse a la guerra que se libraba a su alrededor.

BF Skinner decidió crear un misil que pudieran operar las palomas. Así es. El ejército estadounidense estaba teniendo problemas para apuntar con precisión a los misiles y BF Skinner creía que las palomas podrían ayudar. Creía que podía entrenar a las palomas para que reconocieran un objetivo y picotearan cuando lo vieran. Mientras las palomas picoteaban, la cabina especialmente diseñada de Skinner navegaba apropiadamente. Las palomas podrían ser pilotos en misiones de la Segunda Guerra Mundial, luchando contra la Alemania nazi.

Cuando Skinner propuso esta idea a los militares, fue recibido con escepticismo. Sin embargo, recibió 25.000 dólares para comenzar su trabajo en el «Proyecto Pigeon». ¡El dispositivo funcionó! El condicionamiento operante entrenó a palomas para navegar misiles de manera apropiada y alcanzar sus objetivos. Desafortunadamente, hubo un problema. La misión mató a las palomas una vez que se lanzaron los misiles. ¡Se necesitarían muchas palomas! Los militares finalmente aprobaron el proyecto, pero los prototipos de la cabina se exhiben en el Museo de Historia Estadounidense. Muy bien, ¿eh?

Ejemplos de condicionamiento operante en la vida cotidiana

No todos los ejemplos de condicionamiento operante tienen por qué terminar en el lanzamiento de misiles. ¡Tampoco tiene por qué ocurrir en una caja en un laboratorio! Es posible que descubra que ha utilizado el condicionamiento operante consigo mismo, con una mascota o con un niño cuyo comportamiento cambia con recompensas y castigos. Estos ejemplos de condicionamiento operante analizarán lo que este proceso puede hacer por el comportamiento y la personalidad.

Estufa caliente: Si pones la mano sobre una estufa caliente, te quemarás. Más importante aún, es muy poco probable que vuelvas a poner la mano sobre esa estufa caliente. Aunque nadie ha encendido la estufa como castigo, el proceso sigue funcionando.

Consejos: Si conversas con un pasajero mientras conduces para Uber, es posible que recibas una propina adicional al final del viaje. ¡Sin duda es una gran recompensa! Probablemente seguirás conversando con los pasajeros mientras conduces para Uber. ¡El mismo tipo de comportamiento se aplica a cualquier trabajador de servicios que recibe propinas!

Entrenando a un perro: Si tu perro se sienta cuando le dices «siéntate», puedes invitarlo. Más importante aún, es probable que se sienten cuando usted dice:…