SKINNER, Burrus Frederic (1904-1990)

Burrus Frederic Skinner(1904-1990) concibió el conductismo como una
doctrina basada en un sistema estrictamente empírico,sin ningún supuesto
teórico previo capaz de condicionar la investigación
. Parte de unos
datos empíricos y, solo en un segundo momento pasa con mucha cautela a
una formulación final de generalizaciones y teorizaciones. Su objetivo es
describír el comportamiento humano,no explicarlo. En consecuencia se
ocupa sólo del comportamiento observable y considera que es deber de la
investigación científica establecer unas relaciones entre las
condiciones del estímulo originarias y la consiguiente respuesta del
organismo.

En oposición con gran parte de los psicólogos contemporaneos,Skinner
sostiene la posibilidad de obtener unos resultados generalizables
válidos,sin recurrir a análisis de tipo estadístico,
pero recogiendo un
amplio número de datos de un solo individuo mantenido en condiciones
experimentales rigurosamente controladas.

Skinner extrapola sus análisis generales a partir del estudio del
comportamiento de ratones y palomas encerrados en jaulas(Skinner
box)
. Entre las diferentes respuestas que el animal puede dar,se escoge
una,que irá seguida por un estímulo reforzador.Esta respuesta seguida de
reforzamiento tenderá a presentarse con mayor frecuencia.De esto deduce
Skinner que aquellas ocasiones en las que una respuesta determinada va
seguida de una recompensa constituyen la base para cualquier tipo de
aprendizaje.

El paradigma del condicionamiento operante,se ha convertido en un
esquema fundamental en psicología comparada y fisiológica para estudiar
otras variables y ha pasado a ser la clave de bóveda para explicar
aprendizajes complejos que resultaban inexplicables desde el punto del
condicionamiento clásico.

Skinner se entregó a analizar las principales respuestas
humanas,tratando de averiguar cuáles eran los hechos reforzadores que
provocaban su mantenimiento y consolidación.A través de estas
investigaciones demostró la manipulabilidad del comportamiento
humano,tanto en términos positivos y utiles para la humanidad,como en
términos negativos y destructivos.

CONCEPTOS BASICOS.

La aportación más sistemática y rica al campo de conocimientos del
condicionamiento instrumental se debe a Skinner y sus colaboradores.
Los
conceptos básicos son los de operante y refuerzo, y las técnicas
principales están constituidas por los índices o programas de
refuerzo(schedules),en los que se analizan minuciosamente las
repercusiones de numerosos parámetros sobre la efectividad del
condicionamiento.Las leyes son muy similares a las del condicionamiento
clásico,a excepción del principio de modelado,que constituye una
auténtica novedad.

La conducta operante, es el nivel en el que se desarrollan los
experimentos de Skinner, no obstante, la relación de ésta con la conducta
respondiente es algo de lo que Skinner no se ocupa, probablemente por que
implica una relación con la biología en la que no desea entrar. Las
relaciones con un posible nivel conductual superior al operante, quedan
igualmente, fuera de lugar.

Cualquier conducta espontánea(no elicitada por un estímulo
localizable en el ambiente),forma parte de un operante. La conducta
voluntaria es para Skinner parte de la conducta operante
y los estímulos
operables(aquellos a los que un organismo puede responder con un
operante) se llaman discriminativos,y,se distinguen de los elicitantes
en que éstos preceden regularmente a las respuestas y las suscitan de
forma necesaria,mientras que los discriminativos no fuerzan la
respuesta.El efecto de un operante es el refuerzo.Si el operante es
seguido de un refuerzo, la obtención de éste pasa a depender funcionalmente de ese operante (contingente respecto de él).

PROGRAMAS Y FORMAS DE REFUERZO.

La efectividad del condicionamiento depende, sobre todo,de la forma en
que se efectúa el refuerzo. Los condicionamientos más eficaces se
obtienen con refuerzos intermitentes y no continuados y obedecen a unas
leyes estudiadas y analizadas en animales por Fester y Skinner(1957)
entre otros. Los índices o programas de refuerzo que fueron estudiados
pueden clasificarse de acuerdo con la regularidad o irregularidad de los
intervalos entre los refuerzos, y con un número de respuestas no
reforzadas o el tiempo que transcurre entre los refuerzos. En síntesis
son:

1. Programas de razón fija. El refuerzo ocurre tras un número fijo de
operantes no reforzados;si sólo se refuerza un operante de cada 20
emitidos, se dice que la ratio es de 20 a 1.

2. Programas de intervalo fijo. El refuerzo ocurre tras un periodo de
tiempo fijo,por ejemplo un minuto, a partir de la última respuesta
reforzada.Por muchos operantes que emita un animal después de un
refuerzo,ha de transcurrir un intervalo de tiempo antes de recibir un
nuevo refuerzo.

3. Programas de razón variable. Es idéntico al programa de razón fija
excepto en que el número de respuestas no reforzadas varía de un
refuerzo a otro.Si la ratio básica es de 20 a 1,el número de operantes
no reforzados puede variar entre 0 y 40,con tal que la razón final media
continue siendo de 20 a 1.

4. Programas de intervalos variables. El refuerzo ocurre tras un
periodo de tiempo que varía,al primer refuerzo, por ejemplo, puede seguir
un periodo de un minuto sin refuerzo; al segundo un periodo de 15
segundos, etc. Generalmente los periodos de tiempo se eligen
aleatoriamente entre márgenes que oscilan de 0 a 120 segundos,aunque
estos márgenes dependen de muchos factores.

Los programas de razones fijas y variables originan tasas de
respuestas muy rápidas,a diferencia de lo que ocurre con los programas
de intervalos.
En los de intervalo fijo,el animal parece estar atendiendo
al tiempo,y una vez obtenido el refuerzo deja casi de emitir
operantes,que son en cambio muy frecuentes cuando se aproxima el final
del intervalo. En los de intervalo variable la tasa de respuestas fluctua
mucho menos,probablemente porque el animal no puede establecer
expectativas temporales precisas acerca de la duración del intervalo sin
refuerzo.
Estos programas de reforzamiento combinándose entre sí dan lugar a nuevas posibilidades:

5. Situación de alternancia. En la que se combina el reforzamiento de
intervalo y el de razón. Se refuerza la primera respuesta después de
pasado un ntervalo de tiempo para que en la siguiente ocasión el
refuerzo venga después de una respuesta posterior (la número 30,por
ejemplo).

6. Situación en la que se utiliza conjuntamente,en un mismo
experimento el reforzamiento de intervalo y el de razón(para que el
refuerzo aparezca tiene que pasar un determinado tiempo y emitirse un
determinado número de respuestas).

7. Programas concurrentes. En el que funcionan simultáneamente dos programas,pero con una respuesta diferente.
El aprendizaje de una actividad compleja exige una serie determinada de
pasos y cada paso se aprende mediante el refuerzo, es decír, lo que se ha
dado en llamar técnica de las aproximaciones sucesivas ,tambien
conocida como modelado. Toda actividad compleja supone un cierto núnero
de actos que se suceden unos a otros según un cierto
orden.Skinner, habla, en este sentido de partes o elementos conductuales
significativos, conductas de aproximación, partes de la conducta total.

Para hacer que un animal ejecute un acto y luego el siguiente se
tiene en cuenta el principio de diferenciación de respuestas,reforzando
positiva y sucesivamente cada respuesta según un orden previsto. Una vez
aprendido un acto determinado se exije el siguiente al animal como
requisito de refuerzo. De esta manera se van moldeando o formando los
actos del animal hasta llegar a la conducta final por medio de estas
aproximaciones sucesivas recompensadas.

Se considera el refuerzo ante un tipo de respuesta unicamente en el
caso de que ésta vaya precedida de un cierto estímulo. Este estímulo
propicia la aparición de la respuesta,aunque es la recompensa que sigue a
la actividad la que de hecho la suscita. El estímulo discriminatorio,no
provoca la respuesta como el estímulo condicionado,sólo hace más
probable que la respuesta ocurra cuando aparece tal estímulo. Los
estímulos están siempre actuando sobre el organismo,pero su conexión
funcional con la conducta operante no es similar a la del reflejo. Por lo
tanto la conducta operante es emitida más que provocada y debe poseer
esta propiedad para que la noción de probabilidad de respuestas tenga
sentido. Un estímulo es la ocasión en que una respuesta va seguida de un
reforzamiento. El efecto sobre un animal consiste en que es más probable
que la respuesta ocurra cuando el estímulo está presente. El proceso a
través del cual esto se consigue se denomina discriminación.

Si dejamos actuar al animal libremente durante y le recompensamos
mediante un programa de intervalo fijo,lo que el animal hace antes de la
recompensa queda condicionado a ella aumentando la tasa de la
respuesta. De la misma manera las modificaciones azarosas de la conducta
pueden tambien reforzarse si coinciden con el momento del alimento. En
este procedimiento el experimentador no sabe que respuesta será
recompensada. La respuesta dada se reforzará en un momento determinado
sin que el experimentador haya tenido la intención de hacerlo,es por
esto por lo que se ha denominado a este procedimiento aprendizaje no
planeado ó técnica de la formación supersticiosa de la conducta(al igual
que las civilizaciones primitivas creían supersticiosamente en la causa
de los fenómenos naturales,creyendo que la causa del refuerzo era un
determinado acto y en realidad la relación es puramente causal).

En el hombre, el condicionamiento operante permite modelar
innumerables conductas, entre ellas la verbal. En la clínica,en el colegio
, en la familia , etc
pueden aplicarse todas estas técnicas,pero recurrír solo a ellas no
tiene sentido más que cuando la enfermedad o la subnormalidad del sujeto
han puesto fuera de juego los modos de acción intelectual propiamente
humanos. En un mundo como el que imagina Skinner cabría, quizá,comprimír
toda la conducta humana dentro de los limites del aprendizaje
operante;pero la programación y la ejecución de esto habría de hacerse
desde un nivel intelectual superior
. Las posibilidades del modelado
son,en suma,fascinantes;entre ellas,sin embargo,no se encuentra la de
sustituir al pensamiento."(Pinillos,"Principios de
psicología",pag.304.).

BIBLIOGRAFIA.

– Skinner,B.F.(1985)," Aprendizaje y comportamiento ",Barcelona, Martinez Roca.

-Pinillos,J.L.(1975)," Principios de psicología ",Madrid, Alianza Editorial.

-García,L. y Moya,J.(1993)," Historia de la psicología II ",Madrid,Siglo XXI de España.
Eduardo Calatayud Gonzalez.
Facultad de Psicología.
U.C.M.18-IV-94.