jueves, 5 de mayo de 2016

Autores representativos "David Ausubel"

David Ausubel

(David Paul Ausubel; Nueva York, 1918 - 2008) Psicólogo y pedagogo estadounidense que desarrolló la teoría del aprendizaje significativo, una de las principales aportaciones de la pedagogía constructivista. Miembro de una familia de origen judío emigrada desde Europa, estudió en la Universidad de Nueva York y desarrolló en su país una importante labor profesional y teórica como psicólogo de la educación escolar. Dio a conocer lo más importante de sus estudios en los años 60, en obras como Psicología del aprendizaje significativo verbal (1963) y Psicología educativa: un punto de vista cognoscitivo (1968).


Para Ausubel, las teorías y métodos de enseñanza han de estar relacionados con la actividad que se realiza en el aula y con los factores cognoscitivos, afectivos y sociales que en ella influyen. Su teoría del aprendizaje significativo verbal supone la necesidad de tener en cuenta los conocimientos previos del alumno para construir desde esa base los nuevos conocimientos, respetando la relación lógica entre ellos. De este modo, el aprendizaje significativo enriquece la estructura cognitiva, que, en interacción, va a su vez modificándose. Tal aprendizaje se opone al puramente memorístico, en el que los conocimientos llegan a ser memorizados pero no a articularse en una estructura cognoscitiva que a su vez permita la recepción de otros nuevos; en el aprendizaje memorístico, la incorporación de conocimientos es arbitraria y débil, y por ello se pierden con facilidad.
En este proceso intervienen los conceptos inclusores, ideas que ya existen en la estructura cognitiva del alumno y que sirven para almacenar lógica y sistemáticamente los conocimientos, que son así mejor asimilados. Los materiales educativos y los profesores han de partir de lo que el alumno ya sabe, fomentando el crecimiento de sus estructuras cognitivas con nuevas aportaciones graduales que encajen progresivamente y den a la vez respuesta a la necesidad del individuo de conocer y dar sentido a su entorno. Las ideas de Ausubel, lejos de quedar en meras propuestas pedagógicas, han tenido cumplida aplicación en los sistemas educativos recientes, siendo referencia habitual en la elaboración de materiales, programaciones educativas y diseños curriculares.

PAGINAS ELECTRÓNICAS CONSULTADAS:
http://www.biografiasyvidas.com/biografia/a/ausubel.htm




Teoría del Aprendizaje Significativo "Ausubel"

Teoría del Aprendizaje Significativo.

Ausubel plantea que el aprendizaje del alumno depende de la estructura cognitiva previa que se relaciona con la nueva información, debe entenderse por "estructura cognitiva", al conjunto de conceptos, ideas que un individuo posee en un determinado campo del conocimiento, así como su organización. En el proceso de orientación del aprendizaje, es de vital importancia conocer la estructura cognitiva del alumno; no sólo se trata de saber la cantidad de información que posee, sino cuales son los conceptos y proposiciones que maneja así como de su grado de estabilidad. Los principios de aprendizaje propuestos por Ausubel, ofrecen el marco para el diseño de herramientas metacognitivas que permiten conocer la organización de la estructura cognitiva del educando, lo cual permitirá una mejor orientación de la labor educativa, ésta ya no se verá como una labor que deba desarrollarse con "mentes en blanco" o que el aprendizaje de los alumnos comience de "cero", pues no es así, sino que, los educandos tienen una serie de experiencias y conocimientos que afectan su aprendizaje y pueden ser aprovechados para su beneficio. Ausubel resume este hecho en el epígrafe de su obra de la siguiente manera: "Si tuviese que reducir toda la psicología educativa a un solo principio, enunciaría este: El factor más importante que influye en el aprendizaje es lo que el alumno ya sabe. Averígüese esto y enséñese consecuentemente".

Un aprendizaje es significativo cuando los contenidos: Son relacionados de modo no arbitrario y sustancial (no al pie de la letra) con lo que el alumno ya sabe. Por relación sustancial y no arbitraria se debe entender que las ideas se relacionan con algún aspecto existente específicamente relevante de la estructura cognoscitiva del alumno, como una imagen, un símbolo ya significativo, un concepto o una proposición.
Esto quiere decir que en el proceso educativo, es importante considerar lo que el individuo ya sabe de tal manera que establezca una relación con aquello que debe aprender. Este proceso tiene lugar si el educando tiene en su estructura cognitiva conceptos, estos son: ideas, proposiciones, estables y definidos, con los cuales la nueva información puede interactuar. El aprendizaje significativo ocurre cuando una nueva información "se conecta" con un concepto relevante ("subsunsor") pre existente en la estructura cognitiva, esto implica que, las nuevas ideas, conceptos y proposiciones pueden ser aprendidos significativamente en la medida en que otras ideas, conceptos o proposiciones relevantes estén adecuadamente claras y disponibles en la estructura cognitiva del individuo y que funcionen como un punto de "anclaje" a las primeras.






Característica

La característica más importante del aprendizaje significativo es que, produce una interacción entre los conocimientos más relevantes de la estructura cognitiva y las nuevas informaciones (no es una simple asociación), de tal modo que éstas adquieren un significado y son integradas a la estructura cognitiva de manera no arbitraria y sustancial, favoreciendo la diferenciación, evolución y estabilidad de los subsunsores pre existentes y consecuentemente de toda la estructura cognitiva.






PAGINAS ELECTRÓNICAS CONSULTADAS:

Autores representativos "Bruner"

Jerome Bruner

(Jerome Seymour Bruner; Nueva York, 1915) Psicólogo y pedagogo estadounidense. Ejerció su cátedra de Psicología Cognitiva en la Universidad de Harvard y, junto con G. Miller, fundó el Center for Cognitive Studies, considerado el primer centro de psicología cognitiva. Jerome Bruner fue director de este centro, ubicado en la misma universidad de Harvard, donde B. F. Skinner impartía su teoría del aprendizaje operante. Posteriormente se trasladó a Inglaterra, donde dictaría clases en la Universidad de Oxford.

Jerome Bruner
El interés de Bruner por la evolución de las habilidades cognitivas del niño y por la necesidad de estructurar adecuadamente los contenidos educativos le llevó a desarrollar una teoría que, en ciertos aspectos, se parece a las de Piaget y Ausubel. Al igual que Piaget, observó que la maduración y el medio ambiente influían en el desarrollo intelectual, aunque Bruner centró su atención en el ambiente de enseñanza. Al igual que Ausubel, advirtió la importancia de la estructura, si bien se concentró de forma más especial en las responsabilidades del profesor que en las del estudiante. Bruner concibe el desarrollo cognitivo como una serie de esfuerzos seguidos de períodos de consolidación. Al igual que Piaget, cree que estos "esfuerzos del desarrollo se organizan en torno a la aparición de determinadas capacidades'' y que la persona que aprende tiene que dominar determinados componentes de una acción o de un cuerpo de conocimientos antes de poder dominar los demás.
Pero en lugar de los cuatro estadios del desarrollo de Piaget, Jerome Bruner habla de tres modelos de aprendizaje: enactivo, icónico y simbólico. En el modelo enactivo de aprendizaje se aprende haciendo cosas, actuando, imitando y manipulando objetos. Es este el modelo que usan con mayor frecuencia los niños pequeños. A decir verdad, es prácticamente la única forma en que un niño puede aprender en el estadio senso-motor. No obstante, también los adultos suelen usar este modelo cuando intentan aprender tareas psicomotoras complejas u otros procesos complejos. No cabe duda de que el arte del ballet, el dominio de los procedimientos parlamentarios o la práctica en la dirección de un coro se facilitarán si se hace lo mismo que otras personas que se dedican a estas actividades. Los profesores pueden inducir a los estudiantes a usar este modelo de aprendizaje proporcionándoles demostraciones y ofreciéndoles materiales pertinentes, así como actividades de representación de roles, modelos y ejemplos de conductas.
El modelo icónico de aprendizaje implica el uso de imágenes o dibujos. Adquiere una importancia creciente a medida que el niño crece y se le insta a aprender conceptos y principios no demostrables fácilmente. Así, por ejemplo, los conocimientos sobre países extranjeros, las vidas de personajes famosos y la literatura dramática no se aprenden normalmente por medio del modelo enactivo. Los profesores pueden lograr que se adquieran estos contenidos educativos proporcionando a los estudiantes dibujos y diagramas relacionados con el tema y ayudándoles a crear imágenes adecuadas. La representación icónica es especialmente útil para los niños en el estadio preoperatorio y en el de las operaciones concretas. Es asimismo de gran utilidad para el adulto que estudia habilidades o conceptos complejos. Requiere, por lo general, menos tiempo que el modelo enactivo.
Al tratar de las ayudas a la enseñanza, Bruner recomienda el uso de diapositivas, de la televisión, de películas y de otros materiales visuales. Estos medios pueden aportar experiencias sustitutivas e imágenes que sirven para enriquecer y complementar las experiencias del estudiante. Al mismo tiempo, sin embargo, Bruner advierte: "Las películas o los programas de televisión usados como 'truco' educativo, un sistema de proyección de películas sin contenido o estilo, una representación intensamente pictográfica de lo trivial, nada de esto será de ayuda ni para el profesor ni para el estudiante. Los problemas de calidad de un plan de estudios no pueden soslayarse comprando un proyector de 16 milímetros''.
El modelo simbólico de aprendizaje es el que hace uso de la palabra escrita y hablada. El lenguaje, que es el principal sistema simbólico que utiliza el adulto en sus procesos de aprendizaje, aumenta la eficacia con que se adquieren y almacenan los conocimientos y con que se comunican las ideas. Por tan evidentes razones, es el modelo de aprendizaje más generalizado. Resulta más útil y eficaz a medida que el niño pasa del estadio de las operaciones concretas al estadio de las operaciones formales.

Aparte de describir las diferentes formas del proceso de la información, Bruner subraya la importancia de la categorización en el desarrollo cognitivo. Cabe definir la categorización como un proceso de organización e integración de la información con otra información que ha sido previamente aprendida. La capacidad de agrupar y categorizar cosas es esencial para hacer frente al inmenso número de objetos, personas, acontecimientos, impresiones y actitudes con que nos solemos encontrar. Bruner lo plantea de esta forma: "El control cognitivo en un mundo que genera estímulos a un ritmo muy superior a nuestra velocidad de clasificación depende de la posesión de ciertas estrategias para reducir la complejidad y el desorden''. Esta afirmación implica que el aprendizaje de habilidades de categorización es una forma de mejora del aprendizaje en general. El aprendizaje y el uso de la categorización dependen, a su vez, de la forma en que se presenta el material.
Bruner enumeró las ventajas de la capacidad para clasificar acontecimientos en términos de categorías conceptuales: ayuda a simplificar el mundo y a encontrar semejanzas, elimina la necesidad del reaprendizaje constante, permite poner en práctica una conducta determinada en situaciones diferentes y mejora la capacidad para relacionar objetos y acontecimientos
El aprendizaje sería por tanto un proceso de categorización o adquisición de conceptos, en el cual el lenguaje juega un papel fundamental. Como respuesta a su concepción del desarrollo cognitivo, Jerome Brunerpropuso el diseño del "currículum en espiral" para facilitar la comprensión de contenidos de aprendizaje. Esta propuesta coincide con el clásico principio de la "ciclicidad". En su opinión, si se quiere conseguir una verdadera actividad cognitiva, hay que centrarse en una motivación intrínseca. Su teoría del "aprendizaje por descubrimiento" es una propuesta en esta dirección.
En la transmisión de conocimientos, el educador realiza primero la tarea él mismo para demostrar que es posible hacer algo interesante, procurando resaltar las distintas partes del proceso. A continuación, induce al educando para que lo intente por sí mismo. La forma más eficaz es la que logra presentar la tarea como un juego. En cualquier caso, se minimizan las probabilidades de error y el coste. Esta idea de la disminución del riesgo al fracaso, que todo juego posee frente a la realización "en serio", es para Bruner una de las características definitorias del juego.

PAGINAS ELECTRÓNICAS CONSULTADAS:
http://www.biografiasyvidas.com/biografia/b/bruner.htm

Teoria del Aprendizaje por descubrimiento


Teoría del Aprendizaje por descubrimiento Bruner.

El psicólogo y pedagogo estadounidense Jerome Bruner desarrolló en la década de los 60 una teoría del aprendizaje de índole constructivista, conocida como aprendizaje por descubrimiento o aprendizaje heurístico. La característica principal de esta teoría es que promueve que el alumno (aprendiente) adquiera los conocimientos por sí mismo.

Esta forma de entender la educación implica un cambio de paradigma en los métodos educativos más tradicionales, puesto que los contenidos no se deben mostrar en su forma final, sino que han de ser descubiertos progresivamente por los alumnos y alumnas.

Bruner considera que los estudiantes deben aprender a través de un descubrimiento guiado que tiene lugar durante una exploración motivada por la curiosidad. Por lo tanto, la labor del profesor no es explicar uno contenidos acabados, con un principio y un final muy claros, sino que debe proporcionar el material adecuado para estimular a sus  alumnos mediante estrategias de observación, comparación, análisis de semejanzas y diferencias, etc. Si te interesa el aprendizaje por descubrimiento de Bruner u otras metodologías alternativas en educación, te recomendamos la lectura del ebook gratuito “Metodologías alternativas en educación”.



Beneficios del aprendizaje por descubrimiento


Los partidarios de las teorías del Bruner ven en el aprendizaje por descubrimiento los siguientes beneficios:

·         Sirve para superar las limitaciones del aprendizaje tradicional o mecanicista.

·         Estimula a los alumnos para pensar por sí mismos, plantear hipótesis y tratar de confirmarlas de una forma sistemática.
·         Potencia las estrategias metacognitivas, es decir, se aprende cómo aprender.
·         Estimula la autoestima y la seguridad.
·         Se potencia la solución creativa de los problemas.
·         Es especialmente útil para el aprendizaje de idiomas extranjeros, puesto que los alumnos tienen un rol muy activo, fomentando el uso de técnicas para analizar el lenguaje, deducir cómo funcionan las normas y aprender de los errores.






Críticas al aprendizaje por descubrimiento

No obstante, el aprendizaje por descubrimiento no está exento de visiones críticasDiversos autores, entre ellos el afamado psicólogo y pedagogo estadounidense David P.  Ausubel, consideran que existe una falsa mitificación sobre sus beneficios.

Para Ausubel, una de las figuras más importantes del constructivismo, no es en absoluto cierto que el aprendizaje por descubrimiento sea necesariamente significativo ni el aprendizaje por recepción obligatoriamente mecánico. Tanto el uno como el otro pueden ser significativo o mecánico, dependiendo de la manera como la nueva información es almacenada en la estructura cognitiva

Para defender sus teorías, Ausubel utiliza el siguiente ejemplo: las soluciones de acertijos por ensayo y error son un tipo de aprendizaje por descubrimiento en el que el contenido descubierto (el acertijo) puede ser incorporado de manera arbitraria a la estructura cognitiva y, por lo tanto, aprendido mecánicamente. Por el contrario, los  exponentes lingüísticos de una función comunicativa también pueden ser aprendidos significativamente sin necesidad de ser descubiertos por el alumno.



 


Autores representativos "Burrhus Frederic Skinner"

Burrhus Frederic Skinner

Biografía






Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de trabajo duro.

Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16 años de un aneurisma cerebral.

Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad, incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un ateo (en una universidad que exigía asistir diariamente a la capilla).

Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York como "bohemio". Después de algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta 1936.

También en este año, se mudó a Mineápolis para enseñar en la Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un bebé en un acuario.

En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología, incluyendo el libro Walden II, un compendio de ficción sobre una comunidad dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término conductual, por ser más apropiado dentro del campo de la psicología.N.T.

El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.

Teoría De Skkiner

Al Igual que Pavlov, Watson y Thorndike, Skinner creía en los patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que ver con cambios observables de conducta ignorando la posibilidad de cualquier proceso que pudiera tener lugar en la mente de las personas. El libro de Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en el condicionamiento operante. También escribió Ciencia y Conducta Humana, (1953) en el cual resalta la manera en que los principios del condicionamiento operatorio funcionan en instituciones sociales tales como, gobierno, el derecho, la religión, la economía y la educación.

El trabajo de Skinner difiere de sus predecesores (condicionamiento clásico), en que él estudió la conducta operatoria (conducta voluntaria usada en operaciones dentro del entorno).
El sistema de Skinner al completo está basado en el condicionamiento operante. El organismo está en proceso de "operar" sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace. Durante esta "operatividad", el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro."

Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, "la caja de Skinner") que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando "sin querer" pisa la barra y ¡presto!, la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja.

Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.

¿Qué ocurre si no le volvemos a dar más bolitas a la rata?  Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.

Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.

Esquemas De Refuerzo

A Skinner le gusta decir que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba "bajo de provisiones" de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los esquemas de refuerzo.
El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.

El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O "x" veces. Existe una frecuencia fija entre los comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una "tasa por pieza" en la producción industrial de ropa: cobras más mientras más camisetas hagas.
El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el "paso": bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.

Skinner también habló de los programas variables. Una frecuencia variable significa que podemos cambiar la "x" cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.

Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el "ritmo" por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción. Si nos detenemos a pensarlo, verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa "errónea"…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!.

Modelado

Una cuestión que Skinner tuvo que manejar es la manera en que llegamos a fuentes más complejas de comportamientos. Respondió a esto con la idea del modelado, o "el método de aproximaciones sucesivas". Básicamente, consiste en primer lugar en reforzar un comportamiento solo vagamente similar al deseado. Una vez que está establecido, buscamos otras variaciones que aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr que el animal muestre un comportamiento que nunca se habría dado en la vida ordinaria. Skinner y sus estudiantes han tenido bastante éxito en enseñar a animales a hacer algunas cosas extraordinarias. Mi favorita es aquella de ¡enseñar a las palomas a tirar los bolos!.

Una vez utilicé el modelado en una de mis hijas. Tenía tres o cuatro años y tenía miedo de tirarse por un tobogán en particular. De manera que la cargué, la puse en el extremo inferior del tobogán y le pregunté si podía saltar al suelo. Por supuesto lo hizo y me mostré muy orgulloso. Luego la cargué de nuevo y la situé un pie más arriba; le pregunté si estaba bien y le dije que se impulsara y se dejara caer y luego saltara. Hasta aquí todo bien. Repetí este acto una y otra vez, cada vez más alto en el tobogán, no sin cierto miedo cuando me apartaba de ella. Eventualmente, pudo tirarse desde la parte más alta y saltar al final. Desdichadamente, todavía no podía subir por las escaleritas hasta arriba, de manera que fui un padre muy ocupado durante un tiempo.

Este es el mismo método que se utiliza en la terapia llamada desensibilización sistemática, inventada por otro conductista llamado Joseph Wolpe. Una persona con una fobia (por ejemplo a las arañas) se le pedirá que se sitúe en 10 escenarios con arañas y diferentes grados de pánico. El primero será un escenario muy suave (como ver a una araña pequeña a lo lejos a través de una ventana). El segundo será un poquito más amenazador y así sucesivamente hasta que el número 10 presentará algo extremadamente terrorífico (por ejemplo, ¡una tarántula corriéndote por la cara mientras conduces tu coche a mil kilómetros por hora!. El terapeuta luego le enseñará cómo relajar sus músculos, lo cual es incompatible con la ansiedad). Después de practicar esto por unos pocos días, vuelves al terapeuta y ambos viajan a través de los escenarios uno a uno, asegurándose de que estás relajado, volviendo atrás si es necesario, hasta que finalmente puedas imaginar la tarántula sin sentir tensión.

Esta es una técnica especialmente cercana a mí, ya que de hecho tuve fobia a las arañas y pude liberarme de ella con desensibilización sistemática. La trabajé tan bien que después de una sola sesión (tras el escenario original y un entrenamiento de relajación muscular) pude salir al exterior de casa y coger una de esas arañitas de patas largas.¡Genial!.

Más allá de estos sencillos ejemplos, el modelado también se ocupa de comportamientos más complejos. Por ejemplo, uno no se vuelve un cirujano cerebral por solo adentrarse en un quirófano, cortar la cabeza de alguien, extirpar exitosamente un tumor y ser remunerado con una buena cantidad de dinero. Más bien, estás moldeado sensiblemente por tu ambiente para disfrutar ciertas cosas; ir bien en la escuela; tomar algunas clases de biología; quizás ver alguna película de médicos; hacer una visita al hospital; entrar en la escuela de medicina; ser animado por alguien para que escojas la neurocirugía como especialidad y demás. Esto es además algo que tus padres cuidadosamente harán, como la rata en la caja, pero mejor, en tanto esto es menos intencionado.

Estímulo adverso (aversivo) en psicología iberoamericana se ha traducido el término como aversivo, N.T.
Un estímulo adverso es lo opuesto al estímulo reforzador; algo que notamos como displacen tero o doloroso.
Un comportamiento seguido de un estímulo adverso resulta en una probabilidad decreciente de la ocurrencia de ese comportamiento en el futuro.

Esta definición describe además del estímulo adverso, una forma de condicionamiento conocida como castigo. Si le pegamos a la rata por hacer x, hará menos veces x. Si le doy un cachete a José por tirar sus juguetes, los tirará cada vez menos (quizás).

Por otro lado, si removemos un estímulo adverso establecido antes de que la rata o José haga un determinado comportamiento, estamos haciendo un refuerzo negativo. Si cortamos la electricidad mientras la rata se mantiene en pie sobre sus patas traseras, durará más tiempo de pie. Si dejas de ser pesado para que saque la basura, es más probable que saque la basura (quizás). Podríamos decir que "sienta tan bien" cuando el estímulo adverso cesa, que ¡esto sirve como refuerzo!.
Un comportamiento seguido del cese del estímulo adverso resulta en una probabilidad incrementada de que ese comportamiento ocurra en el futuro.

Nótese lo difícil que puede llegar a ser diferenciar algunas formas de refuerzos negativos de los positivos. Si te hago pasar hambre y te doy comida cuando haces lo que yo quiero, ¿es esta actuación positiva; es decir un refuerzo?; ¿o es la detención de lo negativo; es decir del estímulo adverso de ansia?.

Skinner (contrariamente a algunos estereotipos que han surgido en torno a los conductistas) no "aprueba" el uso del estímulo adverso; no por una cuestión ética, sino porque ¡no funciona bien!. ¿recuerdan cuando antes dije que José quizás dejaría de tirar los juguetes y que quizás yo llegaría a tirar la basura?. Es porque aquello que ha mantenido los malos comportamientos no ha sido removido, como sería el caso de que hubiese sido definitivamente removido.

Este refuerzo escondido ha sido solamente "cubierto" por un estímulo adverso conflictivo. Por tanto, seguramente, el niño (o yo) nos comportaríamos bien; pero aún sentaría bien tirar los juguetes. Lo único que tiene que hacer José es esperar a que estés fuera de la habitación o buscar alguna forma de echarle la culpa a su hermano, o de alguna manera escapar a las consecuencias, y de vuelta a su comportamiento anterior. De hecho, dado que ahora José solo disfruta de su comportamiento anterior en contadas ocasiones, se involucra en un esquema (programa) variable de refuerzo y será ¡aún más resistente a extinguir dicho comportamiento!.

Modificación De Conducta

La modificación de conducta (usualmente conocida en inglés como mod-b) es la técnica terapéutica basada en el trabajo de Skinner. Es muy directa: extinguir un comportamiento indeseable (a partir de remover el refuerzo) y sustituirlo por un comportamiento deseable por un refuerzo. Ha sido utilizada en toda clase de problemas psicológicos (adicciones, neurosis, timidez, autismo e incluso esquizofrenia) y es particularmente útil en niños. Hay ejemplos de psicóticos crónicos que no se han comunicado con otros durante años y han sido condicionados a comportarse de manera bastante normal, como comer con tenedor y cuchillo, vestirse por sí mismos, responsabilizarse de su propia higiene personal y demás.

Hay una variante de mod-b llamada economía simbólica, la cual es utilizada con gran frecuencia en instituciones como hospitales psiquiátricos, hogares juveniles y prisiones. En éstas se hacen explícitas ciertas reglas que hay que respetar; si lo son, los sujetos son premiados con fichas o monedas especiales que son cambiables por tardes libres fuera de la institución, películas, caramelos, cigarrillos y demás. Si el comportamiento empobrece, se retiran estas fichas. Esta técnica ha demostrado ser especialmente útil para mantener el orden en estas difíciles instituciones.

Un inconveniente de la economía simbólica es el siguiente: cuando un "interno" de alguna de estas instituciones abandona el centro, vuelven a un entorno que refuerza el comportamiento que inicialmente le llevó a entrar en el mismo. La familia del psicótico suele ser bastante disfuncional. El delincuente juvenil vuelve directamente a la "boca del lobo". Nadie les da fichas por comportarse bien. Los únicos refuerzos podrían estar dirigidos a mantener la atención sobre los "acting-out" o alguna gloria de la pandilla al robar en un supermercado. En otras palabras, ¡el ambiente no encaja muy bien!.

Diferencias entre condicionamiento clásico y operatorio

En condicionamiento clásico, un estímulo neurológico se convierte en un reflejo asociado. El sonido de la campana, como un estímulo neurológico, se asocia al reflejo de salivación
En el condicionamiento operatorio el aprendiz "opera" en el entorno y recibe una recompensa por determinada conducta (operaciones). Eventualmente se establece la relación entre la operación (accionar una palanca) y el estímulo de recompensa (alimento).

Mecanismo de condicionamiento operatorio de skinner

  •           El refuerzo positivo o recompensa: Las respuestas que son recompensadas tienen alta probabilidad de repetirse (Buen grado de refuerzo y cuidadoso estudio).
  •           El refuerzo negativo: Respuestas que reflejan actitudes de escape al dolor o de situaciones no deseables tienen alta probabilidad de repetirse (han sido excluidas del escrito un final debido a un buen trabajo terminal).
  •           Extinción o ausencia de refuerzo: Respuestas que no son reforzadas son poco probable que se repitan (Ignorando las conductas errores del estudiante la conducta esperada debe de extinguirse).
  •           Castigo: Respuestas que son castigadas de consecuencias no deseables cambian (Un castigo retardado a un estudiante, mediante el retiro de privilegios podría no tener efecto).

.
Desarrollo de la conducta de skinner

Si colocas dentro de una caja a un animal podría requerir de una cantidad significativa de tiempo para darse cuenta que activando una palanca puede obtener comida. Para lograr esa conducta será necesario realizar una serie de repeticiones sucesivas de la operación acción-respuesta hasta que el animal aprenda la asociación entre la palanca y la recompensa (el alimento). Para comenzar a crear el perfil, la recompensa se le da al animal primero con tan solo voltear a ver la palanca, después cuando se acerque a ella, cuando olfatee la palanca y finalmente cuando la presione.

Escalas de refuerzo

Una vez que la respuesta esperada se logra, el refuerzo no tiene que ser el 100%; de hecho se puede mantener mediante lo que Skinner ha llamado escalas de refuerzo parcial. Las escalas de refuerzo parcial incluyen intervalos de escalas y tasas de escala.
  •   Escalas de intervalos fijos: la respuesta de interés se refuerza un tiempo determinado fijo después, de que se le haya dado el último reforzamiento.
  •  Escala de intervalo variable: es similar a las escalas de intervalo fijo, con la diferencia que la cantidad de tiempo entre cada refuerzo es variable.
  •  Escala de tasa fija: aquí, debe de ocurrir un número de respuestas correctas para poder recibir la recompensa.
  • Escala de tasa variable: el número de respuestas varía para recibir el refuerzo.
  • El intervalo variable y especialmente, las escalas de tasa variable, producen estabilidad y tasas de respuestas más persistentes debido a que los aprendices no pueden predecir el momento de reforzamiento a pesar de que saben que eventualmente sucederá.
PAGINAS ELECTRÓNICAS CONSULTADAS:  

Autores representativos "Edward L.Thorndike"

Edward L. Thorndike

Biografía




Edward L. Thorndike fue profesor de psicología durante más de treinta años en el Teachers College de Columbia, Estados Unidos. Lo que más atrajo su interés fue la teoría del aprendizaje, y se cuenta entre los importantes precursores del conductismo. Watson se fundó en gran parte en la obra de Thorndike y en la de Pavlov. El interés de Thorndike por la psicología apareció después de un curso en la Universidad de Harvard donde tuvo de profesor a William James. Los primeros experimentos de Thorndike sobre el aprendizaje, en que los sujetos experimentales eran pollitos, fueron realizados justamente en el sótano de la casa de James, para deleite de los hijos de éste.

Las numerosas fábulas y relatos tradicionales que cuentan maravillas de la inteligencia de los animales no impresionaban a Thorndike, quien por el contrario sostenía que nadie se había ocupado de describir la estupidez animal. Por cada perro que encuentra el camino de regreso al hogar -decía-, hay quizás un centenar que se pierden. Sostenía Thorndike que los animales no razonan ni avanzan en la resolución de problemas mediante súbitos estallidos de introvisión, sino que aprenden de una manera más o menos mecánica, partiendo de un método de ensayo y error. Las conductas que les resultan fructíferas y gratificantes se "imprimen" en el sistema nervioso.

Según Thorndike, el aprendizaje se componía de una serie de conexiones entre un estímulo y una respuesta, que se fortalecían cada vez que generaban un estado de cosas satisfactorio para el organismo. Esta teoría suministró las bases sobre las que luego Skinner construyó todo su edificio acerca del condicionamiento operante.

Más adelanto, Thorndike aplicó sus métodos para el adiestramiento de animales a niños y jóvenes, con éxito sustancial, y llegó a tener gran predicamento dentro del campo de la psicología educativa. Su obra Educational Psychology (Psicología educacional) fue publicada en 1903, y al año siguiente se le concedió el grado de profesor titular. Otro de sus influyentes libros fue Introduction to the Theory of Mental and Social Measurements (Introducción a la teoría de las mediciones mentales y sociales) de 1904. En la actualidad se reconoce a Thorndike como una figura señera en los comienzos del desarrollo de los tests psicológicos.

Teoría

Edward Thorndike realizó su investigación, también observando la conducta de animales pero después realizó experimentos con personas. Thorndike implantó el uso de "métodos usados en las ciencias exactas" para los problemas en educación al hacer énfasis en el "tratamiento cuantitativo exacto de la información". "Cualquier cosa que exista, debe existir en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en Rizo, 1991). Su teoría, conexionismo, establece que aprender es el establecimiento de conexiones entren estímulos y respuestas.
·         - La "ley de efecto" dice que cuando una conexión entre un estímulo y respuesta es recompensado (retroalimentación positiva) la conexión se refuerza y cuando es castigado (retroalimentación negativa) la conexión se debilita. Posteriormente Thorndike revisó esta ley cuando descubrió que la recompensa negativa (el castigo) no necesariamente debilitaba la unión y que en alguna medida parecía tener consecuencias de placer en lugar de motivar el comportamiento.
·          -La "ley de ejercicio" sostiene que mientras más se practique una unión estimulo-respuesta mayor será la unión. Como en la ley de efecto, la ley de ejercicio también tuvo que ser actualizada cuando Thorndike encontró que en la práctica sin retroalimentación no necesariamente refuerza el rendimiento.
·          -La "ley de sin lectura": Debido a la estructura del sistema nervioso, ciertas unidades de conducción, en condiciones determinadas, están más dispuestas a conducir que otras.
Las leyes de Thorndike se basan en la hipótesis estímulo respuesta. El creía que se establecía un vínculo neural entre el estímulo y la respuesta cuando la respuesta era positiva. El aprendizaje se daba cuando el vínculo se establecía dentro de un patrón observable de conducta.

Estimacion Del Punto De Vista De Thorndike

Antes resumiremos las soluciones de Thorndike a los problemas más característicos del aprendizaje, en los siguientes puntos:

1) La capacidad de aprendizaje depende del número de conexiones y su disponibilidad.

2) La repetición de situaciones (práctica) no modifica por sí sola las conexiones, a menos que dichas conexiones se recompensen.

3) Motivación: la recompensa influye directamente en las conexiones vecinas reforzándolas, pero el castigo carece del efecto debilitador directo correspondiente. Sin embargo, el castigo puede influír indirectamente al llevar al sujeto a elegir otra cosa que tal vez le traiga recompensa. Las conexiones pueden fortalecerse directamente, sin necesidad de tener conciencia o idea de ellas.

4) Comprensión: depende de hábitos anteriores. Cuando las situaciones se comprenden de inmediato, es que se produjo transferencia o asimilación.

5) Transferencia: la reacción a las situaciones nuevas se beneficia, en parte, porque son parecidas a antiguas situaciones, y también por un principio de analogía descripto como asimilación.

6) Olvido: siguió sosteniéndose a grandes rasgos la ley del desuso, según la cual el olvido sobreviene con la falta de práctica.

El carácter más general de la teoría de Thorndike es el de fortalecimiento automático de conexiones específicas, directamente, sin la intervención de ideas o de influencias concientes.
La doctrina de la especificidad es fuente tanto de fuerza como de debilidad.

La fuerza de la doctrina de Thorndike de la especificidad radica en que, en el ámbito educativo, muestra al maestro qué tiene que hacer específicamente para enseñar, una actividad muy compleja pero que puede simplificarse. Por ejemplo para enseñar lectura basta con detenerse en las palabras, ser bien específico, y desatender otros factores como semántica, filología, etc. Pero en esto también radica su debilidad, porque el lenguaje no es sólo palabras.

Los experimentos de Thorndike

Hay dos tipos de aprendizaje:

1)El condicionamiento clásico, ovaloviano o respondiente, que consiste en aprender la relación entre sí de varios sucesos del entorno; y

2) El condicionamiento instrumental, que consiste en aprender la relación entre varios eventos contextuales y el comportamiento.

El condicionamiento clásico implica aprender la relación entre ver el pan y su olor, y condicionamiento instrumental es aprender la relación entre la conducta de comer el pan y el gusto del pan. En este capítulo el autor distinguirá estos dos tipos de aprendizaje.

La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en condiciones similares.

Trabajó con gatos, perros y gallinas encerrándolos en jaulas, donde los animales debían hacer algo para poder salir o recibir comida. Es decir, trabajó con un condicionamiento instrumental (relación entre el comportamiento y sucesos contextuales significativos, como premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba para escapar.

La ley del efecto es simplemente la selección natural en la historia de un organismo singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie, a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama ‘modelamiento’.

Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la base del comportamiento había conexiones simples E-R, las que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede modificar esta jerarquía, haciendo más probable o menos probable una respuesta.

Respecto a sus diferencias, para Pavlov una conexión (un reflejo condicionado) aumenta su fuerza si el estímulo condicionado es contiguo al estímulo incondicionado (esto se llama refuerzo del reflejo condicionado). Para Thorndike, una conexión (hábito) aumenta su fuerza si la respuesta es contigua con un refuerzo al animal del tipo premio o castigo (esto se llama refuerzo del hábito).
Estas explicaciones del aprendizaje en términos de conexiones pueden también hacerse desde en punto de vista molar, en términos de contingencias y correlaciones (entre el EI y el EC, o entre R y el premio).
Thorndike y Skinner: Para Thorndike el premio refuerza la conexión E-R, mientras que para Skinner (1938) el premio refuerza la respuesta operante, no la conexión con el estímulo previo. Cabe aclarar que respuesta para Skinner es un acto destinado a producir un efecto en el entorno, a ser operante. O sea, no importa como la rata presione la barra, sino que lo haga, y por ello recibirá el premio.

Clases de condicionamiento instrumental.

En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y luego recién se premia, o se castiga, etc.

Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio se llama refuerzo positivo, y esto fue enunciado en la ley del efecto de Thorndike.

Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo inverso a lo anterior (castigo positivo).

Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a ocurrir. Esto se llama refuerzo negativo.

Omisión: Si el presente está presente pero no se da, la respuesta que lleva a esta frustración decrece su probabilidad de ocurrencia (castigo negativo).

Métodos de medición

Medir en el condicionamiento clásico significa descubrir la respuesta a un estímulo, pero más interesa aquí medir en el condicionamiento instrumental, donde significa detectar con algún aparato los cambios producidos en la conducta por el aprendizaje.

Se citan dos medidas para medir la variable dependiente ‘respuesta’: latencia y tasa de respuesta.
·       Latencia: es el tiempo transcurrido entre una señal y la ocurrencia de la respuesta. Cuando la madre llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la comida, etc.
·         Tasa de respuesta: es la cantidad de respuestas por unidad de tiempo. Luego de ser llamado a comer (señal) el niño dará más -o menos- mordiscos por unidad de tiempo.

La extinción en el condicionamiento instrumental

En el condicionamiento clásico, extinción significa desaparición de la conexión EC-EI. En el instrumental, significa desaparición de la conexión respuesta-premio (o castigo).

La extinción se define entonces a partir de una correlación cero entre la respuesta y el refuerzo, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios, menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de responder, que es lo que pasa normalmente, salvo en tres excepciones. En efecto, la respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o psuedocondicionamiento.

a. Falta de discriminación.- El estudiante sigue dando la misma respuesta (por ej sigue estudiando bien) a pesar de que el maestro sigue poniendo mecánicamente la misma nota (mismo premio). Sólo tiende a desaparecer la respuesta cuando ve que el maestro pierde las hojas de exámenes, está distraído, etc.

b. Superstición.- Este fenómeno se da cuando en un tiempo dado, la relación entre dos sucesos no puede deberse al azar. Aunque podamos programar una serie de premios en forma totalmente independiente de la respuesta, se quiera o no los premios establecerán cierta relación con las respuestas. Habrá correlaciones accidentales, aunque tales correlaciones no hayan sido programadas. Un jugador le va mal un día, pero al otro día donde usa otro bate de béisbol, por azar le va bien, entonces decide usar este bate en forma superticiosa.
c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata mueve la palanca para salir y en ese momento le damos adrenalina, que aumenta su actividad. La conexión se establece entre la inyección de adrenalina y mover la palanca, lo cual es un pseudocondicionamiento porque el condicionamiento instrumental "verdadero" sería conectar el mover la palanca con el premio (salir de la jaula).

Vemos que en los tres casos se producen respuestas que no mantienen relación con el premio, o sea, no está marcada una relación instrumental (respondo "para" obtener un premio). En el primer caso la falta de discriminación se debe a que la falta de una relación instrumental no puede discriminarse de alguna condición anterior, cuando aquélla existía. En el caso de la superstición es debido a una relación instrumental accidental y temporaria. En el tercer caso la relación no tiene nada que ver con la respuesta, pero el premio por sí mísmo puede causar la respuesta. Todas estas conclusiones valen también para los castigos.

Aprendizaje retardado

Es aquel aprendizaje donde la extinción se presenta "antes" que el condicionamiento, lo que trae como consecuencia que el condicionamiento tarde más en formarse (aprendizaje retardado). Si primero castigamos a un niño, haga lo que haga (extinción de la respuesta, no hará nada), y luego cambiamos la situación y castigamos sólo las conductas malas, entonces tardará mucho más tiempo en superar la primera etapa donde no respondía con ninguna conducta.

Programas de refuerzo o castigo


Un día a Skinner se le acabaron las bolas de alimento que daba a las ratas, y entonces hizo un aparato que les daba bolas de alimento automáticamente, siempre que la rata tocase la palanca un minuto. No sólo las ratas comenzaron a presionar la palanca durante ese lapso sino que también aumentó su tasa de respuestas (cantidad de respuestas por unidad de tiempo), lo cual iba en contra de la idea que a menor premio o refuerzo, menor cantidad de respuestas. Skinner pensó que este ‘programa’ de dar bolas automáticamente podía servir como eficaz método para controlar el comportamiento.

Hay varios tipos de programas:



a) De intervalo fijo: es el ejemplo anterior. El intervalo fijo era un minuto, o sea cada minuto la rata recibía el alimento.



b) De razón fija: aquí se premia a la rata cuando realiza un cierto número de respuestas. Por ejemplo cada cuatro respuestas.



c) Programas combinados: una combinación de los dos anteriores.



d) Programas variables: es cuando los programas de intervalo o de razón son variables en vez de fijos.



e) Programas de refuerzo diferencial: pueden ser de refuerzo diferencial bajo (RDB) o alto (RDA). En el primer caso se premia al sujeto siempre que haya pasado por ejemplo 3 segundos desde la última respuesta. Si responde antes de los 3 segundos no hay premio (o sea una respuesta cada 2,5 segundos no tendrá refuerzo o premio). Esto da tasas de respuesta muy lentas. No es eficaz para el aprendizaje humano. En el caso del RDA, hay premio si la respuesta ocurre antes de un tiempo especificado, con lo cual la tasa de respuestas aumenta mucho.



f) Extinción después de un refuerzo parcial: cuando una respuesta ha sido premiada constantemente, la extinción ocurre más rápidamente que si aquélla fue premiada solo una vez.



g) Programas de castigo, refuerzo negativo y omisión: las pautas de respuesta con castigo de IF son generalmente una aceleración inmediatamente después del castigo y luego una supresión de la respuesta inmediatamente antes del mismo. Un programa de refuerzo negativo (huída) puede consistir en dar descargas eléctricas a la rata hasta que cumpla cierto requerimiento, como una razón fija de 10 respuestas. Por último, un programa de omisión sería proporcionar premio continuamente y luego retirarlo cuando se cumple el requerimiento serial.

Parámetros de premios y castigos


Los instrumentos más sencillos para medir premios y castigos son la caja de Skinner con un único mando (por ejemplo una palanca), y el ‘corredor recto’, por donde el animal circula. Este último evalúa más el comportamiento en el espacio, y la caja de Skinner en el tiempo. Por ejemplo, el primero muestra cuánto se desplazó la rata, y la segunda cuánto tardó en apretar la palanca.



Se citan dos parámetros de premios o castigos: la tasa o cantidad de premio, y el retraso del premio.
Tasa o cantidad de premio: puede ser la mayor o menor cantidad de bolitas de comida, o también cuanto tiempo se lo deja comer una vez que se le dio la comida, o también variar la concentración de azúcar (cuanto más dulce, más premio). Se comprobó que sin premio, la respuesta el cero o cercana a cero; luego, cuando se incrementa el premio, se incrementa también la tasa de respuesta al principio rápido, pero luego lentamente.



Retraso del premio: la tasa de respuesta de la rata varía con el retraso del refuerzo positivo (bolas de comida) y del refuerzo negativo (reducción de la descarga). La rata deja de correr (o bien de pulsar la palanaca si está en la caja de Skinner) inmediatamente al principio pero luego en forma más gradual. El retraso del premio es importante en la vida diaria, como cuando una persona hace dieta pero el premio (bajar de peso), tarda en aparecer.



En cuanto a la relación entre estos parámetros, ellos son independientes en el sentido de que se puede variar la tasa o la cantidad de premio sin variar su retraso, y viceversa. Pero en la práctica se influyen mutuamente, y entonces a veces no se puede saber qué influye más en la conducta: si el retraso del premio o su tasa.
Respecto de la relación entre tasa y cantidad, ella es constante: si se varía la tasa (se le da poca comida a intervalos frecuentes) esto equivale a darle una sola comida grande (cantidad). Pero esto no significa que ambas cosas influyan de la misma forma en la conducta, porque quizás una comida grande sea menos premio porque el animal se siente más pesado.

Huída (refuerzo negativo)

El experimento típico consiste aquí en darle a la rata un estímulo aversivo pero sólo hasta que el animal realiza cierta conducta (llamada entonces conducta de huída). Según la teoría de las necesidades, todo refuerzo es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de la sed, etc.

Sin embargo las conductas de animales sometidos a descargas (estímulo aversivo) es distinta al que actúa porque tiene hambre o sed, quizás porque el estímulo aversivo en la descarga es externo al organismo, y además no aparece gradualmente.

Una forma de estudiar esto es con la dosificación, donde se aumenta de a poco la intensidad del estímulo aversivo, y las respuestas del sujeto reducen la descarga cuando llegan a cierta cantidad.

Castigo

Es posible que el castigo no forme un condicionamiento instrumental. Con refuerzos positivos buscamos que el animal ‘haga’ algo, pero con el castigo tratamos de que ‘no haga’ algo. Sin embargo muchos investigadores dijeron que desde cierto punto de vista el castigo sí produce condicionamiento instrumental: el castigo dado independientemente de la respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto como cuando depende de la respuesta. En la medida en que hay una diferencia entre los efectos de las respuestas producidas por castigo y las respuestas independientes del mismo, éste será una forma de condicionamiento instrumental.

Evitación

La evitación es una huida pero no del castigo sino de la situación donde este se presenta. Evitar la lluvia es huir, pero ir a un lugar donde no llueve es evitación. ¿El problema es: qué condiciona al sujeto a correr? ¿Huir de la lluvia o ir hacia donde no llueve?

La evitación fue estudiada con dos procedimientos: la evitación discriminativa (se avisa de antemano con un señal que vendrá el castigo), y evitación no-discriminativa (no se da una señal previa). En el primer caso, por ejemplo, se vio que ante la señal los perros pasaban rápidamente de la huída a la evitación, mientras que en otros el paso fue más gradual.

Extinción de la evitación: cuando se intenta extinguir la evitación dando siempre castigos (de forma que no los pueden evitar), las conductas evitativas se reducen más rápidamente. Pero resultados opuestos se consiguen si es retirado el castigo a ser evitado: aquí la conducta de evitación tarda más en desaparecer.



      PAGINAS ELECTRÓNICAS CONSULTADAS: