APA PsycNet

American Psychological Association (Miembro)

jueves, 12 de mayo de 2016

Principios Básicos del Aprendizaje

PRINCIPIOS BASICOS DEL APRENDIZAJE


DEFINICIÓN DE APRENDIZAJE: el aprendizaje es un cambio de conducta observable causado principalmente por eventos del ambiente.

  • PATRONES INNATOS: REFLEJOS.

Las conductas innatas son aquellas que aparecen al nacer o poco después y surgen como consecuencia de la filogenia y la maduración.

  • Arco reflejo.

Se llama arco reflejo al camino que conduce desde los órganos sensoriales a los músculos a través de los nervios.

El reflejo es el fenómeno nervioso más simple, se compone de una excitación sensorial y de una respuesta motora.

TIPOS DE REFLEJOS.

Existen dos tipos de reflejos los monosinápticos y los polisinápticos,
·         REFLEJOS  MONOSINÁPTICOS

Tiene lugar como resultado de una conexión sináptica entre una neurona sensorial y una motora.

La flexión de la rodilla es un ejemplo de reflejo patelar.
Soplar el ojo y cerrar el párpado es un reflejo palpebral.

Un parapléjico moverá la pierna al pincharse, aunque no sea consciente del dolor.


·         REFLEJOS POLISINÁPTICOS.

Los reflejos polisinápticos son reflejos de muchas sinapsis y un desconocido número de interneuronas.







LEYES ESTÁTICAS Y DINÁMICAS: El reflejo como proceso o mecanismo asociativo está sujeto a un conjunto de leyes básicas, las leyes estáticas y dinámicas.


LEYES ESTÁTICAS.
LEYES DINÁMICAS.
o   La Ley del umbral:
Determina la intensidad mínima que debe tener un estímulo para desencadenar la respuesta.

o   La Ley de la latencia:
Establece la relación entre la intensidad del estímulo y el tiempo que tarda en producir la respuesta. A mayor intensidad del estímulo, menor tiempo se necesita para que la respuesta ocurra.

o   Ley de la magnitud de la respuesta.
A la relación entre la intensidad de la respuesta con la intensidad del estímulo se le llama Ley de la magnitud de la respuesta.

o   Ley de la postdescarga.
La Ley de la postdescarga señala la persistencia de la respuesta después de culminada la acción del estímulo.

o   Ley de la sumación.
Dos estímulos que no tienen suficiente intensidad para desencadenar una respuesta, pueden llega a hacerlo acumulando sus efectos por la Ley de la sumación.

o   Ley del período refractario: la Ley del período refractario se la conoce como aquella donde, una vez emitida la respuesta, el sistema requiere un período definido para emitir una nueva respuesta.

o   Ley de la fatiga: al descenso de la respuesta cuando el estímulo se repite con mucha frecuencia se conoce como Ley de la fatiga.



o   Ley de la facilitación: la Ley de la Facilitación dice que la incorporación de un estímulo ajeno al reflejo puede incrementar la fuerza del reflejo.

o   Ley de la inhibición: ley de la Inhibición: la fuerza del reflejo se reduce por la acción de un estímulo ajeno al reflejo.

o   Ley del condicionamiento tipo S: la aplicación simultánea de dos estímulos, uno reforzante asociado a un reflejo existente, y otro neutral, producirá un incremento en la fuerza de la relación de un nuevo reflejo.

o   Ley del condicionamiento tipo R: si se aplica un estímulo reforzante después de la aparición de una respuesta, ésta se incrementa.

o   Ley de la extinción: un reflejo se reduce o desaparece si se deja de aplicar el estímulo reforzante.





REFLEJOS DE ORIENTACIÓN, INSTINTOS, IMPRONTA, TAXIAS.

  • REFLEJO DE ORIENTACIÓN.

Cualquier ruido, evento o situación se pone en funcionamiento una parte de la musculatura del esqueleto animal (orejas, cola, etc.) o el animal se queda tieso en una determinada posición, a esto se denomina reflejo de orientación.

  • INSTINTOS.

Los instintos son desencadenados por estímulos internos y externos, comprende comportamientos complejos estructural y funcionalmente (conductismo, cognitivo, psicoanálisis).

  • IMPRONTA.

Karl Lorentz, al hablar de la impronta fue el investigador que primero observó las formaciones de apego tempranas en varias especies.

  • TAXIA.

La taxia es la orientación de un ser vivo bajo la influencia de un estímulo externo.

Heliotaxia, geotaxia en términos vegetales.

En patología médica la taxia tiene que ver con ciertas enfermedades.

CONDUCTAS ELEMENTALES APRENDIDAS: a la habituación, sensibilización, pseudocondicionamiento e inhibición podemos llamar conductas elementales aprendidas.


  • HABITUACIÓN.

Repetición de estímulos y reducción de la respuesta (EEEEEEE).

El fenómeno por el cual nos acostumbramos a algo como consecuencia de la ocurrencia repetida de un estímulo. Ej.: nos trasladamos a vivir a una calle muy transitada y concurrida y nos habituamos al ruido.

  • SENSIBILIZACIÓN
  • Repetición de estímulos y aumento de la respuesta (EEEEEEE>R)

Consiste en el aumento de la respuesta a un estímulo debido a la presentación repetida de éste.

Diferencias
Habituación
Sensibilización
Reducción o eliminación de la respuesta
Aumento o magnitud de la respuesta

  • PSEUDOCONDICIONAMIENTO

Se define como el aumento, generalmente temporal, de la fuerza de la respuesta condicionada, atribuible a factores distintos al emparejamiento del estímulo incondicionado y del estímulo condicionado.

Ocurre con estímulos intensos y dolorosos como una descarga eléctrica, que evocan respuestas emocionales.

Si se emplean choques eléctricos como estímulos, se producirá la respuesta condicionada de miedo, asociado a cualquier otro estímulo distinto al choque.

Ejemplo:

Se colocan varias ratas en una caja de dos compartimientos.

La exposición a la descarga  en un compartimiento provocará la carrera hacia el segundo compartimiento.

A unos sujetos se les presentaba la descarga cuya intensidad aumentaba gradualmente, mientras que otros la recibían de forma repentina.

Cuando los sujetos habían aprendido a escapar, se realizó el pseudocondicionamiento, al presentárseles una luz repentina que nunca había sido emparejada con la descarga.

  • INHIBICIÓN.

Es un proceso que lleva a la disminución y eventual desaparición de una respuesta a consecuencia de una asociación con otra respuesta que la inhibe o bloquea.






CONDICIONAMIENTO CLASICO

El condicionamiento clásico se denomina también condicionamiento pavloviano o respondiente.

Otro investigador Vladimir Mijailovich Bejterev utilizó estímulos diferentes; un estímulo neutro (sonido) se hizo seguir de una descarga eléctrica.

  • Tipos de reflejos.

Un reflejo condicionado es una conexión nerviosa innata y duradera entre una situación estimulativa precisa y una acción o respuesta fija del organismo.

Los reflejos condicionados son asociaciones nerviosas temporales entre cualquier elemento del medio ambiente y alguna respuesta del organismo.

COMPONENTES DEL CONDICIONAMIENTO PAVLOVIANO.

  • Estímulo incondicionado.

El estímulo incondicionado es cualquier estímulo intenso o potente que suscita una respuesta no aprendida y medible, como por ejemplo el polvo de comida y la descarga eléctrica.

  • Respuesta incondicionada.

La respuesta incondicionada es la respuesta no aprendida y medible, suscitada de forma regular por el estímulo incondicionado, como por ejemplo la salivación.

  • Estímulo condicionado.

El estímulo condicionado es el estímulo que llega a fomentar una respuesta al emparejarse repetidamente con el estímulo incondicionado.

  • Respuesta condicionada.

La respuesta condicionada es la respuesta aprendida que se asemeja a la respuesta incondicionada.

LA RESPUESTA CONDICIONADA COMO ÍNDICE DEL APRENDIZAJE ASOCIATIVO.

La RC como un índice del aprendizaje por asociación entre el EC y el EI.

OPERACIONES DEL CONDICIONAMIENTO CLÁSICO. PROCEDIMIENTOS DEL CONDICIONAMIENTO CLÁSICO.

EI
RI
EN
Ninguna
respuesta
EI + EC
(emparejamiento)
EC
RC

  • Procedimientos de condicionamiento

Antes se creía que la contigϋidad temporal entre el EC y el EI necesaria y suficiente para el condicionamiento pavloviano.

Hoy la situación ha cambiado, lo que se requiere es que se establezca una congruencia predictiva entre el EC y el EI.

  • Relaciones entre el EC y el EI.

    • Simultáneo.

Presentar en el mismo intervalo el EC y el EI es lo que llamamos procedimiento simultáneo.

    • Demorado.

Cuando se administra el EC, inmediatamente al terminar su ocurrencia, se inicia la administración del EI; a éste se lo llama procedimiento demorado.

    • Huella.

Se administra el EC, desaparece y luego de un intervalo ocurre el EI; este es un procedimiento de huella o traza.

    • Retroactivo o retrógrado.

El procedimiento es retroactivo o retrógrado, cuando se presenta primero el estímulo incondicionado, luego el estímulo condicionado.

    • Temporal.

En el procedimiento temporal, se presenta el estimulo incondicionado a intervalos regulares, sin la ocurrencia de EC alguno. El organismo se condiciona al intervalo, que corresponde al estímulo condicionado.

Ø  Procedimientos:

EC


EI

Simultáneo
EI


Demorado
EI


.de huella o traza
EI




Tiempo
































Emparejamientos del EC (trazado superior) con el EI (uno de los trazados inferiores), en el condicionamiento pavloviano, que da cinco relaciones temporales entre dos estímulos (Puente, 1993).

  • Factores que influyen en el condicionamiento.

Factores que influyen en los procesos de adquisición y extinción de las respuestas aprendidas:

a)    Cuanto más frecuentemente se emparejan el EC y el EI, tanto más fuerte se vuelve la RC.
b)    El condicionamiento es más rápido cuando el EC se presenta inmediatamente antes del EI.
c)    El intervalo óptimo depende de un animal a otro, de una especie a otra, y de una situación a otra.
d)    Las respuestas condicionadas se extinguen tan fácilmente como son aprendidas.
e)    El procedimiento para extinguir conductas es la ruptura de la asociación EC y EI.
f)     Una respuesta que se ha extinguido no significa que se ha olvidado.
g)    El condicionamiento siempre deja una huella que puede ser avivada mediante la restauración  de las condiciones originales de aprendizaje.
h)   Si después de un período de extinción se da un descanso al organismo, la conducta aprendida se recupera espontáneamente durante un tiempo corto.
i)     El simple paso del tiempo puede hacer las veces de EC. Si los animales son alimentados a una hora fija, la tendencia es a salivar aproximadamente un minuto antes.



PRINCIPIOS DEL CONDICIONAMIENTO.

  • Adquisición.

El proceso mediante el cual un organismo aprende una asociación.

El EC y el EI son emparejados, el experimentador espera un tiempo  corto y vuelve a emparejarlos.

Cada emparejamiento se llama ensayo.

El emparejamiento funciona como un reforzamiento.

  • Condicionamiento de segundo orden.

Consiste en emplear como EI, un EC que se ha establecido anteriormente, como parte de un condicionamiento. De este modo se pueden encadenar reflejos en estructuras complejas.

Para algunos psicólogos el CSO permite el aprendizaje de algunas actitudes sociales y prejuicios.

Se asocian las palabras (agradables o desagradables) de  grupos étnicos, razas y religiones con reacciones emocionales.

  • Extinción.

Si un EI no se sigue asociando con un EC, la RC del organismo se ira debilitando gradualmente y eventualmente se extinguirá.

  • Recuperación espontánea.

Si interrumpimos el proceso durante un corto tiempo (pausa de reposo), al recibir de nuevo el EC, el animal vuelve a segregar saliva.

  • Generalización y discriminación.

Generalización: otros estímulos o situaciones familiares pueden provocar la misma respuesta.

Discriminación: proceso que comprende el debilitamiento de una respuesta y el fortalecimiento de otra.

CRITERIOS PARA DETERMINAR EL CONDICIONAMIENTO

  • Fundamentos neurológicos del condicionamiento.

 

Asociaciones corticales que se deben a una naturaleza fisiológica donde toda conducta voluntaria e involuntaria es el reflejo de la actividad nerviosa superior y de nuevas sinapsis.

CASOS ESPECIALES DE CONDICIONAMIENTO


·         Pseudocondicionamiento

Es el aumento temporal de la fuerza de la RC, atribuible a factores distintos al emparejamiento EC-EI (señales externas o variables motivacionales).

·         Condicionamiento complejo y compuesto

Tipo de condicionamiento en el que se emplean varios EC; éstos se pueden presentar de forma:

Simultánea
Condicionamiento compuesto
Sucesiva
Condicionamiento complejo

·         Fenómeno de Predominancia o Ensombrecimiento

Consiste en que el estímulo más fuerte asume el control de la RC

·         Fenómeno de Bloqueo (Kamin, 1969)


Se realiza un condicionamiento complejo. Se asocia este complejo de estímulos con la comida y el último estímulo (que nunca fue asociado con la comida) o sea la luz roja, no producirá ningún tipo de RC.

·         Condicionamiento Semántico


Condicionamiento superior ya que involucra la adquisición de significados asociados con estímulos de naturaleza verbal, icónica u objetal.

·      Valor Informativo del EC

En la década de los años ’70 Rescorla, Wagner y otros descubren que no era suficiente la asociación ECEI para que el condicionamiento ocurra.

La hipótesis de Rescorla señala que cuando el EC y el EI tienen alta correlación, o sea, que los dos están presentes o los dos están ausentes, el organismo infiere una relación causal a partir de las relaciones consistentes entre los dos estímulos.

·      Elementos cognitivos

Los datos ofrecidos por Rescorla y otros inducen a pensar que es necesario incluir elementos de carácter cognitivo para hacer una adecuada interpretación del proceso de condicionamiento clásico.

El condicionamiento ocurre no mecánicamente sino mediante mecanismos cognitivos de anticipación y predicción.

·      Condicionamiento biológico

Algunas especies están preparadas genéticamente para realizar ciertas asociaciones mejor que otras, aunque en la presentación del EC y EI transcurran horas (García & cols, 1966ª)


 

John Broadhus Watson

Es el iniciador del conductismo

“Dadme una docena de niños sanos, bien formados, para que los eduque, y yo me comprometo a elegir uno de ellos al azar y adiestrarlo para que se convierta en un especialista de cualquier tipo que yo pueda escoger -médico, abogado, artista, hombre de negocios e incluso mendigo o ladrón- prescindiendo de su talento, inclinaciones, tendencias, aptitudes, vocaciones y raza de sus antepasados”

CONDICIONAMIENTO
INSTRUMENTAL

B. F. Skinner lo denomina Operante.

 

Los organismos aprenden una asociación entre la conducta realizada y las consecuencias que siguen a dicha conducta.


Ejemplo: Si quiero aprobar el examen un examen, organizo un plan serio de estudio y lo ejecuto.

·       Diferencias entre Condicionamiento Clásico e Instrumental


CLASICO
INSTRUMENTAL
1.   Asociación entre EC y EI
1.   Asociación entre una respuesta y las consecuencias reforzantes
2.   El EI no depende de la respuesta del sujeto
2.   Las consecuencias ocurren cuando el sujeto realiza una respuesta crítica
3.   La respuesta es involuntaria generalmente
3.   La respuesta es voluntaria generalmente
4.   La RC es semejante a la RI
4.   La respuesta es frecuentemente arbitraria y usualmente no se parece a la reacción acostumbrada ante el reforzador




§  Ley del Efecto

Definición:

“Cuando las acciones de un animal son seguidas de una experiencia satisfactoria, el animal relacionará tal ejecución con la satisfacción obtenida y estará más propenso a ejecutar las mismas acciones si se encuentra en situaciones similares”

§  Si la acción hace sentir bien al gato, lo hará otra vez.
§  Si no, no lo hará.

Es una asociación automática

Edward L. Thorndyke (1898) realizó un experimento con gatos.

§  Los introdujo dentro de cajas “rompecabezas” cerradas,
§  los gatos podían ver y oler la comida que estaba fuera de la caja,
§  pero no podían conseguirla,
§  a menos que aprendieran la forma de salir de la caja,
§  lo cual lo hacían gradualmente.
§  Los animales aprendieron a tirar una cuerda que abría la caja,
§  los dejaba salir y,
§  les permitía conseguir la comida.

Los gatos aprendieron por ensayo y error ya que acertaban por casualidad, después de aprender el truco.

Thorndyke, explicó el aprendizaje de los gatos refiriéndose al premio que habían conseguido, la comida, y la asociación entre la cuerda y la comida; a esto denominó Ley del efecto.

§  Si la acción hace sentir bien al gato, lo hará otra vez.
§  Si no, no lo hará.

Cada vez que una acción se repite, se obtiene más rápidamente la solución.

La repetición sirve para consolidar el hábito, este es el mecanismo que explica el dominio de una destreza.

·       Principios del Condicionamiento Operante

En 1930, Skinner sigue la tradición de Thorndyke.

·       Triple Relación de Contingencia

Definición de Contingencia:

“Se dice que un evento es contingente a una conducta
si el evento va después de la conducta”

Ejemplo:

Si al encender el ventilador, le sigue el ruido de una sirena; esa relación es contingente.

Definición de Dependencia:

“Se da una relación de dependencia,
cuando la relación de la conducta y sus consecuencias es obligada”

Definición de Reforzador Contingente:

“Un reforzador es contingente a una respuesta, cuando la distribución temporal de las respuestas, determina la distribución temporal de los reforzamientos”




·       Triple Relación de Contingencia (Skinner)

Expresa las relaciones que existen entre la ocasión en que ocurre una respuesta, la respuesta misma y las consecuencias reforzantes.
 

















·       Estímulo Discriminativo

El Estímulo Discriminativo antecede a una conducta y la controla, tiene que ser captada como tal, por la persona o el organismo.

El Estímulo Discriminativo, técnicamente es el estímulo en cuya presencia la probabilidad de una conducta operante es elevada, porque anteriormente estuvo presente cuando fue reforzada.

Ejemplo:

Los semáforos: la luz roja es un estímulo que indica que no se debe cruzar la calle. La luz verde es lo contrario.

Los estímulos discriminativos no son estímulos que produzcan la conducta; ayudan en el control de la conducta pero no la causan.

El semáforo en verde no causa que crucemos la calle, sólo nos indica que es buena la ocasión para hacerlo. Nada más.

·       Consecuencias y Reforzamiento.

En el condicionamiento operante, las consecuencias de la conducta son clasificadas de acuerdo a los efectos sobre la conducta subsecuente.

·       Reforzamiento Positivo.

Cuando una consecuencia incrementa la probabilidad o fortalece la repetición de una conducta que le antecedió se denomina RF.

·       Estímulo Reforzador o Reforzador Positivo.

Es aquel que aumenta la probabilidad de la respuesta.

·       Reforzador Negativo.

Es aquel reforzador que incrementa la probabilidad de la respuesta, eliminando un estímulo desagradable para el organismo.

Ejemplo:

La aspirina que quita el dolor de cabeza es un reforzador negativo.

·       Estímulo Aversivo.

Al estímulo desagradable, se le llama Estímulo Aversivo: el dolor de cabeza.

Este procedimiento se confunde con el castigo.

(El castigo no incrementa la frecuencia de la respuesta, sino que la suprime).

En el Reforzamiento Negativo, una respuesta da por terminada la presentación del estímulo aversivo; consecuentemente, la respuesta volverá a repetirse en condiciones semejantes.

·       Castigo.

El castigo implica un decremento o una supresión de una conducta; existen dos tipos de castigo:

a)   Castigo positivo: ocurre cuando la aparición de un estímulo que sigue a una conducta la suprime o la disminuye.


b)  Castigo por supresión:  supresión de un estímulo positivo.

·       Adquisición.

Factores que influyen para el condicionamiento:


1.   La probabilidad de que la conducta sea reforzada.
2.   El tiempo que transcurre desde que produce la respuesta hasta que se recibe el refuerzo.
3.   La cantidad de refuerzo.
4.   El número de refuerzos.
5.   El estado de motivación del organismo (mucha o poca hambre).

·       Extinción.

La extinción de la conducta operante ocurre cuando el reforzamiento es retirado.

Ejemplos:

ü Si se rompe el semáforo.


QUE FUNCIONARÁN COMO ESTÍMULOS DISCRIMINATIVOS
ü Abrir la despensa y encontrar que está vacía.

·       Generalización.

Es un proceso opuesto a la discriminación. Generalización de estímulos y de respuestas. Ocurren al comienzo y durante el aprendizaje.

Ejemplo: generalización es cuando un estudiante de música confunde diferentes tonalidades musicales, las más próximas las denomina igual.

·       Discriminación.

Es un proceso opuesto a la generalización. La discriminación ocurre cuando el aprendizaje está asentado. Así por ejemplo: cuando una persona diferencia bien los sonidos de dos fonemas, decimos que discrimina bien.

·       Interpretaciones Cognitivas.

La interpretación cognitiva enfatiza las “expectativas” de las consecuencias: de refuerzo o de castigo. El enfoque sostiene que los organismos anticipan recompensas y eso sirve  de motivo para realizar la conducta.

Ejemplo:

En un experimento, un grupo de ratas fue entrenado a presionar una palanca para obtener comida y tirar de una cadena para obtener agua azucarada. Se condicionó para que cada vez que bebieran agua azucarada sintieran náuseas.

Los resultados condujeron a mantener la conducta de presionar la palanca, pero se redujo la conducta de tirar de la cadena.



·       Programas de Reforzamiento.

Un programa de reforzamiento es un patrón de recompensas que mantiene las respuestas condicionadas.


·       Programa Contínuo.

Una rata que recibe recompensas cada vez que presiona la palanca, está sometida a un programa contínuo de reforzamiento: un premio sigue a cada respuesta.

Ejemplo: Unas veces ganamos y otras perdemos. Cuando llamamos por teléfono, algunas veces obtenemos respuestas, otras no.

ü Una respuesta se aprende con más rapidez, si quien aprende es reforzado por cada respuesta correcta.

ü Una vez que la respuesta ha sido aprendida es mejor reforzarla de manera intermitente o parcial, es decir reforzarla con frecuencia.

El reforzamiento intermitente ayuda al estudiante a aprender a no esperar el reforzamiento cada vez.



TIPOS DE PROGRAMAS DE REFORZAMIENTO

PROGRAMA
DEFINICION
EJEMPLO
PATRON DE R
INTERVALO FIJO
Reforzamiento predecible basado en intervalos de tiempo
Reforzar la primera respuesta correcta después de un intervalo de 5 min.
La tasa de respuesta se incrementa conforme se acerca el tiempo del reforzamiento. Pausa después del reforzamiento
INTERVALO VARIABLE
Reforzamiento impredecible basado en intervalos de tiempo cambiantes
Reforzar la primera respuesta correcta después de 5 min. Luego de 7 min., 3 min., 9 min.
Tasa de respuesta lenta y estable: pausa muy breve después del Reforzamiento
RAZÓN FIJA
Reforzamiento predecible basado en un número establecido de respuestas
Reforzamiento cada 10 respuestas correctas.
Tasa de respuesta alta. Pausa después del reforzamiento.

RAZÓN VARIABLE
Reforzamiento impredecible basado en un número variable de respuestas
Reforzamiento de la décima respuesta correcta, luego de la séptima, novena,, décimosegunda, etc.
Tasa de respuesta muy alta; pausa pequeña después del reforzamiento.



·       Reforzadores Primarios y secundarios

Hull estudió los refuerzos, planteó la Teoría de la Reducción de Impulsos, es decir qué es lo que hace que un reforzador refuerce. La mayoría de los psicólogos llama “necesidades primarias” a las que deben ser satisfechas para sobrevivir; el aire, el agua,  el alimento y una temperatura adecuada, son ejemplos de reforzadores primarios.

Primarios
Aire, agua, alimento, temperatura
Secundarios
Elogio, aplauso, etc.
Generalizados
Dinero

Los reforzadores secundarios son los estímulos que adquieren la posibilidad de reforzar el comportamiento gracias a su relación con algún reforzador primario.

Ejemplo: en la caja de Skinner, el ruido producido por el dispensador de comida comida, adquiere la capacidad de ser un reforzador secundario.

·       Encadenamiento

El encadenamiento consiste en una serie de respuestas enlazadas, de tal manera que los estímulos discriminativos de una respuesta son los reforzadores de la anterior.

Ejemplo: es como una cadena donde cada eslabón es una unidad; cada unidad de conducta es como un eslabón que contiene un estímulo discriminativo, una respuesta y una consecuencia.

Las conductas complejas no se aprenden de una vez, sino paulatinamente por aproximaciones sucesivas.





Aplicaciones del encadenamiento:

·        Entrenamiento de animales en el circo.
·        Aprendizaje de conductas académicas, sociales y motoras.

·       Principio de Premack

Cualquier actividad que un organismo descubre como favorita (que desarrolla de forma espontánea y libre) puede ser usada como reforzador, para incrementar las conductas que se dan con una baja frecuencia.

Ejemplo: prometer a los alumnos que si resuelven los problemas de matemáticas satisfactoriamente, podrán ir a jugar fútbol.

·       Medición de la conducta operante

·        Tasa de respuestas: número de respuestas por unidad de tiempo (por minuto).
·        Latencia: lapso transcurrido entre el inicio de la estimulación y  la emisión de una respuesta.
·        Tiempo entre respuestas: tiempo que media entre la ocurrencia de dos respuestas sucesivas. Cuanto más cortos son los tiempos entre respuestas, mayor será la tasa de respuesta.
·        Probabilidad: de ocurrencia de una conducta dentro de un intervalo específico.
·        Amplitud de la respuesta: intensidad o amplitud de una respuesta como el picoteo.

·       Paradigmas de evitación y escape

Diferencia entre ambos:

·        En el escape, el estímulo está presente en el ambiente cuando el sujeto realiza la conducta.
·        En la evitación es la conducta del sujeto la que hace que el estímulo aversivo no aparezca.

Ejemplo: un niño se encuentra en una tienda de juguetes; ante un juguete le pide a su padre que se lo compre, el padre se niega y el niño irrumpe en llanto. Para terminar con la escena el padre decide comprárselo y de esta manera concluye el llanto.

“Papá si no me lo compras, lloraré” = EN

El niño comienza a llorar = Reforzamiento negativo incondicionado y el padre escapa de la situación, comprándole el juguete. En ocasiones futuras, la amenaza será un reforzador condicionado que cumple la función de un estímulo discriminativo para la conducta de evitación del padre.


METODOLOGÍA EXPERIMENTAL


·        PSICOFISICA

Ley de Fechner (1880): “Al aumentar «logarítmicamente» la intensidad del estímulo físico (1 – 2 – 4 – 8 trompetas), la intensidad de la sensación crece «linealmente» (Intensidad del sonido: 1 – 2 – 3 – 4)”

S = k log E

Donde:

S: intensidad experimentada o magnitud de la sensación.
E:             intensidad del estímulo.
K:     valor constante

·        PRUEBAS DE UNA COLA Y DE DOS COLAS


Hipótesis direccional: se formula cuando predecimos la dirección (predicción específica de una teoría) de nuestros resultados.

Ejemplo: podemos predecir que los sujetos recordarán más palabras comunes que no comunes.

La prueba de esta hipótesis se conoce como PRUEBA DE UNA COLA.

Hipótesis no direccional: se formula cuando predecimos una diferencia pero no enfatizamos ninguna dirección esperada.

Ejemplo: podemos predecir que los varones y mujeres diferirán en sus actitudes hacia la homosexualidad masculina, pero no hacemos aseveraciones acerca de quién será más positivo.

La prueba para esta hipótesis se conoce como PRUEBA DE DOS COLAS.

VALORES CRITICOS BAJO DIVERSOS NIVELES DE SIGNIFICACION

¿Cuál es el valor crítico de z cuyas puntuaciones z obtenidas tendrían que sobrepasarse si los resultados debieran considerarse significativos? bajo los siguientes niveles:

Dos colas
10%
2%
1%
Una cola
2.5%
1%
0.01%


·        ERROR TIPO I y ERROR TIPO II


ERROR TIPO I

Error cometido al rechazar la hipótesis nula (Ho) siendo verdadera.

“Si un investigador demanda apoyo para su hipótesis de investigación con un resultado significativo, cuando en realidad las variaciones  en los mismos se deben a variables aleatorias solas, entonces se dice que ocurrió un error tipo I

ERROR TIPO II

Error cometido  al mantener la hipótesis nula (Ho) siendo falsa.

“A través de un diseño defectuoso y un muestreo deficiente, los investigadores pueden fracasar en obtener significancia, a pesar de que el efecto que intentan demostrar en realidad existe, en este caso sería un error tipo II

La hipótesis nula (Ho) en realidad es:


ACEPTADA
RECHAZADA
VERDADERA

Error tipo I
FALSA
Error tipo II


·        DISEÑOS EXPERIMENTALES

Una de las mejores contribuciones de Fisher a los procesos de la psicología experimental es la igualación pre experimental de grupos por aleatorización.

Importancia que pueden asumir diversas contingencias, dependientes de la «acción» conjunta de dos o más variables experimentales.

Lo que se retiene o sobrevive queda en gran parte determinado por el azar. Es aquí donde la experimentación demuestra la importancia del proceso de prueba, exploración y selección.


·        FACTORES QUE ATENTAN CONTRA LA VALIDEZ TANTO INTERNA COMO EXTERNA

VALIDEZ INTERNA
VALIDEZ EXTERNA
Llamamos validez interna a la mínima imprescindible, sin la cual es imposible interpretar el modelo.

Plantea la interrogante de la posibilidad de generalización.



VARIABLES QUE AMENAZAN LA VALIDEZ INTERNA

·        HISTORIA

Los acontecimientos específicos ocurridos entre la primera y la segunda medición, además de la variable experimental.

·        MADURACION

Procesos internos de los participantes, que operan como resultado del mero paso del tiempo (no son peculiares de los acontecimientos en cuestión), y que incluyen el aumento de la edad, el hambre, el cansancio, y similares.

·        ADMINISTRACIÓN DE TESTS.

El influjo que la administración de tests ejerce sobre los resultados de otro posterior.

·        INSTRUMENTACIÓN.

Los cambios en los instrumentos de medición o en los observadores o en los calificadores participantes que pueden producir variaciones en las mediciones que se obtengan.

·        REGRESION ESTADISTICA.

Opera allí donde se han seleccionado los grupos sobre la base de sus puntajes extremos.

·        SESGOS RESULTANTES EN UNA SELECCIÓN DIFERENCIAL.

De participantes para los grupos de comparación.

·        MORTALIDAD EXPERIMENTAL.

Diferencia en la pérdida de participantes de los grupos de comparación.

·        INTERACCION ENTRE LA SELECCIÓN Y LA MADURACION.

En algunos de los diseños cuasi experimentales de grupo múltiple –como el diseño de grupo de control no equivalente- se confunde con el efecto de la variable experimental.



VARIABLES QUE AMENAZAN LA VALIDEZ
EXTERNA O REPRESENTATIVIDAD

·        EL EFECTO REACTIVO O DE INTERPRETACION DE PRUEBAS

Cuando un pretest, podría aumentar o disminuir la sensibilidad o la calidad de la reacción del participante a la variable experimental, haciendo que los resultados obtenidos para una población con pretest no fueran representativos de los efectos de la variable experimental para el conjunto sin pretest del cual se seleccionaron los participantes experimentales.

·        LOS EFECTOS DE INTERACCION DE LOS SESGOS DE SELECCIÓN Y LA VARIABLE EXPERIMENTAL


·        EFECTOS REACTIVOS DE LOS DISPOSITIVOS EXPERIMENTALES

Que impedirían hacer extensivo el efecto de la variable experimental a las personas expuestas a ella en una situación no experimental.

·        INTERFERENCIAS DE LOS TRATAMIENTOS MULTIPLES

Pueden producirse cuando se aplique tratamientos múltiples a los mismos participantes, pues suelen persistir los efectos de los tratamientos anteriores (Ej.: diseños de un solo grupo de tipo 8 ó 9).

CONTROL EXPERIMENTAL DE  VARIABLES EXTRAÑAS

·        ELIMINACIÓN.

La manera más deseable de controlar las variables extrañas, es eliminándolas de la situación experimental.




·        CONSTANCIA EN LAS CONDICIONES.

Cuando no pueden eliminarse ciertas variables extrañas, podemos intentar mantenerlas constantes durante el transcurso del experimento.

Ejemplo:

·        Introducir a los sujetos en la situación experimental a la misma hora.
·        Sesiones experimentales en la misma aula.
·        Grado de escolaridad, sexo y edad.

Cuando no es posible o conveniente, en el experimento, mantener las condiciones constantes, el experimentador debe recurrir a la técnica de equilibrar el efecto de las variables extrañas.

·        Cuando el experimentador no quiere eliminar una variable extraña.
·        Cuando el experimentador iguala una muestra.
·        Cuando hay más de un experimentador.

·        CONTRABALANCEO

Intenta distribuir los efectos de las variables extrañas de igual manera para todas las condiciones.

BALANCEO
Diferencias
CONTRABALANCEO
El balanceo se emplea cuando cada sujeto es expuesto a una condición experimental única.
El contrabalanceo se emplea cuando se llevan a cabo repetidas mediciones en un mismo sujeto

·        SELECCIÓN AL AZAR

Control de selección al azar para los grupos de observación experimental y de control.

La prueba t indica la diferencia obtenida por efecto de la variable experimental, contraria a las fluctuaciones extrañas al azar.


CONDICIONAMIENTO CLÁSICO DE SEGUNDO ORDEN

 


El condicionamiento clásico, también llamado "condicionaimento pavloviano" y "condicionamiento respondiente", es un tipo de aprendizaje animal, causado por la asociación entre dos estímulos. La forma más simple de condicionamiento clásico recuerda lo que Aristóteles llamaría la ley de contigūidad. En esencia, el filósofo dijo "Cuando dos cosas suelen ocurrir juntas, la aparición de una traerá la otra a la mente".
El interés inicial de Pavlov era estudiar la fisiología digestiva, lo cual hizo en perros y le valió un premio Nobel. En el proceso, diseñó el esquema del condicionamiento clásico a partir de sus observaciones:
    EI  ------->  RI
     |
    EC  ------->  RC
La primera línea del esquema muestra una relación natural, no condicionada o incondicionada entre un estímulo (EI = Estímulo incondicionado o natural) y una respuesta (RI = Respuesta incondicionada). Los perros salivan (RI) naturalmente ante la presencia de comida (EI).
Sin embargo, en virtud de la contigüidad temporal, es posible que otro estímulo pase a evocar también la RI, aunque antes no lo hiciera. Por ejemplo, la presencia de un tañido de campana unos segundos antes de la presentación de la comida: después de algunos pocos ensayos, el ruido de la campana evocaría confiablemente y por sí solo la respuesta de salivación. Se completa así la segunda línea, y la campana se convierte en un estímulo condicionado que produce una respuesta condicionada.

·        FENÓMENOS ASOCIADOS

La persistencia del reflejo condicionado depende de la presentación concurrente de sus elementos. Si se deja de presentar el EI después del EC, eventualmente la RC desaparece, fenómeno que se conoce como extinción. Después de que se ha completado este proceso, la respuesta podría reaparecer sin que se presenten los elementos, lo cual se conoce como recuperación espontánea.
Las propiedades formales de los estímulos pueden jugar un papel importante en el proceso de condicionamiento clásico. La RC puede aparecer en presencia de estímulos que no fueron originalmente EC, pero que comparten algunas características con ellos. Por ejemplo, si el EC es un sonido de campana, la RC podría aparecer también ante un timbre, el tic-tac de un reloj u otros ruidos, lo cual se conoce como generalización de la respuesta.
Un EC puede tomar el papel de un EI en un proceso de condicionamiento, de modo que un nuevo estímulo neutro puede convertirse en EC (EC2) asociándose con un primer EC (EC1):
    EI ----------> RI
     |
    EC1 ---------> RC
     |
    EC2 ---------> RC
Fenómeno este que se conoce como condicionamiento de segundo orden. Aparentemente se han documentado casos de condicionamientos hasta de tercer orden, pero son muy difíciles de lograr y mantener.

·        EVIDENCIA EMPÍRICA EN HUMANOS

John B. Watson y una colaboradora demostraron que el proceso de condicionamiento pavloviano podía usarse en humanos y que probablemente constituía una fuente importante de nuestra experiencia, en lo que ha sido llamado el experimento del pequeño Albert. En tiempos más recientes se han identificado procesos de condicionamiento clásico en humanos como:
  • Condicionamiento aversivo al sabor.
  • Náusea condicionada (en quimioterapia, por ejemplo).
  • Condicionamiento de parpadeo.
  • Condicionamiento de reflejo rotuliano.
  • Fobias (como en el caso del pequeño Albert).

APRENDIZAJE PROGRAMADO

1.    El aprendizaje es un cambio de conducta observable causado principalmente por eventos del ambiente.

2.    Las conductas innatas son aquellas que aparecen al nacer o poco después y surgen como consecuencia de la filogenia y la maduración.

3.    Se llama arco reflejo al camino que conduce desde los órganos sensoriales a los músculos a través de los nervios.

4.    El reflejo es el fenómeno nervioso más simple, se compone de una excitación sensorial y de una respuesta motora.

5.    Existen dos tipos de reflejos los monosinápticos y los polisinápticos, el primero tiene lugar como resultado de una conexión sináptica entre una neurona sensorial y una motora.

6.    La flexión de la rodilla es un ejemplo de reflejo patelar.

7.    Soplar el ojo y cerrar el párpado es un ejemplo de reflejo palpebral.

8.    Un parapléjico moverá la pierna al pincharse, aunque no sea consciente del dolor.

9.    Los reflejos polisinápticos son reflejos de muchas sinapsis y un desconocido número de interneuronas.

10.  El reflejo como proceso o mecanismo asociativo está sujeto a un conjunto de leyes básicas, las leyes estáticas y dinámicas.

11.  La Ley del umbral determina la intensidad mínima que debe tener un estímulo para desencadenar la respuesta.

12.  La Ley de la latencia establece la relación entre la intensidad del estímulo y el tiempo que tarda en producir la respuesta. A mayor intensidad del estímulo, menor tiempo se necesita para que la respuesta ocurra.

13.  A la relación entre la intensidad de la respuesta con la intensidad del estímulo se le llama Ley de la magnitud de la respuesta.

14.  La Ley de la postdescarga señala la persistencia de la respuesta después de culminada la acción del estímulo.

15.  Dos estímulos que no tienen suficiente intensidad para desencadenar una respuesta, pueden llega a hacerlo acumulando sus efectos por la Ley de la sumación.

16.  La Ley del período refractario se la conoce como aquella donde, una vez emitida la respuesta, el sistema requiere un período definido para emitir una nueva respuesta.

17.  Al descenso de la respuesta cuando el estímulo se repite con mucha frecuencia se conoce como Ley de la fatiga.

18.  La Ley de la Facilitación dice que la incorporación de un estímulo ajeno al reflejo puede incrementar la fuerza del reflejo.

19.  Ley de la Inhibición: la fuerza del reflejo se reduce por la acción de un estímulo ajeno al reflejo.

20.  En la Ley conocida como del condicionamiento tipo S, la aplicación simultánea de dos estímulos, uno reforzante asociado a un reflejo existente, y otro neutral, producirá un incremento en la fuerza de la relación de un nuevo reflejo.

21.  En la Ley del condicionamiento tipo R, si se aplica un estímulo reforzante después de la aparición de una respuesta, ésta se incrementa.

22.  En la Ley de la extinción, un reflejo se reduce o desaparece si se deja de aplicar el estímulo reforzante.

23.  Cualquier ruido, evento o situación pone en funcionamiento una parte de la musculatura del esqueleto animal (orejas, cola, etc.) o el animal se queda tieso en una determinada posición, a esto se denomina reflejo de orientación.

24.  Karl Lorentz, al hablar de la impronta fue el investigador que primero observó las formaciones de apego tempranas en varias especies.

25.  La taxia es la orientación de un ser vivo bajo la influencia de un estímulo externo.

26.  A la habituación, sensibilización, pseudocondicionamiento e inhibición podemos llamar conductas elementales aprendidas.

27.  El condicionamiento clásico se denomina también condicionamiento pavloviano o respondiente.

28.  Vladimir Mijailovich Bejterev utilizó estímulos diferentes; un estímulo neutro (sonido) se hizo segu0ir de una descarga eléctrica.

29.  Un reflejo incondicionado es una conexión nerviosa innata y duradera entre una situación estimulativa precisa y una acción o respuesta fija del organismo.

30.  Los reflejos condicionados son asociaciones nerviosas temporales entre cualquier elemento del medio ambiente y alguna respuesta del organismo.

31.  Un estímulo es un cambio en el estado energético del ambiente que modifica el sistema receptor de algún órgano sensorial.

32. El estímulo incondicionado es cualquier estímulo intenso o potente que suscita una respuesta no aprendida y medible. El polvo de comida y la descarga eléctrica, son ejemplos de EI.

33.  La respuesta incondicionada es la respuesta no aprendida y medible, suscitada de forma regular por el estímulo incondicionado, como por ejemplo la salivación.

34.  El estímulo condicionado es el estímulo que llega a fomentar una respuesta al emparejarse repetidamente con el estímulo incondicionado.

35.  La respuesta condicionada es la respuesta aprendida que se asemeja a la respuesta incondicionada.

36.  En el condicionamiento clásico de defensa, se aprende una segunda respuesta de miedo: también puede ser un modelo simplificado de las fobias.

37.  Presentar en el mismo intervalo el EC y el EI es lo que llamamos procedimiento simultáneo.

38.  Cuando se administra el EC, inmediatamente al terminar su ocurrencia, se inicia la administración del EI; a éste se lo llama procedimiento demorado.

39.  Se administra el EC, desaparece y luego de un intervalo ocurre el EI; este es un procedimiento de huella o traza.

40.  El procedimiento es retroactivo o retrógrado, cuando se presenta primero el estímulo incondicionado, luego el estímulo condicionado.

41.  En el procedimiento temporal, se presenta el estimulo incondicionado a intervalos regulares, sin la ocurrencia de EC alguno. El organismo se condiciona al intervalo, que corresponde al estímulo condicionado.

42.  El proceso mediante el cual un organismo aprende una asociación en el condicionamiento clásico se denomina adquisición.

43.  El condicionamiento de segundo orden consiste en emplear como estímulo incondicionado, un estímulo condicionado que se ha establecido anteriormente como parte de un condicionamiento, de este modo se pueden encadenar reflejos.

44.  Si un estímulo incondicionado no se sigue asociando con el estímulo condicionado, la respuesta condicionada gradualmente se irá debilitando y eventualmente se extinguirá.

45.  Se llama fenómeno de recuperación espontánea cuando interrumpimos el proceso durante un corto tiempo (pausa de reposo), y al recibir de nuevo el estímulo condicionado, el animal vuelve a segregar saliva.

46.  Una vez que un organismo ha sido condicionado a responder a un determinado estímulo, otros estímulos o situaciones familiares pueden provocar la misma respuesta; este fenómeno se conoce como generalización.

47.  La magnitud, la latencia, el número de ensayos y la resistencia a la extinción son criterios para determinar el condicionamiento.

48.  Thorndyke desarrolló experimentos con gatos. Explicó el aprendizaje refiriéndose al premio que habían conseguido (la comida) y a la asociación que los gatos establecieron entre la cuerda que los liberaba y la comida. A este proceso denominó Ley del Efecto.

49.  El estímulo discriminativo es un estímulo que antecede a una conducta.

50.  Al aumento temporal de la fuerza de la respuesta condicionada, atribuible a factores distintos al emparejamiento del estimulo condicionado – estímulo incondicionado se le llama pseudocondicionamiento.

51.  Los condicionamientos, compuesto y complejo, donde se emplean varios estímulos condicionados, se presentan de forma simultánea y sucesiva.

52.  El fenómeno de predominancia consiste en que el estímulo más fuerte asume el control de la RC

53.  Se realiza un condicionamiento clásico, pero se añade un estímulo neutro (una luz roja) que forma un estímulo condicionado complejo. Se asocia este complejo de estímulos con la comida y el último estímulo (que nunca fue asociado con la comida) o sea la luz roja, no producirá ningún tipo de respuesta condicionada; esto se denomina fenómeno de bloqueo.


54.  El condicionamiento semántico es un condicionamiento superior ya que involucra la adquisición de significados asociados con estímulos de naturaleza verbal, icónica y objetal.

55.  Reflejo es a condicionamiento clásico, como operante es a condicionamiento instrumental.

56.  La asociación entre un estímulo condicionado y un estímulo incondicionado, es propio del “Condicionamiento Clásico

57. A la asociación entre una respuesta y las consecuencias reforzantes se le llama “Condicionamiento Instrumental”.

58. “Cuando las acciones de un animal son seguidas de una experiencia satisfactoria, el animal relacionará tal ejecución con la satisfacción obtenida y estará más propenso a ejecutar las mismas acciones si se encuentra en situaciones similares”; a esta ley se la conoce como Ley del Efecto.

59.  En los experimentos de Edward L. Thorndyke (1898) los gatos aprendieron por ensayo y error, ya que acertaban por casualidad, después de aprender el truco.

60.  Se dice que un evento es contingente a una conducta, si el evento va después de la conducta.

61.  Se da una relación de dependencia, cuando la relación de la conducta y sus consecuencias es obligada”

62.  Un reforzador es contingente a una respuesta, cuando la distribución temporal de las respuestas, determina la distribución temporal de los reforzamientos.

63.  La Triple Relación de Contingencia expresa las relaciones que existen entre la ocasión en que ocurre una respuesta, la respuesta misma y las consecuencias reforzantes.

64.  El estímulo discriminativo, técnicamente es el estímulo en cuya presencia la probabilidad de una conducta operante es elevada, porque anteriormente estuvo presente cuando fue reforzada.

65.  El semáforo es un  ejemplo de estímulo discriminativo.

66.  El reforzamiento positivo ocurre cuando una consecuencia incrementa la probabilidad o fortalece la repetición de una conducta que le antecedió.

67.  Un reforzador positivo es aquel que aumenta la probabilidad de la respuesta.

68.  El reforzador negativo es aquel reforzador que incrementa la probabilidad de la respuesta, eliminando un estímulo desagradable para el organismo.

69.  La aspirina que quita el dolor de cabeza es un reforzador  negativo.

70.  Al estímulo desagradable: el dolor de cabeza, se le llama estímulo aversivo.

71.  El castigo no incrementa la frecuencia de la respuesta, sino que la suprime:

72.  En el reforzamiento negativo, una respuesta da por terminada la presentación del estímulo aversivo; consecuentemente, la respuesta volverá a repetirse en condiciones semejantes.

73.  El castigo positivo ocurre cuando la aparición de un estímulo que sigue a una conducta la suprime o la disminuye.


74.  A la supresión de un estímulo positivo, se le llama castigo por supresión.

75.  La extinción de la conducta operante ocurre cuando el reforzamiento es retirado.

76.  Un estudiante de música confunde diferentes tonalidades musicales, las más próximas las denomina igual, este es un ejemplo de generalización de estímulos.

77.  Cuando una persona diferencia bien los sonidos de dos fonemas, decimos que discrimina bien.

78.  La interpretación cognitiva enfatiza las “expectativas” de las consecuencias de refuerzo o de castigo. El enfoque sostiene que los organismos anticipan recompensas y eso sirve  de motivo para realizar la conducta.

79.  A un patrón de recompensas que mantiene las respuestas condicionadas, se le llama programa de reforzamiento.

80.  Una rata que recibe recompensas cada vez que presiona la palanca, está sometida a un programa contínuo de reforzamiento: un premio sigue a cada respuesta.

81.  Cuando llamamos por teléfono, algunas veces obtenemos respuestas, otras no; a esto se puede denominar programa intermitente.

82.  Una respuesta se aprende con más rapidez, si quien aprende es reforzado por cada respuesta correcta.

83.  Una vez que la respuesta ha sido aprendida es mejor reforzarla de manera intermitente o parcial, es decir reforzarla con frecuencia.

84.  El reforzamiento intermitente ayuda al estudiante a aprender a no esperar el reforzamiento cada vez.

85.  Al reforzamiento predecible basado en intervalos de tiempo se le llama intervalo fijo, porque refuerza la primera respuesta correcta después de un intervalo de 5 min.

86.  Intervalo variable es un programa de reforzamiento impredecible, cuya tasa de respuesta  es lenta y estable

87.  Un reforzamiento cada 10 respuestas correctas con una tasa de respuesta alta y basado en un número establecido de respuestas es comúnmente llamado programa de razón fija.

88.  Al reforzamiento de la décima respuesta correcta, luego de la séptima, la novena, la décimo segunda, etc., con una tasa de respuesta muy alta, responde al nombre de programa de razón  variable.

89.  El alimento y la temperatura adecuada son ejemplos de reforzadores primarios; el elogio y el reconocimiento son ejemplos de reforzadores secundarios, en tanto que el dinero es un reforzador generalizado.

90.  Los reforzadores secundarios son los estímulos que adquieren la posibilidad de reforzar el comportamiento gracias a su relación con algún reforzador primario.

91.  En la caja de Skinner, el ruido producido por el dispensador de comida, adquiere la capacidad de ser un reforzador secundario.

92.  El encadenamiento consiste en una serie de respuestas enlazadas, de tal manera que los estímulos discriminativos de una respuesta son los reforzadores de la anterior.

93.  Las conductas complejas no se aprenden de una vez, sino paulatinamente por aproximaciones sucesivas.

94.  El entrenamiento de animales en el circo es una aplicación del encadenamiento.

95.  En el principio de Premack, cualquier actividad que un organismo descubre como favorita (que desarrolla de forma espontánea y libre) puede ser usada como reforzador, para incrementar las conductas que se dan con una baja frecuencia.

96.  Prometer a los alumnos que, si resuelven los problemas de matemáticas satisfactoriamente, podrán ir a jugar fútbol, es un ejemplo del Principio de Premack y sirve para incrementar la conducta que se da con una baja frecuencia.

97.  La medición de la conducta operante determina una tasa de respuesta, como aquella medición del número de respuestas por unidad de tiempo.

98.  El lapso transcurrido entre el inicio de la estimulación y  la emisión de una respuesta, se llama latencia.

99.  Al tiempo que media entre la ocurrencia de dos respuestas sucesivas se le llama tiempo entre respuestas. Cuanto mas cortos son los tiempos entre respuestas, mayor será la tasa de respuesta.

100.      Amplitud de la respuesta es la intensidad o amplitud de una respuesta como el picoteo de la paloma en el disco.

101.      En el escape, el estímulo está presente en el ambiente, cuando el sujeto realiza la conducta.

102.     En la evitación, es la conducta del sujeto la que hace que el estímulo aversivo no aparezca.

103.     En una situación de aprendizaje de evitación el animal aprende a dar una respuesta emocional condicionada –temor- (estado de motivación) al sonido que precede a la descarga eléctrica u otro estímulo doloroso y que el temor se condiciona según principios pavlovianos. El animal evita la descarga no sólo para no recibirla sino para escapar del estado emocional condicionado por el sonido, a esto se llama Teoría de los dos factores de Mowrer.

104.     A la convicción –por parte de una persona o un animal- de que ha perdido el control se le llama indefensión.

105.     La indefensión aprendida se da en sujetos incapaces de motivarse y de aprender una respuesta que pudiera controlar una situación, cuyo resultado traumático conduce al miedo y la depresión, por ejemplo el maltrato físico de mujeres y niños; ellos adoptan una actitud de indefensión caracterizada por un déficit motivacional y cognitivo.

106.     Al moldeamiento, desvanecimiento, economía de fichas, contrato de contingencias, concentración en las conductas positivas se les llama técnicas de modificación de conducta.

107.     Las conductas complejas que pueden descomponerse en otras más sencillas y que permiten al terapeuta o al docente trabajar cada uno de los eslabones de la cadena conductual, se denomina moldeamiento.

108.     El desvanecimiento forma parte del control de estímulos y consiste en retirar gradualmente los estímulos provocadores: un profesor muestra un dibujo de un pato junto a la palabra “pato” para que el niño la lea; en dibujos posteriores se va borrando el dibujo del pato, hasta que queda sólo la palabra “pato”.

109.     Se establece un programa de reforzamiento con ayuda de fichas, previa selección de la conducta que se desea cambiar, esta técnica se llama economía de fichas.

110.     Al acuerdo o contrato entre terapeuta y paciente se le llama contrato de contingencias.

111.     Advertir un progreso manifiesto es refuerzo suficiente para que la conducta se incremente o se mantenga, a esto se llama concentración en las conductas positivas.


---000OO+OO000----

No hay comentarios.: