Buscar

Comportamento Operanteaa


Prévia do material em texto

• "Comportamento Operante" é um termo da psicologia que se refere a um 
comportamento que é controlado por suas consequências. Ou seja, ele pode ou 
não ocorrer dependendo das consequências que se seguem a ele. Por exemplo, se 
um comportamento é seguido por uma recompensa, é mais provável que ele 
ocorra novamente no futuro. No entanto, se o comportamento é seguido por uma 
punição, é menos provável que ele ocorra novamente. 
Estímulo Antecedente → Evoca → Resposta Evocada → Produz → Consequência 
• "Comportamento Respondente" é um comportamento que é eliciado por um 
estímulo específico e não pelo ambiente em geral. (100% de chance de 
acontecer) 
• Treino discriminativo - estímulo só é discriminativo se ele torna a resposta 
mais provável, por estar sistematicamente correlacionado ao reforçador. Neste 
caso, dizemos que ocorreu uma discriminação de estímulos, ou simplesmente 
um controle de estímulos. 
• Estímulo discriminativo e delta (SD e SΔ) - 
O estímulo discriminativo (SD) é um sinal que indica que um comportamento 
específico será reforçado. 
O delta (SΔ) é um sinal que indica que um comportamento específico não será 
reforçado. 
• Controle de estímulos - O controle de estímulos refere-se a como os estímulos 
ambientais influenciam o comportamento dos indivíduos. (discriminação de 
estímulos, ou simplesmente um controle de estímulos.) 
O controle de estímulos refere-se à influência que os estímulos têm sobre o 
comportamento de um organismo. Esses estímulos podem incluir sinais, pistas, 
contextos e eventos ambientais que afetam a probabilidade de um 
comportamento ocorrer em determinadas circunstâncias. 
→ SD → EVOCA → RESPOSTA EVOCADA → PRODUZ → CONSEQUENCIA 
→ SΔ - NÃO EVOCA → RESPOSTA → NÃO PRODUZ → CONSEQUENCIA 
• Generalização de estímulos - Generalização de estímulos é parte do processo 
de controle de estímulos. que descreve a resposta a estímulos semelhantes ao 
estímulo original que provocou a resposta. É um princípio fundamental no 
condicionamento clássico e operante. 
A generalização de estímulos é um processo no qual um organismo responde de 
maneira semelhante a estímulos que são semelhantes, mas não idênticos, ao estímulo 
originalmente treinado. Em outras palavras, o comportamento aprendido em relação a 
um estímulo específico é estendido para outros estímulos que compartilham 
características semelhantes. 
• Maneira mentalista: Nós não dizemos, por exemplo que uma criança 
discriminou o laranja, ou generalizou a habilidade que aprendeu na escola para o 
ambiente domiciliar. O uso desses termos dá margem para o fato de ela é 
responsável pelos processos cognitivos, quando foi uma relação entre ambiente e 
suas ações! 
• Diferença de Evento antecedente para estímulo antecedente? - Um evento 
antecedente é qualquer coisa que acontece imediatamente antes de um 
comportamento específico e pode influenciá-lo. Um estímulo antecedente é um 
tipo específico de evento antecedente, que é uma mudança ambiental que ocorre 
antes de um comportamento e tem a capacidade específica de influenciar se o 
comportamento vai acontecer ou não. 
Diferencia um bom observador de comportamentos de um psicólogo é o emprego de sua 
LINGUAGEM TÉCNICA, bem como o conhecimento sistemático de procedimentos e 
uma avaliação refinada sobre o comportamento humano 
• Treino discriminativo - pode ser encontrado em um ambiente de treinamento 
de animais, como o treinamento de um cão para distinguir entre dois estímulos 
visuais diferentes, como círculos de cores diferentes, que indicam diferentes 
comportamentos a serem executados. 
• Estímulo discriminativa (SD) - Luz acessa sniffy aperta (Estímulo 
discriminativo) = SD 
Um círculo azul é apresentado como o estímulo discriminativo para o comando 
"sentar". 
• O delta (SΔ) - Luz apagada não aperta (Escuro = Estímulo Delta) SΔ 
Um círculo vermelho é apresentado, indicando que o comando "sentar" não deve ser 
executado. 
Resposta: 
O cão associa o círculo azul com o comando "sentar" e executa a ação de sentar-se 
quando vê o círculo azul. Quando vê o círculo vermelho, ele não executa a ação, pois 
não é o estímulo discriminativo associado ao comando "sentar". 
Consequência: 
Quando o cão se senta corretamente após ver o círculo azul (SD), ele é recompensado 
com um petisco ou elogio, o que reforça a associação entre o estímulo discriminativo e a 
resposta correta. Quando ele não se senta após ver o círculo vermelho (SΔ), não há 
recompensa, o que ajuda a diferenciar entre os estímulos discriminativos e não 
discriminativos. 
Neste exemplo, o treino discriminativo ocorre quando o cão aprende a associar o círculo 
azul (SD) com a resposta desejada (sentar), enquanto o círculo vermelho (SΔ) indica 
que a resposta não é desejada. Isso demonstra um controle de estímulos, onde os 
estímulos têm uma relação sistemática com as consequências do comportamento, 
influenciando assim a probabilidade de ocorrência do comportamento. 
Um exemplo de treino discriminativo pode ser encontrado em um ambiente de 
treinamento de animais, como o treinamento de um cão para distinguir entre dois 
estímulos visuais diferentes, como círculos de cores diferentes, que indicam diferentes 
comportamentos a serem executados. 
• Generalização de estímulos 
Generalização de Estímulos Visuais: Se o cão aprendeu a "sentar" em resposta a uma 
pessoa específica, ele pode generalizar esse comportamento para outras pessoas que se 
assemelham à pessoa original, como outras pessoas da família ou amigos. 
Generalização de Estímulos Auditivos: Se o cão foi treinado para "sentar" em 
resposta a um tom de voz específico, ele pode generalizar esse comportamento para 
outros tons de voz que são semelhantes ao tom originalmente treinado. 
Generalização de Estímulos de Contexto: Se o cão foi ensinado a "sentar" em um 
local específico da casa, ele pode generalizar esse comportamento para outros locais da 
casa que possuam características semelhantes. 
Nem todas as classes de respostas têm consequências consistentes [...] O reforço 
intermitente [...] é uma característica geral do comportamento. Encontrar um produto 
particular não é consequência invariável de ir a um supermercado; obter (Este texto 
aborda o conceito de reforço intermitente, uma técnica de condicionamento operante na 
qual as respostas não são reforçadas todas as vezes. Um exemplo é fornecido, indicando 
que não se encontra sempre um produto específico ao ir ao supermercado, mostrando 
que as consequências não são sempre consistentes.) 
arranjos que especificam que respostas, dentro de uma classe operante, serão reforçadas 
• Reforço Contínuo - O reforço contínuo ou regular, que é o reforço de cada 
resposta dentro da classe operante, é a exceção mais do que a regra (estratégia de 
condicionamento em que uma resposta é reforçada ou recompensada cada vez 
que ocorre, tornando-a mais provável de ser repetida.) (comportamento é 
recompensado toda vez que ocorre, o que geralmente leva a uma rápida 
aprendizagem.) 
• Reforço Intermitente - Reforço intermitente ou parcial é "o reforço de algumas 
respostas, mas não de outras" (comportamento desejado é recompensado apenas 
ocasionalmente. Isso pode resultar em uma aprendizagem mais lenta, mas tende 
a produzir comportamentos mais resistentes à extinção.) 
Os principais esquemas de reforço intermitente são: razão fixa e variável, intervalo 
fixo e variável. 
• Esquemas de Razão - o reforço é liberado a cada x respostas emitidas. (O 
reforço é entregue após um número fixo de respostas corretas.) 
Os dois principais tipos são: razão fixa e razão variável. Quando o esquema é de 
razão fixa, o número de respostas exigido é fixo, enquanto quando o reforço é 
variável, esse número de respostas varia. 
→ Razão Fixa (FR) - O reforço é entregue após um número fixo de respostas corretas. 
(altas taxas de respostas, taxas de respostas aproximadamente constantes, pausa pós 
reforço) 
Altastaxas de respostas: Sob um esquema de razão fixa, os sujeitos tendem a responder 
rapidamente para obter o reforço, já que sabem exatamente quantas respostas são 
necessárias para receber a recompensa. Isso resulta em altas taxas de resposta. 
Taxas de respostas aproximadamente constantes: As taxas de respostas permanecem 
relativamente constantes enquanto o esquema de razão fixa é mantido. Isso ocorre 
porque os sujeitos mantêm um ritmo constante de respostas para atender à exigência 
fixa para ganhar o reforço. 
Pausa pós-reforço: Após receberem o reforço, os sujeitos podem fazer uma breve pausa 
antes de iniciar o próximo ciclo de respostas. Isso ocorre porque eles sabem que 
precisarão emitir um número específico de respostas novamente para obter outra 
recompensa. 
→ Razão Variável - O reforço é entregue após um número variável de respostas 
corretas, mas com uma média previsível. 
Altas taxas de respostas: Assim como na razão fixa, os sujeitos respondem rapidamente 
em um esquema de razão variável, pois desejam receber o reforço. No entanto, em um 
esquema de razão variável, o número de respostas necessárias para o reforço varia. 
Taxas de respostas constantes: Embora o número de respostas necessárias varie, a 
média é constante. Isso significa que os sujeitos mantêm uma taxa de resposta estável ao 
longo do tempo para atender à média necessária para receber o reforço. 
Ausência de pausa pós-reforço: Devido à natureza variável do esquema, os sujeitos 
tendem a não fazer pausas prolongadas após receberem o reforço. Em vez disso, eles 
continuam a responder consistentemente, pois não sabem exatamente quando o próximo 
reforço será entregue. 
• Esquemas de intervalo - No esquema de intervalo, uma única resposta deve ser 
emitida após ter passado um determinado período de tempo, fixos ou variáveis, 
obedecendo às mesmas condições vistas nos de razão, mas funcionando sob 
controle de tempo. 
→ Intervalo Fixo (FI) - Taxa de respostas baixa no começo do intervalo que aumenta 
no final, maiores pausas pós-reforço (efeito scallop) e respostas que ocorrem no meio do 
intervalo não têm efeito (O reforço é entregue após um período de tempo fixo decorrido 
desde a última resposta correta.) 
Taxa de respostas baixa no começo do intervalo que aumenta no final: Sob um 
esquema de intervalo fixo, os sujeitos geralmente apresentam uma taxa de respostas 
baixa logo após receberem o reforço. Conforme o intervalo progride, a taxa de respostas 
aumenta gradualmente à medida que se aproximam do momento em que o próximo 
reforço estará disponível. 
Maiores pausas pós-reforço (efeito scallop): Após receberem o reforço, os sujeitos 
exibem uma pausa prolongada antes de retomarem a resposta. Esse padrão de resposta, 
com uma curva semelhante a um "scallop" (cascalho), é chamado de efeito scallop. 
Respostas que ocorrem no meio do intervalo não têm efeito: As respostas emitidas 
durante o intervalo de tempo em que o reforço não está disponível não são reforçadas. 
Portanto, as respostas feitas durante esse período não têm efeito na obtenção de 
recompensas. 
→ Intervalo Variável (VI) - Alta taxa de respostas, ausência de pausas pós-reforço e 
respostas que ocorrem no meio do intervalo não têm efeito. (O reforço é entregue após 
um período de tempo variável decorrido desde a última resposta correta, mas com uma 
média previsível.) 
Alta taxa de respostas: Sob um esquema de intervalo variável, os sujeitos exibem uma 
taxa de respostas relativamente alta, pois não podem prever exatamente quando o 
próximo reforço estará disponível. Isso os incentiva a continuar respondendo. 
Ausência de pausas pós-reforço: Após receberem o reforço, os sujeitos geralmente não 
exibem uma pausa prolongada. Em vez disso, eles continuam a responder sem 
interrupção, pois não sabem quando o próximo reforço será entregue. 
Respostas que ocorrem no meio do intervalo não têm efeito: Da mesma forma que no 
intervalo fixo, as respostas feitas durante o intervalo de tempo em que o reforço não está 
disponível não são reforçadas. Portanto, não têm efeito na obtenção de recompensas. 
• Resistência à extinção 
se refere ao número de respostas emitidas após a quebra da relação entre resposta e 
consequência até que o comportamento retorne ao nível operante (ou ainda o tempo que 
isso leva para ocorrer). 
Um dos fatores que determina a resistência à extinção é o esquema de reforçamento ao 
qual a resposta foi submetida. Reforçamento contínuo gera pouca resistência à extinção, 
enquanto o reforçamento intermitente, mais! 
Quanto mais variável for a intermitência do reforço, ainda mais resistência à extinção a 
resposta sofrerá! Então cuidado ao reforçar um comportamento de maneira intermitente 
e inconsistente, pois isso irá prejudicar ainda mais a situação! 
(é o quanto um comportamento continua a ocorrer mesmo após a quebra da relação 
entre a resposta e a consequência (o reforço). Quando um comportamento é 
consistentemente reforçado, isto é, recompensado toda vez que ocorre (reforço 
contínuo), ele tende a apresentar pouca resistência à extinção. Isso significa que, uma 
vez que o reforço é interrompido, o comportamento pode diminuir rapidamente ou 
até mesmo desaparecer.) 
(Por outro lado, quando um comportamento é reforçado de forma intermitente, ou 
seja, de maneira irregular, com recompensas entregues apenas ocasionalmente, ele 
tende a exibir maior resistência à extinção. Isso ocorre porque o sujeito aprende que 
o reforço pode ocorrer a qualquer momento, mesmo que não seja toda vez que o 
comportamento é emitido. Portanto, ele continua a exibir o comportamento mesmo 
quando o reforço não é imediato.) 
(Além disso, quanto mais variável for a intermitência do reforço (como nos 
esquemas de reforço variável), mais resistência à extinção o comportamento tende a 
apresentar. Isso ocorre porque a imprevisibilidade do reforço torna mais difícil para 
o sujeito discernir quando o comportamento não será mais recompensado, 
levando-o a persistir na sua emissão por mais tempo.) 
• Reforço Contínuo - Um treinador de cães dando um petisco sempre que o cão 
se senta corretamente. 
Imagine um treinador de cães que está ensinando um cachorro a sentar. Cada vez que o 
cachorro se senta corretamente, ele recebe um petisco. Se o treinador continuar 
fornecendo petiscos toda vez que o cachorro se sentar, mas de repente parar de reforçar 
o comportamento, é mais provável que o cachorro pare de sentar rapidamente, pois ele 
está acostumado a receber uma recompensa a cada vez que executa o comportamento. 
• Reforço Intermitente - Um pescador que ocasionalmente pega peixes enquanto 
espera por longos períodos. 
Agora, imagine que o treinador de cães decide reforçar o comportamento de sentar de 
forma intermitente. Às vezes, o cachorro recebe um petisco quando se senta, mas outras 
vezes não recebe. Se o treinador para de reforçar o comportamento de forma 
consistente, o cachorro pode continuar a sentar por mais tempo, esperando pelo próximo 
petisco, mesmo que não venha imediatamente. Isso é devido à natureza imprevisível do 
reforçamento intermitente, o que torna o comportamento mais resistente à extinção. 
• Razão Fixa (FR) - a cada cinco vezes que um rato pressiona uma alavanca, ele 
recebe uma recompensa. 
• Razão Variável (FR) - programa de fidelidade de uma companhia aérea. 
Digamos que a companhia ofereça pontos de recompensa a seus clientes por 
cada voo realizado. No entanto, a quantidade de pontos ganhos varia de acordo 
com diversos fatores, como a distância do voo, o preço do bilhete, ou promoções 
especiais. Assim, enquanto os passageiros sabem que serão recompensados por 
cada voo, a quantidade de pontos que recebem é variável, o que mantém seu 
comportamento de voar com a companhia aérea em busca de recompensas, 
mesmo sem saber exatamente quantos pontos ganharão em cada viagem. 
• Intervalo Fixo (FI) - Um professorque dá uma pausa de 10 minutos após cada 
hora de aula. 
• Intervalo Variável (VI) - Em um esquema de razão variável 5 (RV5), um rato 
pode receber um alimento após três, cinco ou sete pressionadas de alavanca, mas 
com uma média de cinco pressionadas para cada recompensa. 
• Resistencia a extinção: 
• Reforço Contínuo: 
Imagine que você está ensinando seu cão a sentar. Cada vez que ele se senta 
corretamente, você o recompensa com um petisco. Se você parar de reforçar esse 
comportamento (parar de dar petiscos toda vez que ele se senta), é provável que o 
comportamento de se sentar diminua rapidamente ou desapareça completamente. Isso 
ocorre porque o comportamento estava sendo reforçado continuamente, então o cão 
aprendeu que a resposta (sentar-se) levava sempre à consequência desejada (o petisco). 
• Reforço Intermitente (Razão Variável): 
Suponha que você está jogando em uma máquina caça-níqueis em um cassino. Às 
vezes, você ganha dinheiro após algumas rodadas, outras vezes precisa jogar mais vezes 
antes de ganhar. A imprevisibilidade de quando você vai ganhar mantém você jogando, 
mesmo quando você não ganha imediatamente. Isso mostra a resistência à extinção 
devido ao reforço intermitente. 
• Reforço Intermitente (Intervalo Variável): 
Imagine que você está treinando um pombo para bicar uma barra de alimentação em um 
intervalo variável de tempo. Às vezes, o pombo recebe comida após 1 minuto, outras 
vezes após 3 minutos, e assim por diante. Mesmo que o pombo não receba comida 
imediatamente após bicar a barra, ele continuará a bicar, pois aprendeu que o reforço 
pode ocorrer a qualquer momento, mantendo assim a resistência à extinção. 
• Tríplice Contingência - Relação entre o comportamento de um organismo, o 
ambiente e as consequências desse comportamento. 
1. Antecedente (Estímulo Discriminativo): Este é o evento ou estímulo que 
ocorre antes do comportamento e que sinaliza a disponibilidade de 
consequências. O antecedente pode ser um estímulo específico, uma situação 
ambiental ou uma instrução verbal que influencia a probabilidade de o 
comportamento ocorrer. 
2. Comportamento (Resposta): Refere-se à ação ou reação do organismo diante 
do estímulo discriminativo. É o que o organismo faz em resposta ao estímulo 
presente no ambiente. 
3. Consequência: São as alterações no ambiente que ocorrem após o 
comportamento do organismo. As consequências podem ser positivas 
(reforçadoras), negativas (punidoras) ou neutras, e influenciam a probabilidade 
de o comportamento ocorrer novamente no futuro. 
• Três Funções do Estímulo: 
• Antecedente 
Isso implica que um mesmo estímulo pode apresentar (pelo menos) três funções: 
estímulo discriminativo (SD), estímulo reforçador condicionado (SR+) e Estímulo 
eliciador condicional (SElic). Em um comportamento ENCADEADO, essas três 
funções poderão estar presentes concomitantemente. 
1. Estímulo Discriminativo (SD): Indica a probabilidade de reforço ou punição de 
um comportamento. 
2. Estímulo Reforçador Condicionado (SR+): Um estímulo neutro que se torna 
reforçador devido ao pareamento com um estímulo reforçador. 
3. Estímulo Eliciador Condicional (SElic): Um estímulo que evoca uma resposta 
que foi previamente reforçada. 
• Encadeamento de respostas - Um comportamento encadeado, ou contingência 
encadeada, nós temos uma situação em que a consequência da resposta anterior 
funciona como estímulo discriminativo para a próxima resposta. 
• Encadeamento de trás para frente - É uma técnica para ensinar sequências de 
comportamentos em que se começa pela última parte da sequência e avança 
progressivamente para as partes anteriores. 
• Reforçador Condicionado - Estímulo é sistematicamente pareado a outro 
estímulo, ele pode assumir a função dele. É um estímulo neutro que adquire 
propriedades reforçadoras por ter sido pareado consistentemente com um 
estímulo reforçador. 
• Reforço Condicionado Generalizado - Se um estímulo neutro for emparelhado 
com dois ou mais estímulos reforçadores, teremos a construção de um reforço 
condicionado generalizado 
• É fácil esquecer as origens dos reforçadores generalizados e encará-los como 
reforçadores por si mesmos. Falamos da 'necessidade de atenção, aprovação ou 
afeto', da 'necessidade do domínio' e do 'amor ao dinheiro' como se fossem 
condições primárias de privação, [ou seja, fossem independentes da história de 
aprendizagem do sujeito.] [...] 
• Estímulo Discriminativo (SD) - Uma luz verde pode ser um SD para iniciar um 
comportamento de dirigir. 
• Estímulo Reforçador Condicionado (SR +) - o som de uma campainha se 
torna reforçador após ser associado com comida, como no experimento clássico 
de Pavlov. 
• Estímulo Eliciador Condicional (SElic) - o barulho de uma tampa de lata de 
refrigerante abrindo pode eliciar uma resposta de salivar em alguém que 
associou esse som com a bebida refrescante. 
• Encadeamento de Respostas - ao cozinhar, cada passo do processo (misturar 
ingredientes, levar ao fogo, etc.) serve como estímulo discriminativo para o 
próximo passo. 
• Encadeamento de trás para frente - podemos ensinar uma criança a fazer um 
chá. Iniciamos apenas dando a consequência final para ela (beber o chá). Depois, 
ela apenas precisa mexer com a colher o chá e beber. Depois, colocar o tempo 
do chá no microondas, e assim sucessivamente. Este processo ajuda na 
construção de novos reforçadores. 
Ensinar uma criança a fazer chá, começando com o último passo (beber o chá) e 
retrocedendo até o primeiro passo (colocar a água no microondas). 
• Reforçador Condicionado - Se som for pareado a alimento, no caso do cão de 
Pavlov, e alimento pode ser utilizado como reforçador, após a história de 
emparelhamento, podemos passar a utilizar o som como reforçador 
condicionado. O mesmo ocorre em encadeamento de respostas. 
O som de uma campainha se torna um reforçador condicionado após ser 
associado repetidamente com a comida. 
• Reforço Condicionado Generalizado - Como é o caso do estímulo MÃE para 
o BEBÊ (que lhe fornece alimento, água, carinho, etc.)

Mais conteúdos dessa disciplina