Prévia do material em texto
• "Comportamento Operante" é um termo da psicologia que se refere a um comportamento que é controlado por suas consequências. Ou seja, ele pode ou não ocorrer dependendo das consequências que se seguem a ele. Por exemplo, se um comportamento é seguido por uma recompensa, é mais provável que ele ocorra novamente no futuro. No entanto, se o comportamento é seguido por uma punição, é menos provável que ele ocorra novamente. Estímulo Antecedente → Evoca → Resposta Evocada → Produz → Consequência • "Comportamento Respondente" é um comportamento que é eliciado por um estímulo específico e não pelo ambiente em geral. (100% de chance de acontecer) • Treino discriminativo - estímulo só é discriminativo se ele torna a resposta mais provável, por estar sistematicamente correlacionado ao reforçador. Neste caso, dizemos que ocorreu uma discriminação de estímulos, ou simplesmente um controle de estímulos. • Estímulo discriminativo e delta (SD e SΔ) - O estímulo discriminativo (SD) é um sinal que indica que um comportamento específico será reforçado. O delta (SΔ) é um sinal que indica que um comportamento específico não será reforçado. • Controle de estímulos - O controle de estímulos refere-se a como os estímulos ambientais influenciam o comportamento dos indivíduos. (discriminação de estímulos, ou simplesmente um controle de estímulos.) O controle de estímulos refere-se à influência que os estímulos têm sobre o comportamento de um organismo. Esses estímulos podem incluir sinais, pistas, contextos e eventos ambientais que afetam a probabilidade de um comportamento ocorrer em determinadas circunstâncias. → SD → EVOCA → RESPOSTA EVOCADA → PRODUZ → CONSEQUENCIA → SΔ - NÃO EVOCA → RESPOSTA → NÃO PRODUZ → CONSEQUENCIA • Generalização de estímulos - Generalização de estímulos é parte do processo de controle de estímulos. que descreve a resposta a estímulos semelhantes ao estímulo original que provocou a resposta. É um princípio fundamental no condicionamento clássico e operante. A generalização de estímulos é um processo no qual um organismo responde de maneira semelhante a estímulos que são semelhantes, mas não idênticos, ao estímulo originalmente treinado. Em outras palavras, o comportamento aprendido em relação a um estímulo específico é estendido para outros estímulos que compartilham características semelhantes. • Maneira mentalista: Nós não dizemos, por exemplo que uma criança discriminou o laranja, ou generalizou a habilidade que aprendeu na escola para o ambiente domiciliar. O uso desses termos dá margem para o fato de ela é responsável pelos processos cognitivos, quando foi uma relação entre ambiente e suas ações! • Diferença de Evento antecedente para estímulo antecedente? - Um evento antecedente é qualquer coisa que acontece imediatamente antes de um comportamento específico e pode influenciá-lo. Um estímulo antecedente é um tipo específico de evento antecedente, que é uma mudança ambiental que ocorre antes de um comportamento e tem a capacidade específica de influenciar se o comportamento vai acontecer ou não. Diferencia um bom observador de comportamentos de um psicólogo é o emprego de sua LINGUAGEM TÉCNICA, bem como o conhecimento sistemático de procedimentos e uma avaliação refinada sobre o comportamento humano • Treino discriminativo - pode ser encontrado em um ambiente de treinamento de animais, como o treinamento de um cão para distinguir entre dois estímulos visuais diferentes, como círculos de cores diferentes, que indicam diferentes comportamentos a serem executados. • Estímulo discriminativa (SD) - Luz acessa sniffy aperta (Estímulo discriminativo) = SD Um círculo azul é apresentado como o estímulo discriminativo para o comando "sentar". • O delta (SΔ) - Luz apagada não aperta (Escuro = Estímulo Delta) SΔ Um círculo vermelho é apresentado, indicando que o comando "sentar" não deve ser executado. Resposta: O cão associa o círculo azul com o comando "sentar" e executa a ação de sentar-se quando vê o círculo azul. Quando vê o círculo vermelho, ele não executa a ação, pois não é o estímulo discriminativo associado ao comando "sentar". Consequência: Quando o cão se senta corretamente após ver o círculo azul (SD), ele é recompensado com um petisco ou elogio, o que reforça a associação entre o estímulo discriminativo e a resposta correta. Quando ele não se senta após ver o círculo vermelho (SΔ), não há recompensa, o que ajuda a diferenciar entre os estímulos discriminativos e não discriminativos. Neste exemplo, o treino discriminativo ocorre quando o cão aprende a associar o círculo azul (SD) com a resposta desejada (sentar), enquanto o círculo vermelho (SΔ) indica que a resposta não é desejada. Isso demonstra um controle de estímulos, onde os estímulos têm uma relação sistemática com as consequências do comportamento, influenciando assim a probabilidade de ocorrência do comportamento. Um exemplo de treino discriminativo pode ser encontrado em um ambiente de treinamento de animais, como o treinamento de um cão para distinguir entre dois estímulos visuais diferentes, como círculos de cores diferentes, que indicam diferentes comportamentos a serem executados. • Generalização de estímulos Generalização de Estímulos Visuais: Se o cão aprendeu a "sentar" em resposta a uma pessoa específica, ele pode generalizar esse comportamento para outras pessoas que se assemelham à pessoa original, como outras pessoas da família ou amigos. Generalização de Estímulos Auditivos: Se o cão foi treinado para "sentar" em resposta a um tom de voz específico, ele pode generalizar esse comportamento para outros tons de voz que são semelhantes ao tom originalmente treinado. Generalização de Estímulos de Contexto: Se o cão foi ensinado a "sentar" em um local específico da casa, ele pode generalizar esse comportamento para outros locais da casa que possuam características semelhantes. Nem todas as classes de respostas têm consequências consistentes [...] O reforço intermitente [...] é uma característica geral do comportamento. Encontrar um produto particular não é consequência invariável de ir a um supermercado; obter (Este texto aborda o conceito de reforço intermitente, uma técnica de condicionamento operante na qual as respostas não são reforçadas todas as vezes. Um exemplo é fornecido, indicando que não se encontra sempre um produto específico ao ir ao supermercado, mostrando que as consequências não são sempre consistentes.) arranjos que especificam que respostas, dentro de uma classe operante, serão reforçadas • Reforço Contínuo - O reforço contínuo ou regular, que é o reforço de cada resposta dentro da classe operante, é a exceção mais do que a regra (estratégia de condicionamento em que uma resposta é reforçada ou recompensada cada vez que ocorre, tornando-a mais provável de ser repetida.) (comportamento é recompensado toda vez que ocorre, o que geralmente leva a uma rápida aprendizagem.) • Reforço Intermitente - Reforço intermitente ou parcial é "o reforço de algumas respostas, mas não de outras" (comportamento desejado é recompensado apenas ocasionalmente. Isso pode resultar em uma aprendizagem mais lenta, mas tende a produzir comportamentos mais resistentes à extinção.) Os principais esquemas de reforço intermitente são: razão fixa e variável, intervalo fixo e variável. • Esquemas de Razão - o reforço é liberado a cada x respostas emitidas. (O reforço é entregue após um número fixo de respostas corretas.) Os dois principais tipos são: razão fixa e razão variável. Quando o esquema é de razão fixa, o número de respostas exigido é fixo, enquanto quando o reforço é variável, esse número de respostas varia. → Razão Fixa (FR) - O reforço é entregue após um número fixo de respostas corretas. (altas taxas de respostas, taxas de respostas aproximadamente constantes, pausa pós reforço) Altastaxas de respostas: Sob um esquema de razão fixa, os sujeitos tendem a responder rapidamente para obter o reforço, já que sabem exatamente quantas respostas são necessárias para receber a recompensa. Isso resulta em altas taxas de resposta. Taxas de respostas aproximadamente constantes: As taxas de respostas permanecem relativamente constantes enquanto o esquema de razão fixa é mantido. Isso ocorre porque os sujeitos mantêm um ritmo constante de respostas para atender à exigência fixa para ganhar o reforço. Pausa pós-reforço: Após receberem o reforço, os sujeitos podem fazer uma breve pausa antes de iniciar o próximo ciclo de respostas. Isso ocorre porque eles sabem que precisarão emitir um número específico de respostas novamente para obter outra recompensa. → Razão Variável - O reforço é entregue após um número variável de respostas corretas, mas com uma média previsível. Altas taxas de respostas: Assim como na razão fixa, os sujeitos respondem rapidamente em um esquema de razão variável, pois desejam receber o reforço. No entanto, em um esquema de razão variável, o número de respostas necessárias para o reforço varia. Taxas de respostas constantes: Embora o número de respostas necessárias varie, a média é constante. Isso significa que os sujeitos mantêm uma taxa de resposta estável ao longo do tempo para atender à média necessária para receber o reforço. Ausência de pausa pós-reforço: Devido à natureza variável do esquema, os sujeitos tendem a não fazer pausas prolongadas após receberem o reforço. Em vez disso, eles continuam a responder consistentemente, pois não sabem exatamente quando o próximo reforço será entregue. • Esquemas de intervalo - No esquema de intervalo, uma única resposta deve ser emitida após ter passado um determinado período de tempo, fixos ou variáveis, obedecendo às mesmas condições vistas nos de razão, mas funcionando sob controle de tempo. → Intervalo Fixo (FI) - Taxa de respostas baixa no começo do intervalo que aumenta no final, maiores pausas pós-reforço (efeito scallop) e respostas que ocorrem no meio do intervalo não têm efeito (O reforço é entregue após um período de tempo fixo decorrido desde a última resposta correta.) Taxa de respostas baixa no começo do intervalo que aumenta no final: Sob um esquema de intervalo fixo, os sujeitos geralmente apresentam uma taxa de respostas baixa logo após receberem o reforço. Conforme o intervalo progride, a taxa de respostas aumenta gradualmente à medida que se aproximam do momento em que o próximo reforço estará disponível. Maiores pausas pós-reforço (efeito scallop): Após receberem o reforço, os sujeitos exibem uma pausa prolongada antes de retomarem a resposta. Esse padrão de resposta, com uma curva semelhante a um "scallop" (cascalho), é chamado de efeito scallop. Respostas que ocorrem no meio do intervalo não têm efeito: As respostas emitidas durante o intervalo de tempo em que o reforço não está disponível não são reforçadas. Portanto, as respostas feitas durante esse período não têm efeito na obtenção de recompensas. → Intervalo Variável (VI) - Alta taxa de respostas, ausência de pausas pós-reforço e respostas que ocorrem no meio do intervalo não têm efeito. (O reforço é entregue após um período de tempo variável decorrido desde a última resposta correta, mas com uma média previsível.) Alta taxa de respostas: Sob um esquema de intervalo variável, os sujeitos exibem uma taxa de respostas relativamente alta, pois não podem prever exatamente quando o próximo reforço estará disponível. Isso os incentiva a continuar respondendo. Ausência de pausas pós-reforço: Após receberem o reforço, os sujeitos geralmente não exibem uma pausa prolongada. Em vez disso, eles continuam a responder sem interrupção, pois não sabem quando o próximo reforço será entregue. Respostas que ocorrem no meio do intervalo não têm efeito: Da mesma forma que no intervalo fixo, as respostas feitas durante o intervalo de tempo em que o reforço não está disponível não são reforçadas. Portanto, não têm efeito na obtenção de recompensas. • Resistência à extinção se refere ao número de respostas emitidas após a quebra da relação entre resposta e consequência até que o comportamento retorne ao nível operante (ou ainda o tempo que isso leva para ocorrer). Um dos fatores que determina a resistência à extinção é o esquema de reforçamento ao qual a resposta foi submetida. Reforçamento contínuo gera pouca resistência à extinção, enquanto o reforçamento intermitente, mais! Quanto mais variável for a intermitência do reforço, ainda mais resistência à extinção a resposta sofrerá! Então cuidado ao reforçar um comportamento de maneira intermitente e inconsistente, pois isso irá prejudicar ainda mais a situação! (é o quanto um comportamento continua a ocorrer mesmo após a quebra da relação entre a resposta e a consequência (o reforço). Quando um comportamento é consistentemente reforçado, isto é, recompensado toda vez que ocorre (reforço contínuo), ele tende a apresentar pouca resistência à extinção. Isso significa que, uma vez que o reforço é interrompido, o comportamento pode diminuir rapidamente ou até mesmo desaparecer.) (Por outro lado, quando um comportamento é reforçado de forma intermitente, ou seja, de maneira irregular, com recompensas entregues apenas ocasionalmente, ele tende a exibir maior resistência à extinção. Isso ocorre porque o sujeito aprende que o reforço pode ocorrer a qualquer momento, mesmo que não seja toda vez que o comportamento é emitido. Portanto, ele continua a exibir o comportamento mesmo quando o reforço não é imediato.) (Além disso, quanto mais variável for a intermitência do reforço (como nos esquemas de reforço variável), mais resistência à extinção o comportamento tende a apresentar. Isso ocorre porque a imprevisibilidade do reforço torna mais difícil para o sujeito discernir quando o comportamento não será mais recompensado, levando-o a persistir na sua emissão por mais tempo.) • Reforço Contínuo - Um treinador de cães dando um petisco sempre que o cão se senta corretamente. Imagine um treinador de cães que está ensinando um cachorro a sentar. Cada vez que o cachorro se senta corretamente, ele recebe um petisco. Se o treinador continuar fornecendo petiscos toda vez que o cachorro se sentar, mas de repente parar de reforçar o comportamento, é mais provável que o cachorro pare de sentar rapidamente, pois ele está acostumado a receber uma recompensa a cada vez que executa o comportamento. • Reforço Intermitente - Um pescador que ocasionalmente pega peixes enquanto espera por longos períodos. Agora, imagine que o treinador de cães decide reforçar o comportamento de sentar de forma intermitente. Às vezes, o cachorro recebe um petisco quando se senta, mas outras vezes não recebe. Se o treinador para de reforçar o comportamento de forma consistente, o cachorro pode continuar a sentar por mais tempo, esperando pelo próximo petisco, mesmo que não venha imediatamente. Isso é devido à natureza imprevisível do reforçamento intermitente, o que torna o comportamento mais resistente à extinção. • Razão Fixa (FR) - a cada cinco vezes que um rato pressiona uma alavanca, ele recebe uma recompensa. • Razão Variável (FR) - programa de fidelidade de uma companhia aérea. Digamos que a companhia ofereça pontos de recompensa a seus clientes por cada voo realizado. No entanto, a quantidade de pontos ganhos varia de acordo com diversos fatores, como a distância do voo, o preço do bilhete, ou promoções especiais. Assim, enquanto os passageiros sabem que serão recompensados por cada voo, a quantidade de pontos que recebem é variável, o que mantém seu comportamento de voar com a companhia aérea em busca de recompensas, mesmo sem saber exatamente quantos pontos ganharão em cada viagem. • Intervalo Fixo (FI) - Um professorque dá uma pausa de 10 minutos após cada hora de aula. • Intervalo Variável (VI) - Em um esquema de razão variável 5 (RV5), um rato pode receber um alimento após três, cinco ou sete pressionadas de alavanca, mas com uma média de cinco pressionadas para cada recompensa. • Resistencia a extinção: • Reforço Contínuo: Imagine que você está ensinando seu cão a sentar. Cada vez que ele se senta corretamente, você o recompensa com um petisco. Se você parar de reforçar esse comportamento (parar de dar petiscos toda vez que ele se senta), é provável que o comportamento de se sentar diminua rapidamente ou desapareça completamente. Isso ocorre porque o comportamento estava sendo reforçado continuamente, então o cão aprendeu que a resposta (sentar-se) levava sempre à consequência desejada (o petisco). • Reforço Intermitente (Razão Variável): Suponha que você está jogando em uma máquina caça-níqueis em um cassino. Às vezes, você ganha dinheiro após algumas rodadas, outras vezes precisa jogar mais vezes antes de ganhar. A imprevisibilidade de quando você vai ganhar mantém você jogando, mesmo quando você não ganha imediatamente. Isso mostra a resistência à extinção devido ao reforço intermitente. • Reforço Intermitente (Intervalo Variável): Imagine que você está treinando um pombo para bicar uma barra de alimentação em um intervalo variável de tempo. Às vezes, o pombo recebe comida após 1 minuto, outras vezes após 3 minutos, e assim por diante. Mesmo que o pombo não receba comida imediatamente após bicar a barra, ele continuará a bicar, pois aprendeu que o reforço pode ocorrer a qualquer momento, mantendo assim a resistência à extinção. • Tríplice Contingência - Relação entre o comportamento de um organismo, o ambiente e as consequências desse comportamento. 1. Antecedente (Estímulo Discriminativo): Este é o evento ou estímulo que ocorre antes do comportamento e que sinaliza a disponibilidade de consequências. O antecedente pode ser um estímulo específico, uma situação ambiental ou uma instrução verbal que influencia a probabilidade de o comportamento ocorrer. 2. Comportamento (Resposta): Refere-se à ação ou reação do organismo diante do estímulo discriminativo. É o que o organismo faz em resposta ao estímulo presente no ambiente. 3. Consequência: São as alterações no ambiente que ocorrem após o comportamento do organismo. As consequências podem ser positivas (reforçadoras), negativas (punidoras) ou neutras, e influenciam a probabilidade de o comportamento ocorrer novamente no futuro. • Três Funções do Estímulo: • Antecedente Isso implica que um mesmo estímulo pode apresentar (pelo menos) três funções: estímulo discriminativo (SD), estímulo reforçador condicionado (SR+) e Estímulo eliciador condicional (SElic). Em um comportamento ENCADEADO, essas três funções poderão estar presentes concomitantemente. 1. Estímulo Discriminativo (SD): Indica a probabilidade de reforço ou punição de um comportamento. 2. Estímulo Reforçador Condicionado (SR+): Um estímulo neutro que se torna reforçador devido ao pareamento com um estímulo reforçador. 3. Estímulo Eliciador Condicional (SElic): Um estímulo que evoca uma resposta que foi previamente reforçada. • Encadeamento de respostas - Um comportamento encadeado, ou contingência encadeada, nós temos uma situação em que a consequência da resposta anterior funciona como estímulo discriminativo para a próxima resposta. • Encadeamento de trás para frente - É uma técnica para ensinar sequências de comportamentos em que se começa pela última parte da sequência e avança progressivamente para as partes anteriores. • Reforçador Condicionado - Estímulo é sistematicamente pareado a outro estímulo, ele pode assumir a função dele. É um estímulo neutro que adquire propriedades reforçadoras por ter sido pareado consistentemente com um estímulo reforçador. • Reforço Condicionado Generalizado - Se um estímulo neutro for emparelhado com dois ou mais estímulos reforçadores, teremos a construção de um reforço condicionado generalizado • É fácil esquecer as origens dos reforçadores generalizados e encará-los como reforçadores por si mesmos. Falamos da 'necessidade de atenção, aprovação ou afeto', da 'necessidade do domínio' e do 'amor ao dinheiro' como se fossem condições primárias de privação, [ou seja, fossem independentes da história de aprendizagem do sujeito.] [...] • Estímulo Discriminativo (SD) - Uma luz verde pode ser um SD para iniciar um comportamento de dirigir. • Estímulo Reforçador Condicionado (SR +) - o som de uma campainha se torna reforçador após ser associado com comida, como no experimento clássico de Pavlov. • Estímulo Eliciador Condicional (SElic) - o barulho de uma tampa de lata de refrigerante abrindo pode eliciar uma resposta de salivar em alguém que associou esse som com a bebida refrescante. • Encadeamento de Respostas - ao cozinhar, cada passo do processo (misturar ingredientes, levar ao fogo, etc.) serve como estímulo discriminativo para o próximo passo. • Encadeamento de trás para frente - podemos ensinar uma criança a fazer um chá. Iniciamos apenas dando a consequência final para ela (beber o chá). Depois, ela apenas precisa mexer com a colher o chá e beber. Depois, colocar o tempo do chá no microondas, e assim sucessivamente. Este processo ajuda na construção de novos reforçadores. Ensinar uma criança a fazer chá, começando com o último passo (beber o chá) e retrocedendo até o primeiro passo (colocar a água no microondas). • Reforçador Condicionado - Se som for pareado a alimento, no caso do cão de Pavlov, e alimento pode ser utilizado como reforçador, após a história de emparelhamento, podemos passar a utilizar o som como reforçador condicionado. O mesmo ocorre em encadeamento de respostas. O som de uma campainha se torna um reforçador condicionado após ser associado repetidamente com a comida. • Reforço Condicionado Generalizado - Como é o caso do estímulo MÃE para o BEBÊ (que lhe fornece alimento, água, carinho, etc.)