Buscar

Relatório Laboratório Rato Sniffy

Prévia do material em texto

INGRID LIMP COSTA
JÚLIA SANTOS DE FARIA
RELATÓRIO DE PRÁTICA EM LABORATÓRIO: CONDICIONAMENTO OPERANTE DO RATO VIRTUAL SNIFFY PRO 2.0
UNIVERSIDADE DO VALE DO SAPUCAÍ
POUSO ALEGRE – MG 
2018
INGRID LIMP COSTA
JÚLIA SANTOS DE FARIA
RELATÓRIO DE PRÁTICA EM LABORATÓRIO: CONDICIONAMENTOOPERANTE DO RATO VIRTUAL SNIFFY PRO 2.0
Relatório apresentado à disciplina de Psicologia Comportamental e Experimental I, do curso de Psicologia, da Faculdade de Ciências Médicas Doutor José Antônio Garcia Coutinho, da Universidade do Vale do Sapucaí.
UNIVERSIDADE DO VALE DO SAPUCAÍ
POUSO ALEGRE – MG
2018
RESUMO
O presente trabalho apresenta os estudos e experimentos laboratoriais realizados com um rato virtual por meio do software Sniffy Pro 2.0. O condicionamento operante é um mecanismo de aprendizagem de novo comportamento - um processo que Skinner chamou de modelagem. Nesse processo, o instrumento fundamental de modelagem é o reforço - a consequência de uma ação quando ela é percebida por aquele que a pratica. Para o behaviorismo em geral, o reforço pode ser positivo ou negativo. O psicólogo norte-americano, Burrhus Frederic Skinner considerava reforço apenas as contingências de estímulo. No condicionamento operante, um mecanismo é fortalecido no sentido de tornar uma resposta mais provável ou mais frequente. Dessa maneira, para compreender os vários mecanismos acerca de um comportamento operante, realizamos experimentações, com o rato virtual Sniffy, de acordo com o embasamento teórico dos princípios básicos da análise do comportamento de Skinner. Os experimentos realizados incluem o treinamento para uso do alimentador, modelagem para pressionar a barra, registro cumulativos, extinção, reforço secundário, recuperação espontânea, efeito de uma única punição suave e severa, efeito das punições suaves repetitivas e esquemas de reforçamento.
Palavras-chave: Condicionamento operante; experimentações; rato virtual Sniffy; Burrhus Frederic Skinner; modelagem; aprendizagem; reforço; comportamento.
SUMÁRIO
INTRODUÇÃO .................................................................................................................. 4
MÉTODO ........................................................................................................................... 6
SUJEITO ..................................................................................................................... 6
AMBIENTE, MATERIAIS E INSTRUMENTOS ..................................................... 6
PROCEDIMENTOS.................................................................................................... 7
2.3.1 EXPERIMENTO 22: TREINAMENTO PARA USO DO ALIMENTADOR........
2.3.2 EXPERIMENTO 23: MODELANDO SNIFFY PARA PRESSIONAR A BARRA
2.3.3 EXPERIMENTO 24: REGISTRO CUMULATIVOS – VISUALIZAÇÃO DAS RESPOSTAS DE SNIFFY ...............................................................................................
2.3.4 EXPERIMENTO 25: EXTINÇÃO .........................................................................
2.3.5 EXPERIMENTO 26: REFORÇO SECUNDÁRIO ................................................................................................................9
EXPERIMENTO 27: RECUPERAÇÃO ESPONTÂNEA .................................... 9
EXPERIMENTO 28: O EFEITO DE UMA ÚNICA PUNIÇÃO SUAVE .............10
EXPERIMENTO 29: O EFEITO DE UMA ÚNICA PUNIÇÃO SEVERA ........ 10
EXPERIMENTO 30: O EFEITO DAS PUNIÇÕES SUAVES REPETITIVAS ...11
EXPERIMENTO 31: COLOCANDO SNIFFY EM UM ESQUEMA DE VR PEQUENO........................................................................................................... 12
EXPERIMENTO 32: AUMENTO DO VALOR DO ESQUEMA VR DE SNIFFY..................................................................................................... 13
EXPERIMENTO 33: ESQUEMAS DE INTERVALO VARIÁVEL .................................................................................................... 14
EXPERIMENTO 34: ESQUEMA DE RAZÃO FIXA ................................... 14
EXPERIMENTO 35: ESQUEMA DE INTERVALO FIXO ........................... 15
EXPERIMENTO 36: O EFEITO DO REFORÇO PARCIAL SOBRE A EXTINÇÃO ......................................................................................................... 15
RESULTADOS E DISCURSÕES ...................................................................................... 7
EXPERIMENTO 22: TREINAMENTO PARA USO DO ALIMENTADOR.............7
EXPERIMENTO 23: MODELANDO SNIFFY PARA PRESSIONAR A BARRA ....8
EXPERIMENTO 24: REGISTRO CUMULATIVOS – VISUALIZAÇÃO DAS RESPOSTAS DE SNIFFY ...........................................................................................8
EXPERIMENTO 25: EXTINÇÃO ...............................................................................9
EXPERIMENTO 26: REFORÇO SECUNDÁRIO ......................................................9
EXPERIMENTO 27: RECUPERAÇÃO ESPONTÂNEA .......................................... 9
EXPERIMENTO 28: O EFEITO DE UMA ÚNICA PUNIÇÃO SUAVE ...............10
EXPERIMENTO 29: O EFEITO DE UMA ÚNICA PUNIÇÃO SEVERA ............. 10
EXPERIMENTO 30: O EFEITO DAS PUNIÇÕES SUAVES REPETITIVAS .......11
EXPERIMENTO 31: COLOANDO SNIFFY EM UM ESQUEMA DE VR PEQUENO................................................................................................................. 12
EXPERIMENTO 32: AUMENTO DO VALOR DO ESQUEMA VR DE SNIFFY...................................................................................................................... 13
EXPERIMENTO 33: ESQUEMAS DE INTERVALO VARIÁVEL .................................................................................................................................... 14
EXPERIMENTO 34: ESQUEMA DE RAZÃO FIXA ................................... 14
EXPERIMENTO 35: ESQUEMA DE INTERVALO FIXO ........................... 15
EXPERIMENTO 15: O EFEITO DO REFORÇO PARCIAL SOBRE A EXTINÇÃO .............................................................................................................. 15
CONCLUSÃO ................................................................................................................ 16
1 INTRODUÇÃO
De acordo com Hubner e Moreira (2012), no século XIX, Edward L. Thorndike (1874-1949) pela primeira vez relatou que o comportamento dos animais era influenciado por seus efeitos. Ele construiu várias caixas-problema, nas quais colocava diferentes animais. Esses animais deveriam aprender a resposta que abria a caixa, que lhes permitia sair da mesma e comer o alimento colocado fora dela. Por tentativa e erro, todos os animais aprendiam tal resposta, como por exemplo puxar uma corda, abrir um trinco etc. Primeiramente, os animais abriam a caixa por acaso, enquanto se movimentavam dentro dela. Com o passar do tempo, movimentos que permitiam o escape da caixa ocorriam após intervalos de tempo cada vez mais curtos a partir da inserção do animal na caixa. Com a resposta já aprendida, os animais passavam a abrir a caixa quase que instantaneamente, assim que eram colocados lá dentro. A aprendizagem era avaliada pela redução no tempo que o animal levava para escapar da caixa-problema nas inserções sucessivas do sujeito dentro do aparato (Hubner & Moreira, 2012). A partir dessas observações, Thorndike (1898/1911) elaborou a Lei do Efeito, que basicamente dizia que o comportamento era modificado em função de seus efeitos.
Na década de 1930, Burrhus Frederic Skinner (1904-1990), ao estudar comportamento reflexo em ratos, constatou que muitos comportamentos não podiam ser explicados em termos de relações reflexas (Hubner & Moreira, 2012). Diferentemente do observado nos reflexos, naqueles comportamentos não havia uma relação de determinação absoluta de um estímulo antecedente sobre uma determinada resposta, porque ou havia imprecisão em se verificar a ocorrência de qualquer estímuloque pudesse estar controlando uma resposta observada, ou, quando verificada sua presença, a apresentação do estímulo não era garantia de ocorrência da resposta. A relação entre estímulos e respostas era marcada pela flexibilidade: a probabilidade de ocorrência da resposta variava ao longo de múltiplas exposições ao estímulo. Além disso, vários estímulos podiam estar relacionados com a mesma resposta e várias respostas com o mesmo estímulo. Unindo suas observações aos estudos de Thorndike, Skinner identificou que, nesses casos, a ocorrência ou não das respostas e sua relação com os estímulos que as antecediam eram influenciadas por suas consequências passadas (Hubner & Moreira, 2012). Alguns eventos ambientais consequentes, isto é, que ocorrem após a emissão de uma resposta pelo organismo, fazem com que respostas semelhantes a ela tenham maior ou menor probabilidade de ocorrer no futuro (Skinner, 1953). Se a resposta passa a ocorrer com maior frequência em situações semelhantes àquelas em que a consequência foi produzida, dizemos tratar-se de uma consequência reforçadora. Se, ao contrário, a frequência da resposta diminuir naquelas situações, dizemos que a consequência é aversiva (Hubner & Moreira, 2012). Vejamos um exemplo citado por Hubner e Moreira (2012): “Todos conhecem a curiosidade das crianças. Qualquer objeto novo as fascina de tal maneira que elas logo se aproximam e manipulam o objeto. Ao ver uma tomada, uma criança se aproxima e não demora muito para começar a colocar o dedo ou até mesmo objetos em seus orifícios. Em um determinado momento, ela leva um pequeno choque e se afasta da tomada. Será pouco provável que ela volte a colocar o dedo ou objetos em seus orifícios, visto que choques costumam ter funções aversivas. Em outra situação, esta mesma criança vê uma bola e começa a manipulá-la. Ela aperta a bola, joga a bola, observa a bola pulando, chuta a bola etc. Se houver um adulto presente, provavelmente ele brincará de jogar a bola com a criança. Todas essas consequências da resposta de manipular a bola são potencialmente reforçadoras, o que se confirmará se a criança frequentemente pegar e brincar com uma bola quando esse objeto estiver presente no seu ambiente” (p.23).
Segundo Hubner e Moreira (2012), certas respostas, portanto, tornam-se mais ou menos prováveis em situações semelhantes àquelas nas quais costumam estar correlacionadas com determinadas consequências. Dito de outra forma, os contextos semelhantes àquele no qual certas respostas foram consistentemente acompanhadas de reforçadores têm maior probabilidade do que outros de evocar aquelas respostas. Por isso, a Análise do Comportamento descreve o comportamento operante por meio da tríplice contingência, que envolve não só a resposta e a consequência, mas ainda o contexto em que ocorrem (Hubner & Moreira, 2012). Esse contexto, a estimulação antecedente à resposta, recebe o nome de estímulo discriminativo (SD). Em princípio, pode-se imaginar que as respostas podem se tornar mais ou menos frequentes de maneira generalizada, a despeito do contexto, mas basta uma inspeção mais atenta para se notar que não é isso o que acontece. Para explicar essa questão, Hubner e Moreira (2012) consideram o exemplo de chutar uma bola: “O que chamamos de resposta, “chutar bola”, se pensarmos bem, já é uma relação entre estímulos e respostas: como seria possível chutar uma bola na ausência de uma bola? Ainda assim, a presença da bola nem sempre vai evocar respostas de “chutar bola”. Imaginemos que tenhamos observado que a criança em questão normalmente chuta a bola quando há um adulto presente, que se engaja em chutar a bola de volta. Então, a relação comportamental, nesse caso, inclui a presença da bola e de um adulto. Essa relação será modificada dependendo das consequências. Se o adulto costumeiramente se engajar em jogar bola com a criança, chutar a bola sob aquelas condições será mais provável no futuro. Por outro lado, se aquele adulto estiver rotineiramente cansado e não brincar com a criança, a relação será enfraquecida” (p.23).
No caso dos operantes, a relação entre o estímulo antecedente e a resposta não é considerada uma relação de eliciação. Respostas de “chutar a bola” são emitidas em determinadas situações e sua emissão é modulada pelas suas consequências. Relações comportamentais moduladas pelas consequências são amplamente encontradas na natureza, nas mais variadas espécies (Hubner & Moreira, 2012). Skinner estudou esses comportamentos com pombos e ratos por meio de uma câmara experimental – a famosa Caixa de Skinner –, que permitia o controle automatizado da apresentação de eventos ambientais antes e após a ocorrência de uma resposta arbitrariamente definida (tradicionalmente, bicar um disco transiluminado, no caso de pombos, e pressionar uma barra, no caso de ratos). Quando os animais efetuavam a resposta requerida, o aparato disponibilizava, por exemplo, um bocado de ração. O ambiente do animal era organizado de modo que seu comportamento operava sobre o ambiente, produzindo uma consequência, daí o nome “comportamento operante” (Hubner & Moreira, 2012).
De acordo com Moreira e Medeiros (2008), uma consequência é um reforço para o comportamento quando ele aumenta a probabilidade de sua ocorrência e, nesse caso, chamamos o estímulo produzido pelo comportamento de estímulo reforçador. O efeito do reforço na probabilidade de ocorrência do comportamento está intima- mente ligado à aprendizagem, ou melhor, um organismo aprendeu a fazer algo quando observamos um aumento na frequência de um dado comportamento. Ainda de acordo com os autores, no laboratório, isso fica evidente. É possível observar o rato em seu primeiro contato com a caixa experimental e registrar o número de ocorrências da resposta de pressão à barra. Após a modelagem, fazemos um novo registro desse comporta- mento e verificamos um aumento na sua frequência. Ao observarmos isso, dizemos sem titubear que o rato aprendeu a pressionar a barra. A relação entre o comportamento e uma consequência que aumente sua probabilidade de ocorrência chamamos contingência de reforço. Podemos dizer que onde há aprendizagem há contingências de reforço em vigor: não aprendemos apenas fazendo, mas, sim, a partir do momento em que aquilo que fazemos produz consequências reforçadoras (Moreira & Medeiros, 2008).
Os efeitos do reforço sobre a aprendizagem tornam-se ainda mais evidentes quando ele é suspenso, ou seja, quando um comportamento que produzia uma consequência reforçadora não mais a produz. Nesse caso, falamos em extinção operante. Ao colocarmos um comportamento anteriormente reforçado em extinção verificamos que sua frequência retorna a seu nível operante. É possível dizer, assim, que o organismo aprendeu que aquele comportamento não mais produz a consequência reforçadora de antes (Moreira & Medeiros, 2008). Quando um determinado comportamento é colocado em extinção, sua frequência não retorna imediatamente ao nível operante, o que leva um certo tempo e exige que um certo número de respostas seja emitido sem serem reforçadas. Esse número de respostas é conhecido por resistência à extinção. A resistência à extinção será maior ou menor em função de algumas variáveis, como número de reforços anteriores, custo da resposta e o esquema de reforçamento em que a resposta ocorria. É comum chamarmos pessoas que apresentam comportamentos com alta resistência à extinção de perseverantes, bem como atribuir pouca força de vontade a pessoas que apresentam comportamentos com baixa resistência à extinção (Moreira & Medeiros, 2008). Quando falamos em extinção operante, devemos falar também em um outro fenômeno. Às vezes, após um comportamento ser extinto, a mera passagem do tempo pode aumentar a probabilidade do comportamento extinto voltar a ocorrer. Isso é conhecidocomo fenômeno de recuperação espontânea. Devemos lembrar, no entanto, que, mesmo que a resposta volte a ocorrer, se ela não for reforçada, as chances de ocorrer recuperação espontânea tornam-se cada vez menores (Moreira & Medeiros, 2008).
Segundo Moreira e Medeiros (2008), outro aspecto importante da aprendizagem é que ela se refere a um processo, ou seja, na maioria das vezes, não ocorre de uma hora para outra: dá-se por meio do reforço e da extinção. A aprendizagem de um novo comportamento parte da modificação de um comportamento preexistente. Portanto, aprender algo novo também implica desaprender algo. A técnica comportamental conheci- da como modelagem utiliza-se desses princípios. Na modelagem de um novo comportamento, reforçamos e extinguimos aproximações sucessivas da resposta-alvo do comportamento que queremos ensinar.
Ao longo de nossa vida, aprendemos uma miríade de comportamentos que têm como consequência a produção de estímulos no ambiente. A essas consequências que aumentam a probabilidade de uma resposta pela adição de algo ao ambiente do indivíduo, damos o nome de reforço positivo. Apesar da relevância do reforço positivo para a aprendizagem dos organismos, ele é apenas um tipo de consequência que exerce controle sobre o comportamento destes. As demais formas de controle do comportamento enquadram-se no que denominamos Controle Aversivo: reforço negativo, punição positiva e punição negativa (Moreira & Medeiros, 2008).
O reforço negativo, de acordo com Moreira & Medeiros (2008), assim como o reforço positivo, torna mais provável que um determinado comportamento ocorra. A diferença entre reforço positivo e reforço negativo reside no fato de que, no primeiro, um estímulo (reforçador) é adicionado ao ambiente, e, no segundo, um estímulo (aversivo) é retirado do ambiente. No reforço negativo, o organismo comporta-se para que algo não ocorra. Quando afirmamos que o comportamento é controlado por reforço negativo estamos querendo dizer que o organismo aprendeu a emitir uma resposta para que algo não ocorra. Os comportamentos que são reforçados negativamente enquadram-se em dois tipos: comportamentos de fuga e comportamentos de esquiva. A fuga refere-se àqueles comportamentos que retiram algo do ambiente, ou seja, um determinado estímulo aversivo encontra-se presente, e o organismo emite uma resposta para retirá-lo do ambiente. A esquiva refere-se àqueles comportamentos em que se cancelam ou adiam o surgimento do estímulo aversivo (Moreira & Medeiros, 2008). 
Um outro de tipo de controle aversivo do comportamento, que os autores relatam, é a punição. A punição diminui a probabilidade de ocorrência de uma determinada resposta. Assim como o reforço, a punição pode ser qualificada como positiva ou negativa, sendo a primeira caracterizada pela apresentação de um estímulo aversivo, e a segunda pela remoção de um estímulo reforçador. Tanto a punição como a extinção reduzem a probabilidade de um comportamento ocorrer (Moreira & Medeiros, 2008). A distinção básica entre punição e extinção com relação ao procedimento (como é feita) reside no fato de que, na extinção, uma consequência reforçadora anteriormente produzida pelo comportamento deixa de ocorrer. Já na punição, a consequência reforçadora continua ocorrendo; no entanto, uma outra consequência, que reduz a probabilidade do comportamento ocorrer, passa a ser produzida pelo comporta- mento. Outra diferença entre punição e extinção refere-se ao processo: a punição suprime rapidamente a resposta, enquanto a extinção produz uma diminuição gradual na probabilidade de ocorrência da resposta (Moreira & Medeiros, 2008).
No entanto, Moreira e Medeiros (2008) vão dizer que é importante ressaltar que nem todas as respostas são reforçadas quando emitidas: “Nem sempre ganhamos uma aposta e nem sempre somos vencedores todas as vezes em que jogamos. Nem todas as vezes que vamos a um bar é divertido. Não é sempre que encontramos o pão de queijo há pouco saído do forno na cantina. Nem sempre quando estudamos tiramos uma nota boa. Nem todos os nossos pedidos são atendidos” (p. 112).
 Dessa maneira, muitos comportamentos dos sujeitos são apenas intermitentemente reforçados; portanto, um comportamento não precisa ser reforçado todas as vezes em que ocorre para continuar sendo emitido. O conceito de esquema de reforçamento diz respeito, justamente, a que critérios uma resposta ou conjunto de respostas deve atingir para que ocorra o reforçamento. Em outras palavras, descreve como se dá a contingência de reforço, ou seja, a que condições as respostas devem obedecer para ser liberado o reforçador. Existem dois tipos de esquemas de reforçamento, o contínuo e o intermitente (Moreira & Medeiros, 2008).
No esquema de reforço contínuo, toda resposta é seguida do reforçador. Em experimentação, o esquema é chamado de continuous reinforcement, mais conhecido pela sigla CRF. Moreira e Medeiros (2008) citam exemplos de reforçamento contínuo que são comuns, como “um carro novo com bateria nova e tanque cheio: toda vez que giramos a chave, este começa a funcionar; é o caso também daquele namorado amoroso que aceita todos os convites de sua namorada” (p.112). Nesses exemplos, dizemos que as respostas (girar a chave e convidar para sair) sempre são seguidas de seus reforçadores, ou seja, são continuamente reforçadas. No CRF todas as vezes em que o comportamento ocorre – no exemplo, pressionar a barra – ele é reforçado. Já no esquema de reforço intermitente, algumas respostas são reforçadas e outras, não (Moreira & Medeiros, 2008).
No dia-a-dia, no entanto, Moreira e Medeiros (2008) vão dizer que nem todos os comportamentos que emitimos são reforçados. Falamos, nestes casos, sobre esquemas de reforçamento intermitente. A característica definidora dos esquemas de reforçamento intermitente é o fato de que nem todas as respostas são seguidas de reforço, ou melhor, apenas algumas respostas são seguidas de reforço. Moreira e Medeiros (2008) citam exemplos de reforçamento intermitente como “pregar um prego ou achar um programa interessante na TV. A não ser que você seja o Karatê Kid, que, com suas técnicas ninjas, consegue pregar um prego com apenas uma martelada, precisará emitir um certo número de marteladas. Nesse caso, com apenas uma martelada, o reforçador (isto é, prego pregado na madeira) não será apresentado. É necessária, portanto, a emissão de um número variável de respostas para que o reforçador fique disponível” (p.113).
Existem quatro tipos principais de esquemas intermitentes: intervalo fixo, razão fixa, intervalo variável e razão variável. Estes se organizam a) de acordo com o número de respostas para cada reforçador (isto é, esquemas de razão) ou tempo entre reforçadores (isto é, esquemas de intervalo) e b) se o número de resposta ou o tempo entre reforçadores é sempre o mesmo (isto é, razão ou intervalo fixos) ou muda de reforçador para reforçador (isto é, razão ou intervalo variáveis) (Hubner & Moreira, 2012).
De acordo com Lundin (1969/1972) Os esquemas de intervalo fixo produzem a discriminação temporal, como uma das principais características. São exemplos desse esquema: ligar a televisão na hora do noticiário, trabalhar por um salário, muitas vezes, após um tempo fixo de trabalho (1 hora, 1 semana, 1 mês etc.), engajar-se em atividades ligadas a estudo nas vésperas de provas, e a criança mostrar-se obediente às vésperas do final de semana prolongado, no qual poderá ser recompensada pelo “bom comportamento”. Em linhas gerais, apresenta-se como efeito do esquema de intervalo fixo a chamada “tolerância à frustração” (Lundin, 1969/1972), ou seja: o sujeito aprende que é inócuo apresentar respostas específicas, antes de um determinado tempo – não adianta pedir o salário antes de fechar o mês, ou pedir para ir ao clube nadar antesque chegue o final de semana. É também típico desse esquema o “deixar para a última hora”, como o entregar o trabalho ou a declaração do imposto de renda no último prazo.
Os esquemas de razão fixa tendem a produzir alta frequência de respostas e o reforçamento é liberado de acordo com o responder, independentemente de certa passagem de tempo. É o caso do artesão que ganha por peça produzida ou do tradutor que ganha por lauda. Tal esquema, especialmente quando instalado por meio de contingências de aumento gradual da razão, tende a produzir um tipo de comportamento relacionado com o que chamamos comumente de sujeito “batalhador” ou “determinado” ou “autoexigente”. 
Por seu turno, os esquemas de intervalo variável trazem como característica a estabilidade do responder. Lundin (1969/1972) oferece como exemplo o trabalho do pescador, que nunca sabe exatamente quando conseguirá fisgar o peixe e permanece continuamente atento aos movi- mentos que a linha ligada à sua vara de pesca apresenta. Lembramos, também, do vendedor de loja, que aguarda os fregueses, que poderão ou não adquirir os produtos por ele oferecidos. O autor refere-se a esse esquema como aquele responsável pela persistência do “continuar tentando”, apesar dos insucessos.
Os esquemas de razão variável produzem um alto e contínuo padrão de responder. Lundin (1969/1972) indica o jogador de bingo como um exemplo: quanto mais jogar, maior a chance de o jogador ganhar, mas não há predefinição sobre quando o reforço será apresentado. Um típico caso no qual se observa um esquema de razão variável em operação é a criança que aprendeu a insistir nos pedidos para conseguir algo da mãe (“água mole, pedra dura, tanto bate até que fura”). Tal padrão é reconhecido por estabelecer a chamada “persistência” ou mesmo o jogar considerado patológico.
Diante das teorias, conceitos e exemplos apresentados, para o presente trabalho, foram realizados experimentos de condicionamentos operantes como treinamento para uso do alimentador, modelagem para pressionar a barra, registro cumulativos, extinção, reforço secundário, recuperação espontânea, efeito de uma única punição suave e severa, efeito das punições suaves repetitivas e esquemas de reforçamento. Para a realizar as experimentações, foi utilizado o software Sniffy Pro 2.0, que de acordo com Alloway, Wilson e Graham (2015) é um programa desenvolvido para possibilitar aos graduandos de psicologia um acesso mais prático, ético e acessível para analisar e compreender as atividades de condicionamentos clássico e operante.
2 MÉTODOS
2.1 SUJEITO
Sujeito virtual único, rato albino Wistar, denominado Sniffy.
2.2 AMBIENTE, MATERIAIS E INSTRUMENTOS
Os experimentos clássicos foram realizados virtualmente, no laboratório de informática da Faculdade de Ciências Médicas Doutor José Antônio Garcia Coutinho, da Universidade do Vale do Sapucaí. O ambiente virtual no qual o sujeito do experimento foi exposto é denominado Caixa de Skinner, aparelho adequado para o estudo animal, onde, tipicamente, um rato é colocado dentro de uma caixa fechada que contém apenas uma alavanca e um fornecedor de alimento. Para registro das observações feitas foram utilizados materiais como caneta e papel. Além disso, para a realização dos experimentos foi necessário o uso de computadores com a disponibilização do software Sniffy Pro 2.0, que é um programa desenvolvido para possibilitar aos graduandos de psicologia um acesso mais prático, ético e acessível para analisar e compreender as atividades de condicionamentos clássico e operante.
2.3 PROCEDIMENTOS
EXPERIMENTO 22: TREINAMENTO PARA USO DO COMEDOURO
Iniciamos com um novo arquivo Sniffy.
Clicamos em File e depois em Save As para salvar o arquivo como “Exercício 22 - Treinamento para Uso do Comedouro – Ingrid e Júlia”.
Mostramos a janela da Mente Operant Associations selecionando-a na seção Mind Windows do menu Windows. 
Esperamos até Sniffy aproximar-se bem do comedouro. Apresentamos, então, uma pelota de alimento.
Mantivemos atentas à janela da mente Operant Associations. Quando a altura da barra SoundFood atingiu cerca de 1/4 da altura da escala, a mensagem na janela Helpful Advice passou a ser a seguinte: “Sniffy está adquirindo uma associação entre o som do comedouro e a apresentação do alimento. No entanto, essa associação não é suficientemente intensa para treinar Sniffy adequadamente. Continue a apresentar alimento quando Sniffy estiver perto do comedouro”. Continuamos a reforçar Sniffy quando ele estivesse perto da vasilha.
Quando a altura da barra Sound-Food na janela da mente Operant Associations alcançou cerca de 3/4 da altura da escala, o Helpful Advice indicou a seguinte mensagem: “Sniffy parece ter adquirido uma associação entre o som da vasilha e o alimento. Você pode utilizar agora o som como reforçador para modelar o comportamento de Sniffy”.
Quando o treinamento para Sniffy usar o comedouro chegou ao fim, salvamos o arquivo.
EXPERIMENTO 23: MODELANDO SNIFFY PARA PRESSIONAR A BARRA
Abrimos o arquivo denominado como “Exercício 22 - Treinamento para Uso do Comedouro – Ingrid e Júlia”.
Selecionamos o comando Save As no menu File para dar ao arquivo o nome de “Exercício 23 – Modelagem – Ingrid e Júlia”
Mostramos a janela da mente Operant Associations na tela selecionando-a na seção Mind Windows do menu Windows.
Tornamos visível o Cumulative Record 1 selecionando-o na seção Cumulative Record do menu Windows.
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Na caixa de diálogo que apareceu, selecionamos Continuous na seção Reinforcement Schedule. Em Recorded Behavior selecionamos Bar Press. Após fazer a seleção, clicamos em Apply e depois em Close para fechar a caixa de diálogo.
Observamos que os termos CRF e Bar Pressing apareceram no registro cumulativo. CRF significa Continuous Reinforcement, indicando que o programa reforçará automaticamente toda pressão à barra. A notação Bar Press indica que o registro cumulativo está registrando as pressões à barra. 
 Demos a Sniffy uma pelota de alimento quando ele se levantava de frente para a parede de trás, em qualquer lugar da câmara operante. 
Exijimos gradualmente que Sniffy levantasse cada vez mais próximo da parede.
Quando Sniffy pressionou a barra, a associação barra-som começou a se formar. Nesse ponto, apareceu uma coluna vermelha acima das palavras Bar-Sound e Action Strength na janela da mente Operant Associations.
Quando a coluna acima de Bar-Sound alcançou cerca de 1/4 da altura máxima, a mensagem na janela Helpful Advice mudou para “Sniffy está desenvolvendo uma associação entre a barra e o som. Continue e logo Sniffy deverá estar treinado”.
Chegamos a ocasião em que Sniffy pressionou a barra de 8 a 10 vezes em sucessão rápida. Nesse ponto, interrompemos a modelagem e observamos o efeito progressivo do reforço enquanto Sniffy continuava a pressionar a barra com frequência cada vez maior.
O treinamento de Sniffy ficou completo quando a mensagem transmitida pelo Helpful Advice mudou para “Sniffy parece estar treinado adequadamente. Você pode realizar experimentos com diferentes efeitos de programação”.
Selecionamos o comando Save no menu File a fim de preservar o Sniffy treinado para uso futuro.
Observamos a janela Cumulative Record e interpretamos os resultados.
EXPERIMENTO 24: REGISTROS CUMULATIVOS – VISUALIZAÇÃO DAS RESPOSTAS DE SNIFFY
Iniciamos o programa Sniffy Pro.
Usamos o comando Open no menu File para abrir o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
Selecionamos o comando Save As para salvar o arquivo com o nome “Exercício 24 –Registros cumulativos– Ingrid e Júlia”.
Analisamos quantas vezes o Sniffy pressionava a barra do comedouro a cada 1 minuto em um período de 15 minutos.
EXPERIMENTO 25: EXTINÇÃO 
Iniciamos o programa Sniffy Pro.
Usamos o comando Open no menu File para abrir o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
Usamos o comando SaveAs para salvar o arquivo com o nome “Exercício 25 – Extinção – Ingrid e Júlia”.
Escolhemos o comando Design Operant Conditioning Experiment no menu Experiment.
Quando a caixa de diálogo abriu, o botão Continuous e a ação de reforço Bar Press foram selecionados pois reforçamos todas as respostas (pressões à barra) de Sniffy.
Marcamos o botão Extinction no menu Reinforcement Schedule.
Asseguramos de que a caixa ao lado de Mute Pellet Dispenser estivesse marcada. 
Após verificar para nos assegurar que fizemos as configurações corretas, clicamos no botão OK.
O programa Sniffy Pro começou a executar novamente, porém as pressões à barra não seriam mais reforçadas.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Observamos que o registro cumulativo mostrou o ponto no qual a extinção se iniciou e nos informou que o som do alimentador estava inativo.
Observamos o “jorro de respostas de extinção”. 
Nosso critério de extinção foi um período de 5 minutos durante o qual Sniffy pressionou a barra no máximo 2 vezes. Quando atingiu esse ponto, assinalamos o registro cumulativo executando o comando Mark Record no menu Experiment.
A janela da mente Operant Associations mostrou que a extinção resulta da eliminação da associação barra-som e da intensidade da ação. Mas a associação som-alimento permanece intacta. 
Salvamos nosso arquivo de extinção selecionando o comando Save no menu File.
EXPERIMENTO 26: REFORÇO SECUNDÁRIO 
Iniciamos o programa.
Use o comando Open no menu File para abrir o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”.
Usamos o comando Save As para salvar o arquivo com o nome “Exercício 26 – Reforço Secundário – Ingrid e Júlia.
Escolhemos o comando Design Operant Conditioning Experiment no menu Experiment.
Marcamos o botão Extinction.
Desmarcamos o botão Mute Pellet Dispenser.
Asseguramos que nós tivéssemos feito todas as configurações corretas e clicamos no botão OK.
Desejamos acelerar o experimento e selecione o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Observamos a inexistência do jorro de respostas de extinção.
Nosso critério de extinção foi de um período de 5 minutos durante o qual Sniffy pressionou a barra no máximo 2 vezes. Quando isso ocorreu, salvamos o experimento. 
Estimamos o número de respostas que Sniffy deu entre o início da extinção e o momento em que o critério foi atingido e o tempo necessário para atingir o critério de extinção. 
Observamos esse registro na janela Cumulative Record.
Comparamos a extinção de Sniffy com o som do comedouro ligado com a extinção que nós havíamos observado no experimento anterior. Interpretamos a diferença entre os dois experimentos.
Observamos a janela da mente Operant Associations e interpretamos o resultado.
EXPERIMENTO 27: RECUPERAÇÃO ESPONTÂNEA
Abrimos o arquivo Exercício 25 – Extinção – Ingrid e Júlia”.
Usamos o comando Save As para salvar o arquivo com o nome “Exercício 27 – Recuperação Espontânea – Ingrid e Júlia.
Escolhemos Remove Sniffy for Time-Out no menu Experiment, para simular um descanso.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Comparamos o número de pressões à barra neste experimento com o registro (Cumulative Record) feito antes do início da extinção e o registro feito no final da extinção. Interpretamos o resultado.
EXPERIMENTO 28: O EFEITO DE UMA ÚNICA PUNIÇÃO SUAVE
Usamos o comando Open no menu File para abrir o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
 Usamos o comando Save As no menu File para salvar o arquivo com o nome “Exercício 28 – Punição Suave – Ingrid e Júlia. 
Tornamos visível o registro cumulativo selecionando-o no menu Windows.
Executamos o comando Design Operant Conditioning Experiment, selecionando-o no menu Experiment.
Selecionamos Extinction.
Clicamos na caixa intitulada Punish Bar Press.
Asseguramos de que a caixa First Press Only e a caixa Mute Pellet Dispenser estivessem marcadas.
Clicamos no botão OK.
Se você desejar acelerar o experimento, selecione o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Observamos que, na primeira vezem que Sniffy pressionou a barra, ele saltou no ar indicando que havia recebido um choque.
Nosso critério de extinção foi um período de 5 minutos durante o qual Sniffy não pressiona a barra mais de 2 vezes. Quando Sniffy atendeu ao critério de extinção, salvamos o arquivo.
Comparamos o número de pressões à barra que Sniffy faz antes de atingir o critério de extinção com os resultados do experimento 25 (extinção sem aplicação do choque). 
EXPERIMENTO 29 – O EFEITO DE UMA ÚNICA PUNIÇÃO SEVERA
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
Usamos o comando Save As para salvar o arquivo como “Exercício 29 – Punição Severa – Ingrid e Júlia”.
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Selecionamos Extinction.
Clicamos na caixa intitulada Punish Bar Press.
Asseguramos de que a caixa First Press Only estivesse marcada.
Clicamos na caixa ao lado de High Punishment. Essa configuração fez com que a primeira pressão à barra de Sniffy fosse seguida por um choque severo.
Asseguramos de que a caixa Mute Pellet Dispenser também estivesse marcada.
Clicamos no botão OK.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Quando Sniffy atendeu ao critério de extinção, salvamos o arquivo.
Comparamos o número de pressões à barra que Sniffy realiza antes de atender ao critério de extinção nesse experimento, com os resultados do experimento 25. 
EXPERIMENTO 30: O EFEITO DAS PUNIÇÕES SUAVES REPETITIVAS
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
Usamos o comando Save As para salvar o arquivo como “Exercício 30 – Punições suaves repetitivas – Ingrid e Júlia. 
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Selecionamos Extinction.
Clicamos na caixa intitulada Punish Bar Press.
Desmarcamos a caixa First Press Only. 
Asseguramos de que a caixa ao lado de High Punishment estivesse desmarcada.
Asseguramos de que a caixa Mute Pellet Dispenser estivesse também marcada.
Clicamos no botão OK.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Quando Sniffy atendeu ao critério de extinção, salvamos o arquivo.
Comparamos o número de pressões à barra que Sniffy faz antes de atender ao critério de extinção nesse experimento com os resultados do experimento 25. 
EXPERIMENTO 31: COLOCANDO SNIFFY EM UM ESQUEMA DE VR PEQUENO
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”
Usamos o comando Save As para salvar o arquivo como “Exercício 31 – Esquema de VR pequeno – Ingrid e Júlia. 
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Selecionamos, sob Reinforcement Schedule, as alternativas Variable e Responses. Digitamos 5 na caixa de texto e clicamos em OK. 
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Quando chegamos a conclusão de que o treinamento do Sniffy foi o suficiente, escolhemos o comando Save no menu File para salvar o arquivo. 
EXPERIMENTO 32: AUMENTO DO VALOR DO ESQUEMA VR DE SNIFFY
Abrimos o arquivo “Exercício 31 – Esquema de VR pequeno – Ingrid e Júlia”.
Verificamos a janela da mente Operant Associations para ter certeza de que a associação barra-som e a força da ação encontravam-se em seus níveis máximos ou próximos deles. 
Usamos o comando Save As para salvar o arquivo como “Exercício 32 – Aumento do valor do esquema de VR – Ingrid e Júlia. 
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Asseguramos de que as alternativas Variable e Responses estivessem marcadas. Digitamos 10 na caixa de texto e clicamos em OK. 
Desejamos acelerar o experimento e selecionamoso comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Repetimos as partes relevantes das instruções acima para modelar Sniffy em um esquema de VR-50. Para isso utilizamos VR- 20 e VR-35 como passos intermediários para que Sniffy atingisse de forma fácil e rápida o ponto final do VR-50. 
Quando chegamos a conclusão de que o treinamento do Sniffy foi o suficiente, escolhemos o comando Save no menu File para salvar o arquivo. 
EXPERIMENTO 33: ESQUEMAS DE INTERVALO VARIÁVEL
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”.
Usamos o comando Save As para salvar o arquivo como “Exercício 33 – Esquemas de intervalo variável – Ingrid e Júlia. 
Seguimos as instruções gerais indicadas na seção Setting Up a Schedule na caixa de diálogo Design Operant Conditioning Experiment a fim de modelar Sniffy a um esquema VI-50 segundos.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Utilizamos VI- 20 e VI-35 como passos intermediários para que Sniffy atingisse de forma fácil e rápida o ponto final do VI-50. 
Quando chegamos a conclusão de que o treinamento do Sniffy foi o suficiente, escolhemos o comando Save no menu File para salvar o arquivo. 
EXPERIMENTO 34: ESQUEMAS DE RAZÃO FIXA
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”.
Usamos o comando Save As para salvar o arquivo como “Exercício 34 – Esquemas de razão fixa – Ingrid e Júlia”. 
Seguimos as instruções gerais indicadas na seção Setting Up a Schedule na caixa de diálogo Design Operant Conditioning Experiment a fim de modelar Sniffy a um esquema FR-50 segundos.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Utilizamos FR- 20 e FR-35 como passos intermediários para que Sniffy atingisse de forma fácil e rápida o ponto final do FR-50. 
Quando chegamos a conclusão de que o treinamento do Sniffy foi o suficiente, escolhemos o comando Save no menu File para salvar o arquivo. 
EXPERIMENTO 35: ESQUEMA DE INTERVALO FIXO
Abrimos o arquivo “Exercício 23 – Modelagem – Ingrid e Júlia”.
Usamos o comando Save As para salvar o arquivo como “Exercício 35 – Esquemas de intervalo fixo – Ingrid e Júlia”. 
Seguimos as instruções gerais indicadas na seção Setting Up a Schedule na caixa de diálogo Design Operant Conditioning Experiment a fim de modelar Sniffy a um esquema FI-50 segundos.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Utilizamos FI- 20 e FI-35 como passos intermediários para que Sniffy atingisse de forma fácil e rápida o ponto final do FI-50. 
Quando chegamos a conclusão de que o treinamento do Sniffy foi o suficiente, escolhemos o comando Save no menu File para salvar o arquivo. 
EXPERIMENTO 36: O EFEITO DO REFORÇO PARCIAL SOBRE A EXTINÇÃO
Abrimos o arquivo “Exercício 35 – Esquemas de intervalo fixo – Ingrid e Júlia”. 
Usamos o comando Save As para salvar o arquivo como “Exercício 36 – Reforço parcial sobre a extinção – Ingrid e Júlia”. 
Verificamos a janela da mente Operant Associations para ter certeza de que a associação barra-som se encontrava encontravam no nível máximo ou perto dele. 
Selecionamos o comando Design Operant Conditioning Experiment no menu Experiment.
Clicamos na opção Extinction na caixa de diálogo, certificamos de a caixa do Mute Pellet Dispenser tivesse sido selecionada e clicamos no botão OK.
Desejamos acelerar o experimento e selecionamos o comando Isolate Sniffy (Accelerate Time) no menu Experiment.
Deixamos o programa executa até Sniffy alcançar o critério de extinção de no máximo duas respostas durante um período de 5 minutos. 
Salvamos o arquivo.
RESULTADOS E DISCURSSÕES
EXPERIMENTO 22: TREINAMENTO PARA USO DO ALIMENTADOR
 
Neste experimento, operamos o alimentador a fim de apresentar pelotas de alimento de tal modo que aprendesse a associar o som do alimentador com a disponibilidade de alimento no comedouro. Para que esse experimento pudesse ser realizado de forma efetiva, a nossa interação com o Sniffy foi fundamental, uma vez que, o alimento deveria ser apresentado de forma rápida assim que Sniffy chegasse próximo ao comedouro, para que ele associe rapidamente o som da barra ao alimento. Na figura 1, por exemplo, conseguimos perceber que Sniffy conseguiu fazer a associação som-alimento. 
Figura 1
EXPERIMENTO 23: MODELANDO SNIFFY PARA PRESSIONAR A BARRA
Neste experimento, ensinamos um outro comportamento para o rato Sniffy. O objetivo foi fazer com que o rato associasse barra-som para obter o alimento. Na medida em que o Sniffy eliciava alguns comportamentos específicos desejados ele era reforçado, isto é, ele ganhava uma pelota de comida. O comportamento do rato foi modelado por causa de várias aproximações continuas. Na figura 2, o comportamento do animal de pressionar a barra aumenta em razão do reforço dado com alimentado.
Figura 2
Quando a mensagem transmitida pelo Lab Assistent, conforme figura 3, mudou para “Sniffy parece estar treinado adequadamente. Você pode realizar experimentos com diferentes efeitos de programação”, nós finalizamos o experimento e analisamos que o comportamento do Sniffy demorou cerca de 75 minutos para ser modelado de forma efetiva.
Figura 3
Conforme a figura 4, percebemos que Sniffy aprendeu a associar barra-som para conseguir alimento.
Figura 4
EXPERIMENTO 24: REGISTRO CUMULATIVOS – VISUALIZAÇÃO DAS RESPOSTAS DE SNIFFY (colocar resultados do experimento)
EXPERIMENTO 25: EXTINÇÃO 
De acordo com a figura 5, neste experimento, nós queríamos extinguir o comportamento de Sniffy de apertar a barra. Por isso, não reforçamos mais o comportamento, deixando de gratificar Sniffy. Além disso, desligamos o som da barra.
 	Durante o experimento, Sniffy apertava a barra e não recebia a comida, assim ele diminuía suas emissões de resposta de apertar a barra, mas antes de diminuir o comportamento de apertar a barra ele apresentou um jorro de respostas apertando várias vezes a barra.
Figura 5
Na figura 6, pode-se perceber que conseguimos extinguir o comportamento do Sniffy de apertar a barra. O comportamento de Sniffy demorou certa de 45 minutos para ser extinto. 
Figura 6
EXPERIMENTO 26: REFORÇO SECUNDÁRIO 
Nesta experimentação, preparamos um experimento de extinção no qual Sniffy não recebia mais alimento quando pressionava a barra. No entanto, as pressões à barra continuavam a produzir o som do alimentador. Ouvir o som do alimentador como consequência das pressões à barra durante a extinção teve dois efeitos. O primeiro, apresentar o som depois de cada pressão à barra continuou a reforçar durante um certo período de tempo as pressões à barra, tendo como resultado a diminuição do ritmo do processo de extinção. Segundo, em virtude de o som ocorrer mas não haver liberação de pelotas de alimento, a associação som-alimento extinguiu-se no final. 
Neste experimento, conforme figura 7, devido Sniffy ouvir o som do alimentador após cada pressão à barra, deixamos de ver o jorro de respostas da extinção, que vimos durante a extinção padrão sem o som do alimentador. Observamos também que cada vez que Sniffy ouvia o som do alimentador, o mesmo se afastava da barra e farejava o comedouro. Além disso, assim como mostra a figura 8, pudemos perceber que durante o processo de extinção com o som do alimentador ligado, a associação som-alimento foi se extinguindo, o que não ocorreu com a associação barra-som, uma vez que a mesma permanecia intacta devido Sniffy continuar a ouvir o som após cada pressão à barra. 
Figura 7
Figura 8
EXPERIMENTO 27: RECUPERAÇÃO ESPONTÂNEA 
No experimento para observar a recuperação espontânea, tiramos Sniffy da caixa após a extinção e deixamo-lo descansar. Quando colocamos Sniffy novamente na caixa ele sofre um fenômeno chamado recuperação espontânea que é o retorno da resposta após a sessão de extinção.Percebemos assim que, conforme figura 9, ao Sniffy voltar para caixa, o número de pressões à barra foi maior do que no final da extinção, porém foi menor do que antes da extinção. Além disso, notamos que, no início do experimento, os itens extintos foram em partes recuperados. Esse recuperamento parcial dos itens extintos é a razão “psicológica” por que Sniffy pressionava a barra com mais frequência no início da segunda sessão de extinção do que no final da primeira sessão de extinção. 
Por fim, foi possível perceber que Sniffy voltou a apresentar o comportamento extinto, conforme figura 10, depois de 25 minutos.
Figura 9
Figura 10
EXPERIMENTO 28: O EFEITO DE UMA ÚNICA PUNIÇÃO SUAVE 
Nesse experimento o objetivo era punir Sniffy, com um único choque suave, quando o mesmo pressionasse a barra. Para isso, colocamos um estímulo aversivo, que é o choque, apenas uma vez. Pudemos perceber, conforme figura 11, que a punição leve não produziu nenhuma mudança significativa no processo de extinção do comportamento de Sniffy, uma vez que após receber um único choque suave, o mesmo não pressionou a barra novamente durante alguns minutos, mas depois voltou a apresentar tal comportamento. 
Sendo assim, percebemos que uma única punição suave aplicada no início da extinção suprime brevemente as pressões à barra, mas exerce pouco efeito no número total de pressões à barra necessárias para gerar a extinção. 
Figura 11
Figura 12
EXPERIMENTO 29: O EFEITO DE UMA ÚNICA PUNIÇÃO SEVERA 
Na sequência do experimento foi acrescido novamente, conforme figura 13, um estímulo aversivo, sendo um único choque severo onde o rato foi punido para parar de bater a barra. Na experimentação, após receber um único choque severo, Sniffy não pressionou a barra novamente por um longo período e quando ele a pressionava, não a pressionava de novo muito rapidamente. Assim, pudemos perceber que um único choque severo é suficiente para produzir muito rapidamente a quase total eliminação da resposta.
Figura 13
Figura 14
EXPERIMENTO 30: O EFEITO DAS PUNIÇÕES SUAVES REPETITIVAS 
Neste experimento, percebemos os efeitos das punições suaves repetitivas no rato virtual. Conforme a imagem 15, choque suaves repetitivos fizeram com que Sniffy não pressionasse a barra novamente durante alguns minutos após cada pressão a barra. Percebemos assim que, aplicar choque repetidamente em Sniffy pode não diminuir o período de tempo antes de ele atender ao critério de extinção. Sendo assim o tempo necessário para atender a esse critério pode ser maior.
Figura 15
Figura 16
EXPERIMENTO 31: COLOCANDO SNIFFY EM UM ESQUEMA DE VR PEQUENO
Neste experimento incluímos Sniffy em um esquema de reforçamento de razão variável (VR) pequeno. A figura 17, por exemplo, indica o ponto no qual o esquema VR-5 foi introduzido. Após o rato virtual ser incluído em um esquema, quando ele se deparou pela primeira vez com respostas não reforçadas, começou o processo de extinção. A princípio a janela da mente Operante Associations nos mostrou esse processo como uma diminuição da força da ação e da associação barra-som. No entanto, Sniffy se ajustou de forma positiva ao experimento e a associação barra-som e a força da ação começaram a aumentar novamente (conforme figura 18) depois que Sniffy recebeu diversos reforços de acordo com o esquema. 
 Figura 17
 Figura 18
EXPERIMENTO 32: AUMENTO DO VALOR DO ESQUEMA VR DE SNIFFY
Neste experimento agora, Sniffy ficou sujeito a tentativas sem reforço de maior duração, por isso a associação barra-som e a força da ação enfraqueceram a princípio. No entanto, esses valores começaram a se elevar novamente (conforme figura 19) depois que Sniffy recebeu diversos reforços no novo esquema. Na experimentação, percebemos também que o rato virtual atingiu de forma fácil e rápida o ponto final do VR-50, pois utilizamos VR- 20 e VR-35 como passos intermediários. Na imagem 19, por exemplo, podemos notar o padrão de respostas rápido e razoavelmente constante. 
 Figura 19
Figura 20
EXPERIMENTO 33: ESQUEMAS DE INTERVALO VARIÁVEL 
Neste experimento, modelamos Sniffy a um esquema VI-50 segundos. No registro cumulativo, conforme figura 21, percebemos um padrão de respostas lentas e razoavelmente constantes de Sniffy. Neste experimento, também utilizamos VI- 20 e VI-35 como passos intermediários para que Sniffy atingisse de forma efetiva o ponto final do VI-50.
Figura 21
Figura 22
EXPERIMENTO 34: ESQUEMA DE RAZÃO FIXA 
Neste experimento, modelamos Sniffy a um esquema FR-50 segundos. No registro cumulativo, conforme figura 22, percebemos pausas nas respostas de Sniffy que ocorreram após cada reforço ser recebido e também observamos transições abruptas para responder rápido no final de cada pausa. Além disso, foram utilizadas também, nesse experimento, FR- 20 e FR-35 como passos intermediários para que Sniffy atingisse de forma efetiva o ponto final do FR-50.
Figura 23
EXPERIMENTO 35: ESQUEMA DE INTERVALO FIXO 
Neste experimento, modelamos Sniffy a um esquema FI-50 segundos. No registro cumulativo, conforme figura 21, percebemos pausas do comportamento do Sniffy após cada reforço ser recebido, seguidas por transições razoavelmente graduais para o responder moderadamente antes que ocorra o próximo reforço. Neste experimento, também utilizamos VI- 20 e VI-35 como passos intermediários para que Sniffy atingisse de forma efetiva o ponto final do VI-50.
Figura 24
EXPERIMENTO 36: O EFEITO DO REFORÇO PARCIAL SOBRE A EXTINÇÃO
Neste experimento, percebemos que a extinção do reforçamento intermitente reduziu rapidamente a frequência de respostas do Sniffy. Além disso, foi observado que nesse processo, o comportamento do rato virtual apresentou maior resistência à extinção. Um fator relevante responsável pela resistência à extinção seria a similaridade das condições de treino com as condições de extinção. Fazendo uma comparação de resultados da extinção entre CRF e esquemas de reforçamento intermitente, no esquema de reforçamento contínuo, por exemplo, o comportamento do Sniffy facilmente entrou em extinção, uma vez que ele percebeu facilmente a ausência do reforço, aumentou a emissão de respostas no início do experimento, mudou a topografia da resposta (tentou de outras maneiras) e emitiu respostas emocionais, mas após essas tentativas o reforço não apareceu e assim, seu comportamento foi extinto. 
No caso da extinção do reforçamento intermitente – diferente do reforçamento contínuo em que há uma mudança drástica das condições para o não-reforçamento – O Sniffy já havia se acostumado a passar períodos sem um reforço, tornando as condições de extinção parecidas com as condições de reforçamento. Dessa maneira, a frequência das respostas do rato virtual continuou semelhante a de antes. 
Reforçar em CRF é altamente eficaz na modelagem de um novo comportamento, mas quando realizado em Esquemas de Reforçamento Intermitente são mais eficazes para manutenção do mesmo, ou seja, são mais difíceis de serem extintos. Isso deve-se ao fato de serem facilmente manipulados enquanto quantidade de respostas e tempo, fazendo com que o organismo já tenha aprendido que o “reforço nem sempre vem”, tentando mais e mais vezes alcançá-lo.
Figura 25
Figura 26
CONSIDERAÇÕES FINAIS 
Experienciamos um aperfeiçoamento prático com a teoria Behaviorista de Skinner. As aulas que foram conduzidas no laboratório nos proporcionaram um amplo aprofundamento na teoria, sendo assim de grande contribuição nos estudos, além de possibilitar o entendimento empírico do comportamento e condicionamento operante. ´Foi possível compreender nos experimentos que a associação entre estímulos e respostas era assinalada pela flexibilidade e a probabilidade de ocorrência da resposta variava ao longo de diversas exposições ao estímulo. Além disso, na modelagem, observamos que todo processo da aprendizagem há um reforçador. Assim, também pudemoscompreender que para o behaviorismo em geral, o reforço pode ser positivo ou negativo. O psicólogo norte-americano, Burrhus Frederic Skinner considerava reforço apenas as contingências de estímulo. Vimos ainda as contingências de reforços com reforçamento positivo e negativo e também aprendemos que existem duas formas de se reforçar um comportamento dentro do condicionamento operante: por reforçamento contínuo e intermitente. Nos experimentos, percebemos que o organismo com maior repertório comportamental em CRF tende a desistir mais facilmente de seus objetivos (pouca resistência à extinção), ao passo que aquele em Reforçamento Intermitente possui mais “perseverança” (maior resistência à extinção). Ainda pudemos entender que uma única punição suave tem pouco efeito na extinção do comportamento, mas uma única punição severa já é o suficiente para produzir muito rapidamente a quase total eliminação da resposta. Além disso, vimos que as punições suaves repetitivas precisam ser dadas em um maior período de tempo para que a extinção possa acontecer. Durante as experimentações ainda, também compreendemos que a recuperação espontânea refere-se ao reaparecimento da resposta condicionada depois de um período de repouso ou período de menos respostas.
Por fim, pudemos assimilar de forma efetiva a teoria com a prática laboratorial compreendendo que o comportamento pode ser aprendido por meio de recompensas e punições. As ações que são seguidas por reforço serão reforçadas e tem mais probabilidade de ocorrer novamente no futuro, mas as ações que resultam em punição ou consequências indesejáveis serão enfraquecidas e terão menos probabilidade de ocorrerem novamente no futuro
REFERÊNCIAS
Alloway, T., Wilson, G., & e Graham, J. (2015). Sniffy o Rato Virtual. Cengage
Hubner, M. M. C., & Moreira, M. B. (2012). Temas clássicos da psicologia sob a ótica da análise do comportamento. Rio de Janeiro: Guanabara Koogan, 2012.
Lundin, R. W. (1974). Psicologia da personalidade. Rio de Janeiro: José Olympio.
Moreira, M. B., & Medeiros, C. A. (2008). Princípios básicos de análise do comportamento. Porto Alegre: Artmed.
Skinner, B. F. (1953). Science and Human Behavior. New York: The MacMillan Company.

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes