Buscar

UNIVERSIDADE PAULISTA

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE PAULISTA – ANCHIETA
GRADUAÇÃO EM PSICOLOGIA
Ana Carolina Caldas de Oliveira – N640CD6
Angélica Neves de Azevedo – N688122
Beatriz de Lana Fonseca – N633BC4
Fabrícia Santana de Lima – F1753B0
Glória Jamili da Silva Moura – N5756J4
Nicoly Colios de Andrade – N550660
Pietra Izaac Silva – F223IG9
Tamela Tuany Carvalho da Rocha Oliveira – F233499
Vitória Salvador Zeller – N5549F6
RELATÓRIO DE PRÁTICA EM LABORATÓRIO:
CONDICIONAMENTO OPERANTE DO RATO VIRTUAL
SNIFFY PRO 2.0
UNIVERSIDADE PAULISTA - ANCHIETA
SÃO PAULO
2021
Ana Carolina Caldas de Oliveira – N640CD6
Angélica Neves de Azevedo – N688122
Beatriz de Lana Fonseca – N633BC4
Fabrícia Santana de Lima – F1753B0
Glória Jamili da Silva Moura – N5756J4
Nicoly Colios de Andrade – N550660
Pietra Izaac Silva – F223IG9
Tamela Tuany Carvalho da Rocha Oliveira – F233499
Vitória Salvador Zeller – N5549F6
RELATÓRIO DE PRÁTICA EM LABORATÓRIO:
CONDICIONAMENTO OPERANTE DO RATO VIRTUAL
SNIFFY PRO 2.0
Relatório apresentado à disciplina de Análise Experimental do Comportamento, do Curso de Psicologia, da Universidade Paulista (UNIP) na Avenida Anchieta no Estado de São Paulo.
Orientador(a): Prof. Luan Flávia Barufi
UNIVERSIDADE PAULISTA
SÃO PAULO
2021
RELATÓRIO DE PRÁTICA EM LABORATÓRIO:
CONDICIONAMENTO OPERANTE DO RATO VIRTUAL
SNIFFY PRO 2.0
Ana Carolina Caldas de Oliveira – N640CD6
Angélica Neves de Azevedo – N688122
Beatriz de Lana Fonseca – N633BC4
Fabrícia Santana de Lima – F1753B0
Glória Jamili da Silva Moura – N5756J4
Nicoly Colios de Andrade – N550660
Pietra Izaac Silva – F223IG9
Tamela Tuany Carvalho da Rocha Oliveira – F233499
Vitória Salvador Zeller – N5549F6
Aprovada em 16/05/2021
BANCA EXAMINADORA
____Luan Flávia Barufi___
Professora e orientadora
AGRADECIMENTOS
Agradeço a professora e orientadora Luan Flávia Barufi pelo auxílio na formação do trabalho. Em especial, agradeço a Deus que me concedeu durante todo esse período força e perseverança para o desenvolvimento desse trabalho. 
Quero agradecer também aos colegas de classe pelo esforço e dedicação que colocam diariamente no trabalho. Todas estão de parabéns pelo excelente trabalho realizado, e pelo espírito de união e sacrifício que existe no grupo. Vocês são a prova de que o sucesso se alcança através do talento, determinação e que se dedicam tanto para correr atrás do que realmente importa.
Agradeço também aos meus pais, que contribuíram para o meu crescimento como pessoa porque a eles devo tudo e sem a ajuda deles não teria a confiança e coragem de encarar os desafios da vida.
“Seja inato ou adquirido, o comportamento é selecionado por suas consequências” 
– B. F. Skinner
RESUMO
O presente trabalho apresenta os estudos e experimentos laboratoriais realizados com um rato virtual por meio do software Sniffy Pro 2.0. O condicionamento operante é um mecanismo de aprendizagem de novo comportamento - um processo que Skinner chamou de modelagem. Nesse processo, o instrumento fundamental de modelagem é o reforço - a consequência de uma ação quando ela é percebida por aquele que a pratica. Para o behaviorismo em geral, o reforço pode ser positivo ou negativo. O psicólogo norte-americano, Burrhus Frederic Skinner considerava reforço apenas as contingências de estímulo. No condicionamento operante, um mecanismo é fortalecido no sentido de tornar uma resposta mais provável ou mais frequente. Dessa maneira, para compreender os vários mecanismos acerca de um comportamento operante, realizamos experimentações, com o rato virtual Sniffy, de acordo com o embasamento teórico dos princípios básicos da análise do comportamento de Skinner. Os experimentos realizados incluem o treinamento para uso do alimentador, modelagem para pressionar a barra, registro cumulativos, extinção, reforço secundário, recuperação espontânea, efeito de uma única punição suave e severa, efeito das punições suaves repetitivas e esquemas de reforçamento. 
 
Palavras-chave: Condicionamento operante; experimentações; rato virtual Sniffy; Skinner; modelagem; aprendizagem; reforço; comportamento. 
SUMÁRIO
1. INTRODUÇÃO........................................................................................8
1.1 REFORÇO..........................................................................................9
1.2 PUNIÇÃO..........................................................................................10
1.3 EXTINÇÃO.......................................................................................11
1.4 MODELAGEM.................................................................................13
1.5 PRIVAÇÃO.......................................................................................14
1.6 INTERMITÊNCIA E CONTINUIDADE DO REFORÇO..........14
1.7 GENERALIZAÇÃO........................................................................17
1.8 DISCRIMINAÇÃO..........................................................................18
1.9 OBJETIVO........................................................................................19
2. MÉTODO.................................................................................................19
2.1 SUJEITO............................................................................................19
2.2 MATERIAIS......................................................................................19
2.3 DESCRIÇÃO DOS PROCEDIMENTOS.......................................20
 2.3.1 NÍVEL OPERANTE (NO) ......................................................20
 2.3.2 TREINO AO COMEDOURO.................................................20
 2.3.3 MODELAGEM........................................................................20
 2.3.4 PRÁTICA DE FREQUÊNCIA DO REFORÇAMENTO CONTÍNUO.............................................................................................20
 2.3.5 EXTINÇÃO..............................................................................20
 2.3.6 TREINO DISCRIMINATIVO................................................21
 2.3.7. ESQUEMA DE REFORÇAMENTO DE RAZÃO FIXA....21
3. RESULTADOS....................................................................................21
4. CONCLUSÃO..................................................................................... 30
5. REFERÊNCIAS BIBLIOGRÁFICAS..............................................31
1. Introdução
Após a publicação do Manifesto Behaviorista por John Watson em 1913, os estudos sobre comportamento, principalmente sobre aquilo que veio a se chamar de comportamento operante, ganharam maior visibilidade. Porém, as teorias de Watson não se aplicavam a certos comportamentos que o behaviorismo tratou como objeto de estudo após os trabalhos de B. F. Skinner (como o pensar), devido ao próprio conceito de comportamento daquele autor como sendo aquilo que é necessariamente observável. Então, interessado nos estudos de Pavlov e Watson, Skinner – um dos pioneiros da psicologia experimental – reviu as teorias sobre comportamento da época e fundou a filosofia que deu origem à Análise do Comportamento: o Behaviorismo Radical.
Para se compreender o comportamento tal qual Skinner (2003/1953) o propõe é necessário compreender primeiro o conceito de comportamento respondente que, em suma, é uma relação entre uma determinada alteração no ambiente que produz determinada alteração num organismo na qual o estímulo elicia a resposta (Skinner, 1953/2003). Diferentemente do comportamento respondente, o comportamento operante não é analisado majoritariamente pelas consequências que o ambiente produz no organismo e sim pelas alterações que o organismo produz no ambiente, melhor dizendo, pelas consequências do comportamento que é emitido (Skinner, 2003/1953). Diz-se, portanto, que o comportamento operante ocorre em função de algo e altera o ambiente onde é emitido e o próprio sujeito que o emite. Para compreender um comportamento operante, há um maior interesse na função que eleestabelece no ambiente no qual é emitido no que em sua descrição topográfica exaustiva (Skinner, 2003/1953); por mais que “dissecar” as formas de um comportamento facilite o entendimento da sua função através das alterações provocadas nas variáveis ambientais (antecedentes e consequentes a uma resposta), deve-se sempre ter estas como foco da análise do comportamento.
Skinner (1953/2003) prefere a palavra funcional do que causal pelo sentido que se atribuiu ao termo “causal” na história da ciência. Se o comportamento fosse determinado por uma relação meramente causal, estímulo antecedente, uma resposta e sua consequência passada e presente estabeleceriam relações mecânicas. De certa maneira, a palavra funcional ainda atribui causas ao comportamento, mas diferentemente: o comportamento enquanto relação entre estímulo antecedente, uma resposta e sua consequência não é linear e mecânico, ele se constrói a partir das funções que as classes de estímulos consequentes e antecedentes estabelecem com a resposta e é dinâmico, no sentido de que essas funções não são constantes.
Sendo assim, a Análise do Comportamento, estabelecida numa filosofia de base monista (Baum, 2006), determinista (Skinner, 1953/2003) se considerar-se a análise funcional proposta por Skinner e materialista (Baum, 2006), fundamenta alguns conceitos básicos sobre o comportamento operante dos organismos. São eles os processos de reforço positivo, reforço negativo, punição positiva, punição negativa e extinção. Segue a abordagem sobre cada um desses processos, bem como exemplos que se aplicam a eles.
1.1 REFORÇO
Com base na noção de comportamento apresentada anteriormente, pode-se dizer que os organismos se comportam, principalmente para operar sobre o meio em que estão. Como visto, o comportamento operante tem consequências que influenciam na apresentação futura dele, podendo ser apresentado mais ou menos vezes, dependendo da função que se estabelece entre uma resposta e sua respectiva consequência. As consequências que aumentam a probabilidade de ocorrência dos comportamentos são chamadas de reforço (Moreira e Medeiros, 2007). Porém, antes que se formem conclusões erradas, é importante ressaltar que os estímulos só serão entendidos como reforçadores ou aversivos de acordo com a função que cada organismo estabelece em suas relações comportamentais, de modo que aquilo que é reforçador para certas pessoas pode ser aversivo à outras e vice-e-versa. Assim, qualquer estímulo consequente que provoca o aumento da frequência de um determinado comportamento pode ser entendido como reforçador. O comportamento de um menino, por exemplo, de fazer a tarefa de casa pode ser reforçado toda vez que ele é elogiado pela ação realizada, sendo o elogio o reforço (consequência) para que o menino faça mais vezes a tarefa de casa.
Segundo Moreira e Medeiros (2007), o reforço pode ser positivo ou negativo, sendo o primeiro referente a apresentação de um estímulo ao organismo que aumente a probabilidade de um comportamento ser emitido, ou seja, se refere à adição de um estímulo – como receber uma promoção no trabalho em função do esforço, solucionar um problema recorrente, ganhar um chocolate, entre outros. Já o reforço negativo é a consequência de não apresentação de um estímulo aversivo ao organismo – como evitar uma briga de namorados, não ser atropelado ao olhar a sinalização de trânsito, não apanhar quando se lava a louça, entre outros. Como no exemplo já citado, o menino, quando elogiado, foi reforçado positivamente, o que elevará a probabilidade de ele fazer a tarefa de casa no futuro (emitir mais vezes a resposta). Agora, caso o comportamento de fazer a tarefa tenha como consequência a não apresentação do castigo por parte da mãe dele, ocorre uma contingência de reforçamento negativo, pois a frequência do comportamento (fazer a tarefa) poderá aumentar em função de evitar o estímulo aversivo (ficar de castigo).
1.2 PUNIÇÃO
Em algumas situações, as consequências, ao contrário dos casos de reforço, provocam a diminuição da frequência dos comportamentos emitidos. Os processos pelos quais a probabilidade de ocorrência de uma determinada resposta diminui em função de uma consequência aversiva apresentada previamente a ela são chamados de punição (Moreira e Medeiros, 2007). Tais processos são classificados também como positivos – diminuição da frequência de uma resposta devido a apresentação de um estímulo aversivo – e negativos – diminuição da frequência de uma resposta através da retirado de um estímulo reforçador.
Um exemplo comum de punição positiva é observado quando os pais batem nos filhos para que eles parem com a emissão de um comportamento, como correr pela casa ou gritar com os vizinhos. Neste caso, o estímulo aversivo é a dor que criança sente ao apanhar dos pais. Já a punição negativa pode ser exemplificada pelo patrão que diminui o salário de seus funcionários (estímulo reforçador retirado) para que os mesmos parem de chegar atrasados do horário de almoço. Retirar o brinquedo de uma criança (estímulo reforçador retirado) para que ela pare de fazer “manha” é outro exemplo válido.
De acordo com Moreira e Medeiros (2007) a punição é um exemplo do que estabelece o que é chamado em análise do comportamento de controle aversivo, que é a aplicação da punição para o controle dos comportamentos emitidos por um organismo, o que tende a gerar mudanças comportamentais mais significativas em relação à rapidez em que eslas ocorrem, que tende a maior do que no processo de reforço. Porém, de acordo com Moreira e Medeiros (2007), existem quatro principais características do controle aversivo que tornam o processo de reforço mais indicado para o trabalho com o comportamento. São eles: 
Eliciação de respostas emocionais, como choro, raiva, repulsa, tremores, o que resulta em desvantagens para o controle do comportamento, como o que poderia ser chamado de culpa, em decorrência da relação aversiva que pode se estabelecer entre as respostas emocionais e os agentes punidores – quem efetuou a punição – os quais podem emitir uma cadeia de respostas com chances de reforçar a resposta indesejada do organismo punido; 
Supressão de outros comportamentos além do punido, ou seja, a frequência de outras respostas, de contingências similares as da resposta punida, também diminui, o que pode não ser o desejado na aplicação da punição;
Emissão de respostas incompatíveis ao comportamento punido, ou seja, o organismo emiti respostas diferentes da punida a fim de evitar que a punição ocorra de novo. Isso faz com que novas respostas sejam emitidas sem que elas sejam necessariamente desejadas no processo de controle do comportamento;
Contracontrole, que diz respeito a emissão de comportamentos que impossibilitam que a punição seja aplicada novamente, como por exemplo em casos de esquiva, de fuga ou de emissão da resposta punida apenas em ambientes em que o agente punidor não esteja presente.
Segundo (Moreira e Medeiros, 2007) além destas quatro características, há outras duas resultantes da apresentação de estímulos aversivos: a esquiva, comportamento de evitar o estímulo aversivo antes que ele se apresente (um jovem que se tranca no quarto para evitar brigar com seu pai devido a suas notas baixas); e fuga, sendo o comportamento de sair da situação em que o estímulo aversivo já se apresenta (no meio de uma briga, uma das pessoas sair com o carro para “esfriar a cabeça”). Tanto a esquiva quanto a fuga são estabelecidas, inicialmente, por reforço negativo, cabendo ao processo de discriminação (ver adiante) a manutenção destes comportamentos.
De modo geral, reforço é toda consequência que aumenta a frequência de uma resposta, bem como punição é toda consequência que diminui a frequência de uma resposta. Assim como o conceito positivo é usado quando há a adição de um estímulo e o negativo quando há a retirada de um estímulo.
1.3 EXTINÇÃO
Os processos de reforço e punição servem ao controle da frequência de respostas, tendo em vista as mudanças de comportamento que acarretam. Contudo,esses não são os únicos processos que possibilitam essa mudança no comportamento. A extinção também é um processo muito observado pela análise do comportamento e segundo Moreira e Medeiros (2007), ela diz respeito a não apresentação do estímulo reforçador anteriormente presente que resulta na não emissão ou diminuição de frequência de uma determinada resposta, fazendo com que tal resposta – e somente essa – volte a frequência anterior ao seu condicionamento. Ao contrário da punição negativa, semelhante à extinção, que também elicia respostas emocionais – que através de um determinado comportamento se tem a ausência do reforçador, que pode voltar a ser apresentado após a emissão de outro comportamento, a extinção não possibilita o controle do organismo para que ele volte a ter o reforço (Moreira e Medeiros, 2007).
Da mesma forma, a punição negativa suprime a resposta de forma mais imediata; já a extinção provoca um aumento da frequência da resposta num primeiro momento, bem como maior variabilidade de respostas e regressão – processo pelo qual o organismo emite a reposta que anteriormente era mais eficaz para a apresentação do reforçador – para enfim reduzir a emissão do comportamento gradativamente (Moreira e Medeiros, 2007). Caracteriza-se aí a resistência à extinção. Esta, por sua vez, é medida pelo somatório de todas as respostas emitidas que foram levadas ao processo de extinção durante o andamento do mesmo (Keller e Schoenfeld, 1915).
Keller e Schoenfeld (1915) indicam três fatores que influenciam a extinção de uma resposta condicionada por reforço regular (ou contínuo) evidenciados em experimentação:
a) número de reforçamentos aplicados à resposta (quanto mais reforçada uma resposta é, mais ela se torna resistente à extinção, lembrando que há um limite para o valor reforçador da consequência que controla tal resposta);
b) quantidade de reforço dado a cada resposta (quanto maior a quantidade de consequências reforçadoras apresentadas por resposta, maior a resistência à extinção da resposta);
c) grau de motivação - privação no sentido estrito - presente durante a extinção (quanto mais privado de reforçadores que controlam a emissão de uma determinada resposta, mais resistente o indivíduo é à extinção de tal resposta).
Há processos de extinção que aparentemente são rápidos, mas na verdade eles são produtos de uma vasta experiência, como se fosse possível aprender sinais de insucesso devido a experiências anteriores, que passariam a governar o número de respostas a serem emitidas na extinção (Keller e Schoenfeld, 1915).
1.4 MODELAGEM
De acordo com Moreira e Medeiros (2007), Skinner (1953/2003) e Keller (1973), é a partir da modelagem que um novo comportamento passa a fazer parte do repertório comportamental de um organismo. Apesar de já nascermos com uma carga biológica que possibilite a interação com o ambiente, como o caso de bebês que nascem emitindo vários sons diferentes, novos comportamentos, como saber falar, não surgem do nada, eles surgem a partir de comportamentos já existentes. Ou seja, o comportamento de falar surge pelo comportamento de emitir sons desconexos através da modelagem (Moreira e Medeiros, 2007).
A aquisição de um novo comportamento é possível através do reforçamento diferencial de aproximações sucessivas de um comportamento. O reforço diferencial se dá no reforço de respostas que seguem determinado critério e não apresentar estimulos que aumentem a probabilidade de ocorrência da resposta, em respostas similares. Seguindo o exemplo dado por Moreira e Medeiros (2007), quando o bebê emite vários fonemas na presença de sua mãe e algum deles aproxima-se remotamente da palavra “mamãe”, está logo lhe dá mais atenção e carinho, o que tende a ser reforçador para a criança, a emissão deste fonema irá, então, aumentar sua frequência, enquanto a emissão de outros fonemas irá diminuir por não gerar a mesma consequência.
Depois de algum tempo, o entusiasmo da mãe diminuirá, e o reforço também, com isso, o comportamento do bebê irá variar mais uma vez, em busca de reforço, que ocorrerá quando o fonema for um pouco mais parecido com a palavra “mamãe” que o anterior, e assim será seguido de reforço e passará pelo mesmo processo, que se repetirá até que o bebê seja capaz de falar a palavra “mamãe”. Caracterizando assim a modelagem, em que o reforço diferencial é feito de forma a exigir gradualmente do organismo comportamentos mais próximos do comportamento a ser desenvolvido para que o reforço seja dado, o que caracteriza as aproximações sucessivas (Moreira e Medeiros, 2007).
Como lembrado por Keller (1973), essa mudança no comportamento do sujeito não depende de modificações no mundo exterior, pois não há nenhum sinal exterior que indique a disponibilidade do reforço ou a força necessária para consegui-lo. Apesar de essas ligações poderem ser estabelecidas, os únicos sinais discriminativos na modelagem devem vir do próprio movimento. Isso não quer dizer que, por exemplo, a presença da barra não tenha relação com a aquisição do comportamento de pressiona-la. “a mudança na resposta ocorre sem dúvida na presença do sinal, mas não depende de nenhuma modificação nele” (Keller, 1973).
1.5 PRIVAÇÃO
Além dos processos já citados – reforço, punição, extinção e modelagem – há também a privação como um dos meios eficazes no controle do comportamento, pois mantem forte influencia na manutenção do mesmo.
A privação, como o próprio termo diz, refere-se a quando se priva um organismo, por um determinado período de tempo, de um estímulo reforçador anteriormente presente, mesmo que respostas que eliciavam tal reforçador sejam emitidas (Moreira e Medeiros, 2007).Assim, o organismo atribui maior valor ao estímulo privado, pois o mesmo se apresenta numa menor frequência, fazendo com que a resposta que resulta no reforço tenha sua probabilidade aumentada. É possível diferenciar extinção de privação da seguinte forma: a primeira resulta no retorno da frequência de uma reposta ao seu nível operante, enquanto a segunda faz com que a frequência de uma resposta aumente, em vez de diminuir, porém isso ocorre porque a privação aumenta o valor reforçador do estímulo (como será melhor explicado adiante), e não pela privação em si.
Esse processo, quando presente em esquemas de reforçamento, faz com que a interação comportamental como um todo (estímulo antecedente, resposta e estímulo consequente) seja alterada, pois a partir da privação, o estímulo reforçador é mais valorizado, fazendo com que o organismo busque mais o reforço, resultando na maior frequência da resposta, mesmo que a frequência do reforçador diminua.
1.6 INTERMITÊNCIA E CONTINUIDADE DO REFORÇO
Conforme visto anteriormente, quando um comportamento operante é reforçado (positiva ou negativamente) a probabilidade de ele ser apresentado no futuro é maior. Entretanto, grande parte das as respostas apresentadas pelos organismos não são reforçadas todas as vezes em que são emitidas. Ora, se é o reforço que as mantêm e nem sempre ele é apresentado quando determinada resposta é emitida, como estas respostas podem continuar sendo emitidas e também terem esta probabilidade aumentada?
Skinner (1953/2003) responde a esta pergunta ao estabelecer dois esquemas “básicos” de reforçamento: o contínuo e o intermitente. O reforçamento contínuo (designado pela sigla CRF, do inglês continuous reinforcement) caracteriza-se quando uma determinada resposta é reforçada sempre que emitida. O reforçamento intermitente caracteriza-se quando uma determinada resposta ou classe de respostas não é reforçada toda vez que emitida.
Segundo (Skinner, 1953/2003) (Baum, 2006) e (Moreira e Medeiros, 2007) há dois tipos de esquema de reforçamento intermitente, um que se refere ao reforço em função da quantidade de respostas emitidas (denominado esquema de razão) e um que se refere ao reforço em função do tempo (denominado esquema de intervalo). Eles podem ser fixos (a cada X respostas/quantidade de tempo, Y reforços são apresentados) ou variáveis (a quantidade de respostas/tempo nãoé constante para a apresentação do reforço).
É possível elencar algumas diferenças mais gerais entre os esquemas intermitentes e contínuos tomando por base o trabalho de Moreira e Medeiros (2007):
A frequência de respostas é maior nos esquemas intermitentes do que no esquema contínuo, basicamente porque no reforçamento contínuo a obtenção de um reforço é mais facilitada, o que diminui o valor do reforço muito rapidamente. Já nos esquemas intermitentes ocorre o contrário, o valor do reforço diminui aos poucos, fazendo com que o organismo, geralmente, mantenha um nível alto de respostas por mais tempo do que em reforçamento contínuo;
Para a aquisição de um comportamento, um esquema de reforçamento contínuo é o mais adequado tendo em vista que, geralmente, quando um organismo apresenta uma resposta nova ou de rara emissão em seu repertório e, por algum motivo, há um interesse em manter esta resposta, se ela não for reforçada continuamente por um determinado período há grandes chances de ela não ser apresentada novamente em breve;
Para a manutenção de um comportamento (tendo em vista, é claro, interesses em uma alta taxa de respostas) os esquemas de reforçamento intermitentes são mais indicados, pois eles tendem a aumentar a resistência à extinção de comportamentos que foram submetidos a eles.
Tendo estas diferenças em vista e tomando por base a obra de Moreira e Medeiros (2007), é de grande importância para os fins deste trabalho definir as características mais específicas de cada um dos quatro esquemas intermitentes:
Esquema de reforçamento intermitente de razão fixa: designado pela sigla FR (do inglês fixed ratio), este esquema gera uma alta taxa de respostas e o valor da razão indica o valor real de respostas por reforço (FR 2, por exemplo, indica que a cada duas respostas emitidas, haverá reforço). O organismo submetido a este tipo de esquema tende a apresentar uma pausa na emissão das respostas quando elas são reforçadas ao fim da razão estabelecida. Isto ocorre em função de uma discriminação temporal sobre o reforço (ver conceito de discriminação mais adiante) estabelecida ao longo do processo de condicionamento sob este esquema;
Esquema de reforçamento intermitente de razão variável: designado pela sigla VR (do inglês variable ratio), este esquema tende a gerar taxas bem altas de respostas e o valor da razão indica o valor médio de respostas por reforço (VR 2, por exemplo, indica que, em média, a cada duas respostas emitidas, haverá reforço). Não ocorre o fenômeno da pausa neste tipo de esquema em função da variabilidade da apresentação do reforço, o que não possibilita a discriminação temporal;
Esquema de reforçamento intermitente de intervalo fixo: designado pela sigla FI (do inglês fixed interval), este esquema gera taxas de respostas muito baixas e o valor do intervalo é o valor real da quantidade de tempo entre as apresentações do reforço (FI 2', por exemplo, indica que a cada dois minutos, haverá reforço). Este esquema se caracteriza por um aumento gradual na taxa de respostas entre o início e o fim de um intervalo. Isto ocorre devido a uma discriminação temporal sobre o reforço similar ao esquema e FR, de modo que o organismo emita mais respostas quanto mais próximo da ocorrência do reforço;
Esquema de reforçamento intermitente de intervalo variável: designado pela sigla VI (do inglês variable interval), este esquema gera taxas de respostas razoavelmente altas e o valor do intervalo é o valor médio da quantidade de tempo entre as apresentações do reforço (VI 2', por exemplo, indica que, em média, a cada dois minutos, haverá reforço). Devido a impossibilidade do estabelecimento de uma discriminação temporal similar ao esquema de FI, o sujeito submetido a este esquema tende a apresentar taxas moderadas de respostas.
Sendo assim, quanto maior o valor de um esquema de razão, maior será a frequência de respostas e maior serão as pausas após o reforço, sendo que esta última relação também vale para os esquemas de intervalo. Entretanto, quanto maior o valor de um esquema de intervalo, menor será a frequência de respostas.
Por fim, uma característica deve ser observada sobre os esquemas de intervalo: o reforço é apresentado em função de um intervalo de tempo, mas só é apresentado realmente mediante a emissão da resposta a ser reforçada. Esta característica diferencia estes esquemas de outros como os esquemas não-contingentes, onde o reforço é apresentado em função do tempo, mas a emissão da resposta a ser reforçada não é necessária (Moreira e Medeiros, 2007).
1.7 GENERALIZAÇÃO
Para Moreira e Medeiros (2007) a generalização ocorre quando uma resposta é emitida na presença de estímulos que tenham alguma semelhança com um SD, sendo que a probabilidade disso ocorrer aumenta com a semelhança, principalmente física, entre os estímulos. A importância deste processo está na rapidez de aprendizagem de novas respostas que ele possibilita. Por exemplo, uma vez estabelecido o comportamento de girar a tampa de uma garrafa com tampa de rosca para abri-la, não precisaremos de um novo processo de aprendizagem para proceder com uma nova garrafa com tampa de rosca (Moreira e Medeiros, 2007).
É a generalização que permite a emissão de comportamentos passiveis de reforço em situações novas, desde que essa tenha alguma característica similar a uma situação na qual um comportamento tenha sido estabelecido.
“Quando um operante ou um respondente for condicionado em uma situação-estímulo, poderá ser evocado, sem condicionamento posterior, em uma outra situação-estímulo” (Keller, 1973, pg. 30). Ainda segundo Keller (1973), a generalização pode ocorrer tanto em relação ao condicionamento quanto à extinção.
Por exemplo, se um organismo é condicionado a emitir determinado comportamento frente a um determinado tom de azul e emite esse comportamento frente a outros tons de azul, ocorreu uma generalização em relação a esse condicionamento. Se, no entanto, um comportamento anteriormente reforçado e estabelecido deixa de apresentar consequência reforçadora quando emitido na presença de determinado ruído e a partir disso sua emissão diminui de frequência mesmo na presença de outros ruídos, ocorreu então uma generalização em relação à extinção deste comportamento.
É possível medir o gradiente de generalização, por um teste que deve ser aplicado em extinção, pois tanto o reforçamento diferencial quanto o adicional interferem neste gradiente (Moreira e Medeiros, 2007). Como o reforçamento diferencial apresenta reforço apenas às respostas emitidas diante de um estímulo específico, ele diminui a generalização e aumenta a discriminação. Enquanto o reforçamento adicional tem o efeito inverso, pois reforça as demais variações de um estimulo discriminativo, o que aumenta a generalização (Moreira e Medeiros, 2007).
1.8 DISCRIMINAÇÃO
Para Keller (1973), a discriminação, sendo a quebra de uma generalização, é uma questão de extinção. Pois se caracteriza quando uma resposta é extinta na ausência de um estimulo e aparece na presença do mesmo. É pela discriminação que não chamamos de cachorro todo o animal de quatro patas, e podemos inclusive diferenciar várias raças de uma mesma espécie de animal.
A discriminação operante ocorre quando uma resposta só resulta em reforço em determinado contexto. Este contexto é denominado estímulo discriminativo. Cada estímulo antecedente evoca uma resposta específica, controlando qual resposta será reforçada (Moreira e Medeiros, 2007). Há também o estimulo que sinalize a indisponibilidade do reforço, que será chamado de estimulo delta.
Por exemplo, na presença de um cachorro, este será um estimulo discriminativo para a emissão do comportamento de falar a palavra “cachorro”, pois esse comportamento será reforçado. Já no caso do sujeito falar a palavra “cavalo” este reforço não virá, e neste caso a presença do cachorro será um estímulo delta para a emissão do comportamento de falar a palavra “cavalo”. Com o tempo, o sujeito discriminará as características do animal que serão estímulos discriminativos parao comportamento de falar a palavra “cachorro”.
Esta discriminação pode ocorrer também em relação à punição. Além de sinalizar a disponibilidade do reforço, o estimulo discriminativo também sinaliza a punição. Se na presença de um cachorro a pessoa fala a palavra “cavalo” e é punida de alguma forma, a presença de um cachorro será então um estímulo discriminativo de que o comportamento de falar a palavra cavalo será punido.
No caso da discriminação respondente, temos, segundo Keller (1973), alguma dificuldade, pois o próprio condicionamento respondente requer algum grau de discriminação, pois durante o condicionamento, determinada resposta não será reforçada na ausência do estimulo a ser condicionado. No experimento de Pavlov, por exemplo, existiam mais estímulos no ambiente além daquele a ser condicionado, no caso, o som. Mesmo com todos os estímulos presentes serem pareados ao estimulo incondicionado, era só na presença do som que o reforço era apresentado. “Assim, a resposta é extinta na ausência do som, mas aparece quando o som for parte do composto – isto é discriminação” (Keller, 1973).
Porém, por mais que se possa aumentar gradualmente esta discriminação, estuda-se qual o limite ao qual se poderia chegar, visto que alguns experimentos resultaram em comportamentos neuróticos e agressivos além de desobediência, excitamento e rudeza dos sujeitos experimentais conforme a exigência de discriminação era aumentada, ou seja, era necessária a discriminação entre estímulos muito semelhantes para a apresentação do reforço. É um ramo da Psicologia denominado psicofísica que busca determinar “a menor diferença que pode existir entre dois estímulos antes que a probabilidade da resposta correta seja menor que 50 por cento” (Keller, 1973).
1.9 OBJETIVO
Experienciar como forma de aprendizagem os princípios básicos do comportamento operante proposto por Skinner a partir de experimentos realizados com o rato virtual “Sniffy”.
2. MÉTODO
2.1 SUJEITO
Sniffy Pro, é um programa de computador que serve como prática para complementar a teoria aprendida durante a graduação. Esse software simula o rato real na caixa de Skinner, e se torna um laboratório virtual. O objetivo desse experimento é observar o comportamento do animal virtual, fazendo uma analogia com o comportamento do animal, fazendo uma analogia com o comportamento humano.
Antigamente usavam-se nas faculdades ratos reais, na caixa de Skinner. O valor alto da caixa e do rato, além dos dilemas éticos que surgiram por se tratar de animais, fizeram com que a maioria das universidades migrassem para o software.
2.2 MATERIAIS
1. Caixa de Skinner: Um compartimento especial que contém uma barra a qual o rato virtual pode ser treinado a pressionar e com dispositivos para proporcionar alimento e água além de outros estímulos. 
2. Computador: Para controlar a apresentação dos estímulos do rato virtual.
3: Folha de Registro: Foram necessárias 7 folhas de registro. 
4. Lápis
5. Cronômetro
6. Calculadora
 2.3. PROCEDIMENTOS
2.3.1. Relatório/Exercício 1: Nível Operante (NO)
No primeiro exercício não foi introduzido nenhum estimulo reforçador, apenas aprendemos alguns mecanismos da câmara operante e observamos o rato (Sniff) e seus comportamentos como, se ele pressionava a barra, quantas vezes farejava, se limpava e levantava a cada minuto. A professora foi dando as instruções e toda vez que mudava o minuto ela nos avisava para que mantivéssemos uma anotação mais precisa dos comportamentos do Sniffy a cada minuto. Calculamos a frequência de respostas por minuto.
2.3.2. Relatório/Exercício 2: Treino ao comedouro (TC)
Após observarmos o comportamento de Sniff começamos a introduzir o estimulo (som do comedouro) juntamente do reforçador (a comida/pelota) para criar um reforço positivo. O exercício é concluído quando a associação alimento-som atinge seu limite descriminado na barra “Sound Food”.
2.3.3. Relatório/Exercício 3: Modelagem 
Neste exercício, foi introduzido a modelagem do comportamento ao pressionar a barra, aliciando o reforço e extinção excessiva. Ou seja, a resposta para o comportamento de Sniffy tende a ser reflexo de acordo com o estímulo (som do comedouro) e o reforçador (comidas/pelotas), quando se levantava e quanto mais próximo e de frente e a barra ele ficava.
Após condicionado, obtivemos um resultado progressivo, consolidando a aprendizagem.
2.3.4. Relatório/Exercício 4: Prática de Frequência do Reforçamento Contínuo (CRF)
Posteriormente à modelagem do comportamento, conforme informado observamos por minuto e linha, seus comportamentos alvos como: pressionar a barra, farejar, levantar e limpar-se. No entanto, após o reforço, alguns resultados aumentaram e outros diminuíram com relação ao procedimento de nível operante, podendo ser observados nos gráficos programados.
2.3.5. Relatório/exercício 5: Extinção.
Essa parte do experimento trata-se da utilização do estimulo condicionado, sem a resposta aguardada. O ato de apertar a barra, sem ser recompensado, diminuirá gradativamente a cada resposta negativa do estimulo, com a intenção de diminuir a pressão da barra. 
2.3.6. Relatório/exercício 6: Treino discriminativo. 
Essa parte trata-se da adequação do som ao treinamento, a cada vez que o som estava ativo o reforço era liberado, posteriormente quando o estimulo sonoro era desativado, o reforço passava a ficar inativo. Com a intenção de Sniffy reconhecer o som de quando o reforço estava disponível.
2.3.7. Relatório/exercício 7: Esquema de reforçamento de razão fixa
Este último experimento foi utilizado para verificar o quão rápido Sniff conseguiria discriminar a constância necessária de pressões a barra para receber a recompensa (pelota).
3. RESULTADOS
1 - Resposta = Pressão à barra
Nível Operante: 
Procedimento de nível operante: Foram observados ao longo de 15 minutos os movimentos do rato Sniffy, porém o mesmo não pressionou a barra por nenhum momento. A medida das respostas de pressão à barra de um rato sem treinamento, antes do início da manipulação experimental, é considerada um nível operante, pois o rato não apresentava este comportamento em seu repertório comportamental. Foi observado o comportamento do rato experimental antes que ele passe por qualquer manipulação ambiental. 
Reforçamento Contínuo: 
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy, após a modelagem ao registro inicial que não teve nenhum pressionamento a barra. Foram observados ao longo de 15 minutos os movimentos do rato Sniffy, o mesmo apresentou o desenvolvimento comportamental do movimento da pressão à barra, durante o período, foram constantes o movimento. Só não houve o reforçamento no 7º minuto do experimento. Nos demais ele teve uma constante. 
2 - Resposta = Farejar
Nível Operante: 
Procedimento de nível operante: Foram registradas todas as vezes que o rato Sniffy aproximava o focinho, enrugando-o, do piso ou das paredes da caixa experimental durante 15 minutos. O mesmo farejava de forma constante durante o experimento, o aparecimento da resposta deuse ao acaso. Em um minuto, ele farejou até por 8 vezes sem ao menos ter sido feita a manipulação experimental. 
Reforçamento Contínuo: 
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy, após a modelagem ao registro inicial que teve variantes do comportamento farejar. Foram observados ao longo de 15 minutos que após a manipulação experimental foi reduzido o reforçamento contínuo. Durante 6 minutos ele não possuiu frequência de farejar. E nos minutos restantes variou de 1 a 4 vezes por minuto.
 
3 - Resposta = Levantar 
Nível Operante: 
Procedimento de nível operante: Foram registradas todas as vezes que o rato Sniffy levantava. O mesmo levantava de forma constante durante o experimento, o aparecimento da resposta deu-se ao acaso. Quanto mais tempo se passava durante os 15 minutos, mais o comportamento se repetia. 
Reforçamento Contínuo: 
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy,após a modelagem ao registro inicial que teve variantes do comportamento levantar. Foram observados ao longo de 15 minutos que após a manipulação experimental foi reduzido o reforçamento contínuo. Durante 7 minutos ele não possuiu frequência de se levantar. E nos minutos restantes variou de 1 a 3 vezes por minuto. 
4 - Resposta = Limpar
Nível Operante:
Procedimento de nível operante: Foram registradas todas as vezes que o rato Sniffy se limpava. O mesmo se limpou de forma constante durante o experimento, o aparecimento da resposta deu-se ao acaso. A taxa com que uma resposta ocorreu antes de ser reforçada se repetia e se mantinha constante durante os 15 minutos de experimento. 
Reforçamento Contínuo: 
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy, após a modelagem ao registro inicial que teve variantes do comportamento de se limpar. Foram observados ao longo de 15 minutos que após a manipulação experimental foi reduzido o reforçamento contínuo. Durante 3 minutos ele não possuiu frequência de se limpar. E nos minutos restantes variou de 1 a 5 vezes por minuto. A frequência foi muito menor antes da manipulação.
5 - Resposta = Pressão à barra 
O Reforçamento Contínuo é uma resposta que é sempre reforçada, induzida. Como podemos ver no decorrer dos 15 minutos nesse experimento, o rato Sniffy consegue seguir o reforçamento, no 4° minuto foi onde ele pressionou mais a barra no total de 18 vezes, depois cai bastante no 7° minuto, onde ele não pressionou nenhuma vez e segue oscilando.
A Extinção Operante é a suspensão de reforçamento, ou diminuição. E como podemos ver no experimento, até o 4° minuto segue o reforçamento contínuo, onde ele pressiona 9 vezes e a partir do 5° minuto em diante começa a cair a pressão a barra, onde em alguns minutos ele nem chega a pressionar e segue fixo, sendo assim, seguindo a intenção do experimento. 
6 - Resposta = Farejar 
Nesse experimento observando no decorrer de 15 minutos, segue praticamente fixo. No começo quase não tem frequência, onde mais chega a aumentar é no 10° minuto, farejando 4 vezes mas é pouca coisa, e segue assim bem baixo a frequência. 
Na Extinção Operante, o gráfico oscila bastante, porém tendo mais aumento no 6°, 9°e 12° minuto, onde o rato Sniffy tem a mais frequência do comportamento, farejando em torno de 7 vezes. 
7 -Resposta = Levantar 
No decorrer de 15 minutos desse experimento, do começo ao fim não se nota mudança, o gráfico mostra como não foi notada o reforçamento contínuo. 
A Extinção Operante nesse gráfico também demonstra oscilação, aumentando o maior comportamento de se levantar no final do experimento, no 17°, 23° e 30° minuto, levantando 7 vezes em cada minuto. 
8 - Resposta = Limpar-se 
Observando durante os 15 minutos, no começo do experimento segue fixo, no 6° e 11° minuto foi onde mais teve mudança no comportamento, com o rato se limpando 5 vezes e no 7° minuto onde não teve nenhuma ação de se limpar. 
Na Extinção Operante desse gráfico, nos primeiros minutos a ação de se limpar cai um pouco, do 6 minuto em diante sobe, chegando a se limpar 9 vezes nos minutos 6 e 8, depois oscila até o final do experimento. 
Frequencia de pressão
Tempo em minutos
Resultado = Limpar-se
9 - Resposta = Pressão à barra 
Reforçamento Contínuo: 
Observando durante 15 minutos o reforçamento contínuo de Sniffy ao pressionar a barra, está frequência se manteve relativa nos primeiros 5 minutos, apresentando de 15 à 18 vezes da sua frequência. Porém diminuindo o reforçamento até o 7º minuto, onde o mesmo não apresentou nenhuma resposta, no 10º minuto Sniffy apresentou um resultado inferior aos demais que se mantiveram constante. 
Resposta = Pressão à barra
Frequência de pressão 
Tempo em minutos
Esquema Intermitente: 
Após o reforçamento contínuo, no esquema intermitente houve um reforçamento do comportamento emitido. Foi observado durante 15 minutos, que a constância se manteve, reforçando de 20 à 35 vezes por minuto, mudando apenas no minuto 11º, apresentando um declínio em sua média, ou seja, reforçando apenas 10 vezes. 
10 - Resposta = Farejar
No Reforçamento Contínuo, nos primeiros minutos não há mudança, sem nenhuma ação de farejar, no 10 minuto é onde mais se nota mudança, onde o rato Sniffy, chega a se limpar 4 vezes, depois cai pouca coisa e segue até o final. 
Resposta = Farejar
Frequência de pressão 
Tempo em minutos
No Esquema Intermitente, apenas algumas respostas serão reforçadas, nos primeiros minutos, as respostas reforçadas são poucas, chegando a reforçar 1 vez por minuto, 7, 9, e 12, foram onde houve mais mudança, chegando a reforçar 3 vezes por minuto. 
11 - Resposta = Levantar
Reforçamento Contínuo:
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy, após a modelagem ao registro inicial que teve variantes do comportamento levantar. Foram observados ao longo de 15 minutos que o reforçamento contínuo se manteve constante com variáveis entre 1 a 3 vezes de frequência por minuto. Durante 7 minutos não houve o reforçamento continuo. 
Resposta = Levantar
Frequência de pressão 
Esquema Intermitente:Tempo em minutos
Com o condicionamento operante podemos reforçar um determinado comportamento logo após o mesmo ser emitido. Quando reforçamos, aumentamos as forças e a resposta do comportamento emitido. Durante os 15 minutos foram observados que a frequência do reforçamento se manteve com poucas respostas. Em 12 minutos não houve nenhum condicionamento. E os demais variaram de 1 a 2 vezes. 
12 - Resposta = Limpar
Reforçamento Contínuo:
Procedimento de reforçamento contínuo: Observamos e registramos o comportamento do Sniffy, após a modelagem ao registro inicial que teve variantes do comportamento limpar. Foram observados ao longo de 15 minutos que o reforçamento contínuo se manteve constante de 1 a 5 vezes de frequência por minuto. Durante 3 minutos não houve o comportamento esperado. Nos demais ficou numa constante, por mais que não fosse repetitivo. 
Resposta = Limpar-se
Frequência de pressão 
Tempo em minutos
Esquema Intermitente: 
O esquema intermitente variou de 1 a 5 vezes de frequência por minuto. Apenas no minuto 5 não houve nenhum reforçamento. O esquema de reforçamento intermitente foi mais eficaz para a manutenção com comportamento, eles são facilmente manipulados quanto quantidade de tempo e resposta.
13 - Treino Discriminativo 
`	No treino discriminativo SD:
Reforçamos que os estímulos ocorram. Durante os 15 minutos observamos que o Sniffy pressionou a barra, dando chances para que as respostas ocorram. Eles variam de 0 a 16 vezes de frequência por minuto. Durante 5 minutos não houve o reforçamento no treino discriminativo. 
0
5
10
15
20
25
Resposta de pressão à barra
Tempo em minutos
Treino Discriminativo
SD
Sdelta
No treino discriminativo S Delta: 
Não existe a probabilidade de ser reforçada. Treino Discriminativo Sdelta: sinaliza uma extinção para tal resposta. Durante os 15 minutos, observamos que o rato Sniffy pressionou a barra 22 vezes no 22° minuto foi onde ele pressionou mais. E, por 5 minutos não teve pressão a barra, seguindo a extinção da resposta.
CONCLUSÃO
Ao fim deste relatório, concluímos que foi um experimento que pode ser fixado junto aos conceitos aprendidos em sala de aula. O experimento nos mostrou como o ambiente pode influenciar no comportamento, assim nos capacitando a melhora na habilidade de observação. Percebemos que os comportamentos do mesmo jeito que são colocados podem ser extintos se não houver algum estímulo influenciando. Conseguimos através dos experimentos observar a forma como o indivíduo opera sobre o ambiente, e em relação ao condicionamento operante. O rato virtual é observável, e ele pode ser reproduzido de diversas condições. Por meio dessas observações vemos os estímulos do meio e as respostas manifestações comportamentais.
REFERÊNCIAS BIBLIOGRÁFICAS
ALLOWAY, T.; WILSON, G.; GRAHAM, J.; KRAMES, L. Sniffy, o rato virtual: versão Pro2.0. São Paulo: Thomson Learning, 2006 – Cap. 9 e 10
Baum, W. M. (2006). O behaviorismo como filosofia da ciência. In Compreender Behaviorismo. 2ª ed. Porto Alegre: Grupo A. (pp. 33-48)
Keller, Fred S. (1973). Aprendizagem: teoria do reforço. Tradução: São Paulo: E.P.U. 
Keller, Fred S., Schoenfeld, Willian N. (1915). Princípios de Psicologia: Um Texto Sistemático na ciência do comportamento. Tradução: São Paulo: E.P.U. (1973).
Matos, M. A., & Tomanari, G. Y. (2002). A análise do comportamento no laboratório didático. Ed. Manole.
Moreira, Marcio B., Medeiros, Carlos A. (2007). Princípios Básicos de Análise 	do Comportamento. Porto Alegre: Artmed.
Silva, F. T. N., & Souza, C. B. A. D. (2009). Discriminação simples com mudanças sucessivas na função dos estímulos: aprendizagem em bebês.Psicologia: Teoria e Pesquisa, 25(4), 569-580.
Skinner, Burrhus F. (2003/1953). Ciência e comportamento humano. São Paulo: Martins Fontes
8

Continue navegando