A maior rede de estudos do Brasil

Grátis
4 pág.
Condicionamento operante

Você está vendo uma pré-visualização

Pre-visualização do material Condicionamento operante - página 1
Pre-visualização do material Condicionamento operante - página 2
Pre-visualização do material Condicionamento operante - página 3

Condicionamento operante

Condicionamento operante
O conceito de “Condicionamento Operante” foi criado pelo psicólogo Skinner, e se refere ao processo de modelagem de um comportamento através do reforço diferencial e aproximações sucessivas. Isto quer dizer que todo comportamento gera uma consequência e esta afeta a sua probabilidade de ocorrer novamente; se a consequência for reforçadora, aumenta a probabilidade, se for punitiva, além de diminuir a probabilidade de sua ocorrência futura, gera outros efeitos colaterais. Este tipo de mecanismo de aprendizagem é chamado de condicionamento operante.
O comportamento operante é modelado a partir das respostas que gerem mais reforço, e tende se estabelecer no repertório, ou seja, em um contexto semelhante tende a ser novamente emitido. O tipo de consequência que aumenta a probabilidade de ocorrência da resposta em contextos semelhantes chama-se reforço. O reforço pode ser positivo, quando há a adição de um estímulo no ambiente que resulte no aumento da frequência da resposta que o gerou; ou negativo, quando a resposta emitida remove algum estímulo aversivo, ou seja, que a pessoa tende a evitar, do ambiente.
	· 
Lei do Efeito de Thorndike
O condicionamento operante, também chamado de condicionamento instrumental ou aprendizagem instrumental foi primeiramente estudado por Thorndike, que observou o comportamento de gatos tentando escapar de "caixas problemas”. Na primeira vez que os gatos eram colocados nas caixas, eles demoravam bastante tempo para escapar delas. Mas, com o passar do tempo, as respostas ineficientes foram diminuindo de frequência, e as respostas mais efetivas aumentavam de frequência, e os gatos conseguiam escapar em menos tempo e com menos tentativas. Em sua Lei do Efeito, Thorndike teorizou que as respostas que produziam consequências mais satisfatórias, foram "escolhidas" pela experiência e portanto, aumentaram de frequência. Algumas consequências reforçavam o comportamento, outras enfraqueciam-no". 
Princípios do Reforço
É importante ressaltar, que reforço, ao contrário do que pode pensar o senso comum, não é uma simples recompensa. Para Skinner, reforço, pode ser qualquer evento que aumenta a frequência de uma reação precedente. Um reforço pode ser uma recompensa tangível, um elogio ou uma atenção. Ou pode ser uma atividade, como poder usar o carro depois que a louça estiver lavada, ou ter uma folga depois de uma hora de estudo. 
Reforços Primários e Secundários
Os reforços primários - como receber alimento ou ser aliviado de um choque elétrico - são intrinsecamente satisfatórios. Os reforços secundários são aprendidos. Se um rato numa caixa de Skinner aprende que uma luz sinaliza que a comida está chegando, ele vai se empenhar em acender a luz. Dinheiro, boas notas, são exemplos de reforços secundários, cada um das quais está ligado a recompensas mais básicas. 
Reforço Positivo, Reforço Negativo e Punição
Existem duas formas de reforço que são: o positivo e o negativo. Ambos têm como função reforçar um determinado comportamento. O individuo aprende qual o comportamento desejável para alcançar determinado objetivo. Já a punição reforça qual o comportamento indesejável, ou seja, que não deve ser manifestado para evitá-la.
No reforço positivo quando o comportamento desejado é alcançado um elemento de recompensa é adicionado. Para exemplificar o reforço positivo consideremos um experimento onde um rato é privado de comida. Quando este puxa determinada alavanca (comportamento desejado) é disponibilizado o alimento (elemento de recompensa). Com o passar do tempo o rato ao sentir fome irá puxar a alavanca para receber o alimento. Desta forma o individuo exposto ao reforço positivo aprende o comportamento adequado.
Já no reforço negativo um elemento punitivo é adicionado ao ambiente e quando o comportamento desejado é alcançado este, é retirado. Para exemplificar: em um experimento com um rato onde é colocada uma corrente elétrica ligada a sua gaiola. Esta corrente provoca um desconforto no animal (elemento punitivo). Quando puxada uma alavanca (comportamento desejado) a corrente elétrica é desligada. Neste exemplo o choque elétrico é colocado como elemento punitivo que é eliminado ao conseguir o comportamento almejado. Após algum tempo o rato associa o ato de puxar a alavanca a extinção de seu desconforto e sempre que a corrente elétrica é ligada vai direto a alavanca. 
A punição é muitas vezes confundida com o reforço negativo, porém, ao contrário do reforçamento negativo, o objetivo da punição é levar à extinção do comportamento, ou seja, com o passar do tempo, a probabilidade de ele ocorrer novamente diminui O reforçamento negativo, não é um evento punitivo: é a remoção de um evento punitivo. A punição pode acarretar uma série de problemas: esse tipo de estimulação aversiva acarreta respostas do sistema nervoso, entendidas como ansiedade, depressão, baixa autoestima. Além disso, o comportamento punido não é esquecido, ele é suprimido. Pode ser que após a estimulação aversiva ter sido eliminada, o comportamento volte a ocorrer: a criança pode simplesmente aprender a não dizer palavrões em casa, mas continuar a usá-los em outros lugares.
Ela também suprime o comportamento indesejado, mas não guia a pessoa para um comportamento mais desejável. A punição diz o que não fazer, o reforço diz o que fazer. Uma punição combinada com um reforçamento positivo de comportamentos desejáveis é mais eficiente. Em suma, a punição rápida e segura pode ser eficaz, e pode de vez em quando causar menos dor do que o comportamento autodestrutivo que suprime. Mas ele pode reaparecer, se for possível evitar a punição. Essa estimulação aversiva também pode provocar efeitos colaterais indesejáveis, como ansiedade e ensinar agressividade. Os psicólogos preferem dar mais ênfase ao reforço positivo do que à punição.
Programações de Reforço
Usando-se esquemas de reforço contínuo, a aprendizagem ocorre rapidamente, mas sem o reforço, a extinção ocorre rapidamente também. Na vida real, esquemas de reforço contínuo são raros. Já nas em que as reações às vezes são reforçadas, às vezes não. É o que se chama de reforço parcial. A aprendizagem demora mais, no começo, mas ela é mais "resistente" à extinção. Imagine um pombo que aprendeu a bicar uma tecla para obter comida quando o pesquisador vai suspendendo gradativamente a entrega de alimento, até que ela ocorra só de maneira rara e imprevisível, os pombos podem bicar 150.000 vezes sem recompensa. Com o reforço parcial, a esperança flui eterna (esse é o princípio do "pombo supersticioso" de Skinner), e è o que ocorre por exemplo, em jogadores compulsivos, que continuam a jogar, mesmo sem nunca ganharem.
Programações de Ritmo Fixo
Reforçam o comportamento depois de um determinado número de respostas. Empregados que trabalham em fábricas que recebem por produção, são reforçados de tal maneira.
Programações de Ritmo Variável
Reforçam a primeira resposta depois de uma quantidade imprevisível de respostas. É o que ocorre com os jogadores e pescadores. A dificuldade de se extinguir tais comportamentos é de que o reforço aumenta à medida que aumentam as respostas.
Programações de Intervalos Fixos
Reforçam a primeira resposta depois de um período determinado. Como pessoas que verificam a caixa de correspondência quando a hora do carteiro passar se aproxima, os pombos bicam uma tecla com mais frequência à medida que fica mais próxima a hora esperada de recompensa.
Programações de Intervalo Variável
Reforçam a primeira resposta depois de intervalos de tempo variáveis. Como o questionário imprevisível que reforça o estudo, as programações de intervalo variável tendem a eliciar respostas lentas e firmes. Caso os questionários tornem-se previsíveis, os estudantes começarão a seguir o padrão que caracteriza as programações de intervalo fixo (em outras palavras, estudarão apenas na véspera).