Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 F A C U L D A D E D E P S I C O L O G I A D A U N I V E R S I D A D E D E L I S B O A PENSAMENTO E LINGUAGEM CAROLINA LOUREIRO 2 º A N O / 1 º S E M E S T R E 2 0 2 0 / 2 0 2 1 2 JULGAMENTO E DECISÃO EM CONDIÇÕES DE INCERTEZA: BLAISE PASCAL, DEUS E A PRIMEIRA TEORIA DA DECISÃO: O matemático francês Blaise Pascal é conhecido também como filósofo pelo seu livro Pensamentos. Nesse livro, ele formula um argumento que combina matemática e a teologia. O filósofo parte do princípio que não se pode provar a existência ou a inexistência de Deus, o que obriga o Ser Humano a fazer uma escolha: acreditar ou não acreditar em Deus. Esta escolha não tem de ser uma aposta no escuro, podendo ser lógica. O argumento de Pascal estabelece que é melhor apostar na existência de Deus (vida pia) do que na tese oposta (vida mundana): se ganhar, ganha tudo; se perder, não perde nada ou perde muito pouco. O matemático comprova a sua tese pelo seguinte raciocínio: 1) Se tu acreditas em Deus e Ele existe, quando morreres o teu ganho vai ser infinito (a vida eterna no paraíso); 2) Se acreditares em Deus e Ele não existir, quando morreres a tua perda é finita, o tempo de vida que perdeste a acreditar Nele; 3) Se não acreditas em Deus e Ele de fato não existe, quando morreres o teu ganho é finito, o tempo de vida que não perdeste a acreditar Nele; 4) Se não acreditares em Deus e Ele existir, então quando morreres a tua perda é infinita, nada menos do que a condenação eterna ao inferno. A oposição entre o melhor e o pior resultado da aposta – ganho infinito versus perda infinita – não deixa alternativa senão apostar que Deus existe. Deste modo, mesmo quem não consegue acreditar, deve agir como se acreditasse, por via de dúvidas. Com o tempo, é provável que a prática da fé leve à fé verdadeira. Na verdade, para o filósofo cristão, o primeiro ganho da aposta dá-se ainda em vida, com a conquista da fé verdadeira, a única capaz de levar o indivíduo à felicidade plena. PARADOXO DE SÃO PETESBURGO: Em 1713, Nicolau Bernoulli propõe o seguinte jogo: O Pedro convida o Rui para jogar um jogo. O Pedro explica que ele lançará uma moeda equilibrada ao ar até sair a face “Caras”. O Pedro vai pagar ao Rui duas moedas se a primeira cara aparecer no primeiro lançamento, quatro moedas se a primeira cara aparecer no segundo lançamento, oito moedas se a primeira cara sair no terceiro lançamento e daí por diante. Mas, para isso, o Rui tem primeiro de pagar ao Pedro. 3 A pergunta é: Quando é que o Rui deve pagar ao Pedro para jogar com ele? Resposta: A probabilidade de sair cara no primeiro lançamento é de ½. No segundo lançamento, a probabilidade é de ¼, e no n-ésimo lançamento é de ½n. Logo, o valor esperado desse jogo é infinito! O Rui pagaria uma quantia infinita para entrar no jogo? A maioria das pessoas nem aceitaria entrar no jogo se tivessem de pagar uma quantia razoavelmente alta, quanto mais infinitas moedas. Daí vem o paradoxo: se a probabilidade de o Rui ganhar uma quantia pequena é alta, então porque é que ele deveria pagar uma quantia tão alta? Como resolver este paradoxo? Certeza moral: Uma possível solução é aproximar o problema a valores muito baixos de probabilidade (como na lotaria). Por exemplo, se supormos que ½ 25 = 0, então o valor esperado do jogo é , que ainda é um valor considerado alto e que uma boa parte das pessoas não estaria disposta a pagar. Limitação de recursos: Supondo que o Rui entra no jogo e, por sorte, a primeira cara só aparece no n-ésimo lançamento e o Pedro não tem tantas moedas para dar ao Rui, o que acontece é que o Rui fica com todas as moedas que o Pedro tem disponível, o recurso máximo disponível. Isto é um paradoxo, porque o valor esperado do jogo (a recompensa média que o indivíduo esperaria receber se o jogo fosse jogado por um número de vezes ilimitado) é infinito e, mesmo assim, muito poucas são as pessoas que estão dispostas a pagar elevadas quantias de dinheiro para jogar. TEORIA DA UTILIDADE ESPERADA (TUE): Então, a questão é: porque é que as pessoas não estão dispostas a pagar mais que uns poucos euros para jogar um jogo onde podem ter um retorno infinito? 4 Esta teoria foi criada por Daniel Bernoulli e propõe que, quanto maior for a riqueza de uma pessoa, menos significado tem a soma de um dado ganho à sua riqueza. No entanto isto não varia linearmente, mas sim logaritmicamente, ou seja, chega a um ponto em que estagna, ganhar mais que X valor já não acrescenta nada à riqueza do indivíduo. Utilidade esperada = P (resultado) x (utilidade do resultado). Ou seja, a probabilidade de um dado resultado (decorrente de uma decisão) a multiplicar pela utilidade desse resultado. Newmann e Morgestern (1947) explicitam os axiomas de TUE tornando-a numa teoria prescritiva do comportamento de decisão humano: Ordenação de alternativas: Indivíduos que tomam decisões racionais devem ser capazes de comparar quaisquer duas alternativas e de preferirem uma alternativa à outra, ou serem indiferentes a ambas; Dominância: Indivíduos racionais nunca devem adotar estratégias que estejam a ser “dominadas” por outras estratégias; Cancelamento: Se duas alternativas de risco incluem resultados idênticos e têm a mesma probabilidade, então a escolha entre essas duas alternativas depende apenas dos aspetos em que elas diferem e os aspetos iguais devem ser ignorados; Transitividade: Se um indivíduo prefere resultado A ao resultado B, e prefere resultado B ao resultado C, então esse indivíduo deve preferir o resultado A ao resultado C; Continuidade: Em qualquer conjunto de resultados, o indivíduo deve sempre preferir jogar com os melhores e os piores resultados, para ter a certeza da existência de um resultado intermédio se as chances do melhor resultado forem suficientes; Invariância: O princípio da invariância estipula que o indivíduo que vai fazer uma decisão não deve ser afetado pela ordem em que aparecem as alternativas. 5 Newmann e Morgestern provaram matematicamente que, quando os indivíduos que vão tomar uma decisão violam estes princípios, a utilidade esperada não é maximizada. Savage (1954) propõe a teoria da utilidade esperada subjetiva, isto é, aceita que as probabilidades consideradas sejam subjetivas. Isto é particularmente importante nos casos em que uma probabilidade objetiva não pode ser previamente determinada ou o resultado apenas aconteceu uma vez (ex. a probabilidade de uma guerra nuclear). Luce (1959) desenvolveu modelos estocásticos da teoria da utilidade esperada. Até terem sido desenvolvidos estes modelos, os teóricos da utilidade tinham muita dificuldade em explicar a racionalidade por detrás de uma pessoa preferir comer uma sopa num dia e uma salada no outro. TEORIA PROSPETIVA: A teoria prospetiva (TP) foi desenvolvida por Kahneman e Tversky (1979) em resposta às teorias normativas sobre o processo de tomada de decisão em contextos económicos/financeiros. Grande parte das teorias sobre tomada de decisão são normativas/prescritivas, como é o caso da TUE. Tais teorias procuram identificar qual seria a melhor decisão a ser tomada, ou seja, o comportamento ideal tendo em conta todos os axiomas. Na teoria da utilidade, a utilidade é obtida através da comparação de dois estados de riqueza. A TUE considera que um ganho de 100 € possui a mesma utilidade que a desutilidade de perder a mesma quantia. Kahneman (2012) explica que uma das principais falhas desta abordagem é justamente não permitir que as utilidades para os ganhos sejam calculadas de forma diferente do que para as perdas. A teoria da utilidade acabou por presumir, mesmo que de forma não intencional, que a distinção entre ganhos e perdas não importava. Uma das primeirasalternativas à TUE foi proposta por Nobel Laureate Simon (1956). Simon propôs que as pessoas, ao fazer decisões, preferem que estas as satisfaçam ao invés de as otimizarem. A teoria prospetiva diferencia-se da teoria da utilidade esperada em diversos pontos. Primeiramente, ela destaca as diferenças entre os termos utilidade e valor: a “utilidade” é substituída por “valor”, que é definido em termos de ganhos e perdas, que por sua vez são definidos como desvios (positivos ou negativos) em relação a um determinado ponto de referência. 6 Estes autores desenvolveram esta teoria para explicar vários paradoxos que anteriores teorias não conseguiam solucionar. As duas principais conclusões foram então: Os indivíduos identificam geralmente um ponto de referência ou nível de adaptação que representa o seu estado atual; Os indivíduos são muito mais sensíveis às potenciais perdas do que aos potenciais ganhos. Isto chama-se aversão à perda, e explica o porquê de a maioria das pessoas não estar disposta a aceitar uma aposta de 50/50 a menos que o montante que espera ganhar é cerca de duas vezes maior que a quantidade que pode perder. As nossas preferências não são estáveis mas dependem da forma como as situações são enquadradas. Temos aversão ao risco para ganhos e tolerância ao risco para perdas (aversão à perda). “Probabilidade” é substituída por “pesos de decisão” que tendem a sobrestimar probabilidades muito baixas e a subestimar probabilidades moderadas e elevadas (o que explica o porquê de muita gente jogar na loteria). EFEITO DE CERTEZA: Outra diferença entre o TUE e a TP é que a teoria prospetiva prediz um efeito de certeza. No exemplo da roleta russa, em que temos uma arma apenas carregada com uma bala, e uma outra arma carregada com quatro balas, o indivíduo comum afirma que prefere pagar mais para que seja retirada uma bala da primeira arma, do que paga para que seja retirada uma bala da segunda arma. Isto, a princípio até pode fazer todo o sentido, mas na verdade não é a decisão mais racional. Como a função de perdas é mais inclinada do que a de ganhos, uma perda é sentida como mais “forte” do que um ganho do mesmo valor. 7 Porque haveria de fazer mais sentido o indivíduo pagar mais na primeira situação, onde as chances de ser morto são menores do que na segunda situação? O efeito certeza faz com que os agentes apresentem uma reação desproporcional a uma diminuição de probabilidade quando esta transforma uma opção certa numa opção meramente provável e quando transforma uma opção provável numa opção menos provável. Este efeito é predito pela teoria prospetiva, mas não pela teoria da utilidade esperada. PSEUDOCERTEZA: Em adição ao efeito de certeza, Tversky e Kahneman (1981), discutiram o efeito de pseudocerteza. Quando uma situação apresenta a certeza como mais aparente que real, observa-se o efeito da pseudocerteza. Exemplo: As pessoas têm mais tendência a levar produtos que estejam numa promoção “leve 4 e pague 3” do que quando a promoção é colocada em termos de “25% de desconto”. O efeito de pseudocerteza leva o consumidor a acreditar que a primeira promoção é mais vantajosa que a segunda, por levar artigos “grátis”. EFEITO DE POSSE: Em cenários de negociação, os ganhos de uma das partes corresponde às perdas de outra parte. Cada negociador considera as suas perdas maiores do que as do oponente, ou seja, cada negociador tende a achar que, se ceder, vai ficar em desvantagem face ao outro. PARADOXO DA LIBERDADE DE ESCOLHA: O conceito de paradoxo da liberdade de escolha foi pensado pelo psicólogo americano Barry Schwartz e demonstra como nosso comportamento é afetado pela liberdade das escolhas. Preferimos ter oportunidade de mudar as nossas opções, mas isso torna-nos menos felizes com as escolhas que fazemos. Quanto mais opções, mais fácil se torna de nos arrependermos com qualquer coisa mais dececionante na escolha. 8 TEORIA DO ARREPENDIMENTO: A Teoria do Arrependimento, proposta por Loomes e Sugden (1982), refuta a abordagem exclusivamente objetiva das probabilidades associadas. Para os autores, existe uma série de probabilidades subjetivas associadas ao consumo. Ou seja, o consumidor sabe que poderá experimentar sensações de arrependimento ou conforto como decorrência da sua escolha. Dessa forma, pesa a probabilidade de ocorrência dessas sensações ao determinar qual opção será escolhida. ESCOLHAS DE CRITÉRIOS MÚLTIPLOS: Em muitas escolhas, os resultados não podem dimensionados a apenas uma escala, como o dinheiro ou o risco de contrair uma determinada doença. Em vez da otimização do objeto, há apenas consistência com os objetivos e valores de alguém. Assim, muita da pesquisa das “escolhas de critérios múltiplos” foca-se no “como”, ao invés do “quão bem” as pessoas fazem decisões. As pessoas utilizam uma série de diferentes estratégias de decisão para fazerem escolhas de critérios múltiplos, e essas estratégias variam muito dependendo do tipo de problema. Quando os indivíduos são forçados a fazer escolhas simples entre duas alternativas, eles normalmente utilizam estratégias “compensatórias”. ESTRATÉGIAS COMPENSATÓRIAS: Modelo linear: Num modelo linear, cada dimensão é ponderada de acordo com a sua importância e os valores ponderados são somados para formar um índice geral do valor. Apesar de as pessoas não utilizarem equações lineares para chegarem a uma decisão, as regras de decisão linear geralmente produzem escolhas que vão de acordo com as escolhas efetivamente feitas pelas pessoas. Modelo da diferença aditiva: Este modelo é similar ao modelo linear, à exceção de que, no modelo linear, cada alternativa é avaliada em todas as dimensões; no modelo da diferença aditiva, cada dimensão é primeiro avaliada entre alternativas, e apenas as diferenças entre as alternativas são ponderadas e somadas. 9 Focar nas diferenças traz duas grandes vantagens: simplifica a escolha entre duas alternativas e, como modelo de decisão, parece fornecer resultados similares às escolhas das pessoas. Modelo de ponto ideal: De acordo com este modelo, os indivíduos têm uma representação de como seria uma alternativa ideal. Assim, as alternativas que têm disponíveis são avaliadas em termos de quão afastadas estão da alternativa ideal. ESTRATÉGIAS NÃO COMPENSATÓRIAS: Quando as pessoas são confrontadas com escolhas complexas com um grande número de alternativas, normalmente são utilizadas estratégias não compensatórias. Ao contrário das estratégias compensatórias, estas estratégias não permitem trocas. Regra conjuntiva: Eliminar todas as alternativas que não se encontram dentro de certos limites impostos pelo indivíduo; Regra disjuntiva: É avaliada, em cada alternativa, o seu melhor atributo, independentemente de quão fracos possam os outros atributos ser; Lexicográfica: Um indivíduo que usa esta estratégia começa por identificar a dimensão mais importante para a comparação e escolhe a alternativa mais desejada. Se restar mais que uma alternativa, as alternativas voltam a ser comparadas mas, neste caso, quanto ao seu segundo melhor aspeto, e assim por diante até sobrar apenas uma alternativa; Eliminação por aspetos: Cada dimensão- ou aspeto- de comparação é selecionado com uma probabilidade proporcional à sua importância. As alternativas são primeiro comparadas a respeito de um determinado aspeto, as alternativas inferiores são eliminadas, e assim continua até só restar uma alternativa. A DIMENSÃO MAIS IMPORTANTE: Slovic estava interessado em saber como é que as pessoas escolhem entre duas alternativas igualmente valiosas. A sua hipótese era que, dada uma escolha destas, as pessoas tinham a tendência em escolher a alternativa que era superior na dimensão mais importante. Slovic chamou aisto de “a hipótese da dimensão mais importante”. 10 Após diversos estudos, os resultados que obteve iam de encontro com a sua hipótese, mostrando que, em situações como estas, as pessoas não faziam escolhas aleatórias ou ficavam paralisadas pela indecisão, mas sim que tinham tendência a escolher a alternativa cuja dimensão considerada “mais importante” era superior. A HEURÍSTICA DA REPRESENTATIVIDADE: Tversky e Kahneman propuseram que os indivíduos, ao tomarem decisões, utilizam heurísticas para chegarem a uma decisão. A grande vantagem das heurísticas é a redução do tempo e do esforço para que o indivíduo faça, geralmente, uma boa decisão. Normalmente, as heurísticas levam a boas estimativas e decisões. No entanto, também têm desvantagens, como a tendência para enviesamentos sistemáticos. OS A, B, C’S DA REPRESENTATIVIDADE: De acordo com Tversky e Kahneman, as pessoas geralmente julgam as probabilidade pelo “grau que A é representativo de B, ou seja, pelo grau que A se assemelha com B”. Esta é a heurística da representatividade. Exemplo: A Linda tem 31 anos, é solteira, franca e bastante inteligente. Ela tem um mestrado em filosofia. Enquanto estudante, estava profundamente preocupada com os problemas da discriminação e da justiça social, tal como também participou em demonstrações antinucleares. Por favor assinale a alternativa mais provável: a) A Linda é banqueira; b) A Linda é banqueira e feminista. A maior parte das pessoas sentem que é mais provável que a Linda seja banqueira e feminista ao invés de ser apenas banqueira. Se pensarmos nesta resposta, verificamos que viola os princípios da probabilidade. A conjunção de dois eventos (ser banqueira e ser feminista) não podem ter uma probabilidade mais alta do que um evento só (ser banqueira). Por esta razão, Tversky e Kahneman chamaram a este fenómeno, a falácia da conjunção. Podemos verificar esta falácia ao olhar para um diagrama de Venn. O círculo da esquerda representa o universo de todos os banqueiros, o círculo da direita representa o universo de todos os feministas e, apenas a área do meio, representa o universo dos bancários feministas. Sendo assim, a probabilidade de a Linda ser bancária, é maior do que a probabilidade de a Linda ser bancária e feminista. 11 Devido a resultados como estes, Tversky e Kahneman concluíram que: quanto mais aumenta o detalhe nos cenários, a sua probabilidade diminui, mas a sua representatividade (a sua semelhança) pode aumentar. Cenários específicos podem parecer mais prováveis do que cenários gerais, porque são mais representativos da forma como imaginamos esse evento particular. A heurística funciona porque probabilidade e semelhança estão muitas vezes correlacionadas (validade ecológica). No entanto, existem outros fatores que afetam a probabilidade que nada têm a ver com semelhança. A heurística da representatividade leva-nos a ignorar estes fatores e, consequentemente, a enviesamentos. A LEI DOS NÚMEROS PEQUENOS: Outra consequência da heurística da representatividade, é de que as pessoas tendem a acreditar em algo chamado “a lei dos números pequenos”. Esta lei faz referência a uma lei estatística chamada “a lei dos números grandes”, que afirma que, quanto maior for a amostra da população analisada, mais perto estará da avaliação da população inteira. A crença na lei dos números pequenos diz que, amostras aleatórias da população se vão assemelhar umas às outras e dar valores mais próximos dos valores da população, de uma forma mais correta do que a amostragem estatística conseguiria fazer. Exemplo: O QI médio de uma população de estudantes do oitavo ano numa cidade é de 100. Foi selecionada uma amostra aleatória de 50 crianças para um estudo sobre conquistas educacionais. A primeira criança testada tem um QI de 150. O que é esperado que seja a média dos QI para o resto da amostra? A maior parte das respostas vão dizer que o QI médio deveria de ser 100 mas, de facto, a resposta correta seria 101 (isto é demonstrado por cálculos). 12 Se respondeste 100 ao invés de 101, provavelmente assumiste que os valores de QI mais baixos iriam equilibrar os valores mais altos. Esta visão implica, no entanto, que as chances se autocorrijam. As chances não corrigem ou cancelam resultados altos com resultados baixos, apenas “diluem” resultados elevados com resultados adicionais que estão mais perto da média. Tversky e Kahneman dizem que esta tendência de ver as chances como algo que se autocorrige é um enviesamento que resulta da heurística da representatividade, porque se espera que as amostras sejam altamente representativas da sua população. Tversky e Kahneman também propuseram que a heurística da representatividade leva as pessoas a cometerem a falácia do jogador (gambler), onde há a crença de um resultado de sucesso após uma série de tentativas falhadas. Exemplo: Supõe que uma moeda equilibrada é atirada três vezes, em cada uma das vezes, a moeda cai com a face “coroa” virada para cima. Se tivesses de apostar 100€ no próximo lançamento, em que face apostarias? Como a moeda está equilibrada, a resposta correta seria de que a probabilidade de a moeda cair com a face “coroa” é a mesma de que cair com face “cara”. No entanto, há uma tendência para que as pessoas, ao responderem a esta questão, digam que apostariam em “caras” pelo simples facto de que, como já caiu “coroa” tantas vezes, então as chances de vir a cair “cara” devem ser maiores. NEGLIGENCIAR TAXAS DE BASE: Em alguns casos, a confiança na representatividade leva as pessoas a ignorar a informação das “taxas de base” (a frequência relativa com que determinado acontecimento acontece), a não ser quando a informação é consistente com a intuição prévia do indivíduo, tal como usam muito mais estas taxas quando a informação apresentada é causal, do que quando a informação não é causal, mesmo quando é dito aos participantes que ambos estes tipos de informação têm peso na decisão. Exemplo: É pedido aos participantes que avaliem o desempenho de um estudante com base no número de horas que dormem (informação causal) e que avaliem outro estudante com base no salário que ele ganha (informação não causal). 13 As pessoas têm tendência a dizer que o número de horas de sono tem um maior impacto do que o salário feito pelo estudante no seu desempenho, o que não é verdade. PREVISÕES NÃO REGRESSIVAS: As pessoas também têm a tendência de negligenciar o diagnóstico da informação ao fazerem uma previsão e, assim, fazem previsões não regressivas. A regressão à média é um fenómeno estatístico no qual pontuações elevadas ou altas têm a tendência em serem seguidos de uma pontuação mediana, tal como pais muito altos têm tendência em ter filhos de altura média. Esta tendência de dar muita importância a resultados mais afastados da média pode resultar em erros críticos no julgamento. Se um piloto de avião fizer um voo espetacular e for congratulado por isso, a tendência é que, no próximo voo, a sua performance baixe. Significa isto que devemos de deixar de congratular as pessoas? Não. Isto é explicado exatamente pela regressão à média, onde os resultados têm sempre a tendência de voltarem a valores medianos. E o mesmo acontece no caso de um piloto fazer um mau voo inicialmente e, na próxima vez, fazer um voo melhor. A HEURÍSTICA DA DISPONIBILIDADE: De acordo com Tversky e Kahneman, a heurística da disponibilidade faz com que os indivíduos, ao tomar uma decisão, tenham acesso à frequência da classe ou da probabilidade de um evento através da facilidade com que se recordam (ou geram mentalmente) instâncias desse acontecimento. Normalmente esta heurística funciona muito bem. Se todas as coisas forem iguais, eventos comuns são mais fáceis de relembrar do que eventos incomuns. Através da confiança na disponibilidadede estimar uma frequência ou uma probabilidade, as decisões tornam-se mais simples do que eram à partida. Como qualquer outra heurística, há casos em que estas podem levar a decisões tendenciosas. Alguns eventos estão mais disponíveis que outros não porque ocorrem com maior frequência, mas porque são mais fáceis de imaginar, estão mais recentes na mente, têm um valor emocional, etc. A heurística funciona porque instâncias de classes maiores e eventos mais prováveis estão mais acessíveis em memória (validade ecológica). No entanto, outros fatores não correlacionados com frequência objetiva dos eventos afetam a 14 acessibilidade da informação em memória. A negligência destes fatores em julgamentos com base nesta heurística leva a enviesamentos característicos DISPONIBILIDADE QUE NEM SEMPRE FUNCIONA: Ao contrário da escassa cobertura dos media, a diabetes e o cancro de estômago matam duas vezes mais americanos anualmente do que os homicídios ou os acidentes de carro. De acordo com Tversky e Kahneman, este tipo de estatísticas são contraintuitivas porque a maior parte das pessoas estima a frequência de um evento pelo quão fácil é lembrar-se de instâncias do evento. Os acidentes de carro estão mais disponíveis na mente do que a diabetes e o cancro de estômago. A disponibilidade também pode levar a julgamentos tendenciosos quando os exemplos de um evento são inerentemente mais difíceis de serem gerados, ou quando um tipo de resultado é mais fácil de prever do que outro. UM ESTUDO IMAGINATIVO: Em 1978, John Carroll publicou um estudo que ligava a heurística da disponibilidade com o ato de imaginar um evento. Carroll queria saber se eventos fáceis de imaginar eram julgados como sendo mais prováveis. Para isso fez uma série de estudos. Com os resultados dos estudos, Carroll foi capaz de concluir que imaginar um resultado fez com que este aparecesse mais frequentemente na mente das pessoas. OS LIMITES DA IMAGINAÇÃO: E se um determinado resultado fosse difícil de imaginar? Se o indivíduo que vai fazer uma decisão tentar, sem sucesso, imaginar um resultado, então a probabilidade desse resultado diminui? Sherman et al. (1985) concluiu que, imaginar um resultado não garante que este vai aparecer mais frequentemente. Se um resultado é difícil de ser imaginado, a tentativa de o imaginar pode efetivamente reduzir a probabilidade de ocorrência desse resultado. 15 NEGAÇÃO: Outro caso em que a imaginação pode não aumentar aparentemente a probabilidade de um acontecimento é quando esse acontecimento é extremamente negativo. Alguns eventos são tão perturbadores que o próprio ato de os contemplar leva à negação de que eles ocorreram. Se a perspetiva de um evento for tão perturbadora que leva à negação, então imaginar a sua ocorrência pode não fazer com que esta apareça mais vezes. VIVIDEZ: Um primo da disponibilidade é a vividez. A vividez normalmente refere-se ao quão concreto ou imaginável algo é, apesar de ocasionalmente poder vir a ter outros significados. Por vezes a vividez refere-se ao quão emocionalmente interessante ou entusiasmante algo é, ou o quão perto algo está no espaço e no tempo. Uma série de estudos mostram que os indivíduos que tomam uma decisão são mais influenciados por informações vívidas do que por informações mais “pálidas” ou abstratas. ANCORAGEM E AJUSTAMENTO: No ambiente legal, o julgamento humano é frequentemente influenciado por âncoras salientes. Ancoragem de julgamento - a assimilação de um julgamento numérico a um padrão previamente considerado- pode ser uma das mais notáveis influências no julgamento humano por, pelo menos, duas razões: Os efeitos de ancoragem são incrivelmente intensos e robustos; Os mecanismos que produzem ancoragem são, ainda, um grande enigma. O efeito de ancoragem permite estimativas rápidas (automáticas) que podem ser seguidamente ajustadas. Tem valor ecológico pois, em condições naturais, a informação presente no ambiente é muitas vezes relevante, tornando a ancoragem útil para uma melhor resposta. No entanto, erros e enviesamentos ocorrem ao sermos influenciados, mesmo por âncoras irrelevantes e ao não estarmos conscientes da magnitude do impacto das âncoras no nosso julgamento. 16 INTENSIDADE E ROBUSTEZ: A ancoragem é independente de várias potenciais variáveis moderadoras. Por um lado, a ancoragem ocorre mesmo que os valores de âncora sejam claramente não informativos para a estimativa, por exemplo, porque foram aleatoriamente selecionadas. Para além disso, o efeito de ancoragem permanece não influenciado pela âncora extrema, o que significa que até valores extremos têm um determinado efeito. Os efeitos de ancoragem parecem ser independentes da motivação dos participantes, tal como já foi demonstrado que o efeito de ancoragem ocorre independentemente do expertise do participante. Para além disso, os efeitos de ancoragem são caracterizados por terem uma robustez temporal excecional e persistirem durante longos períodos de tempo. Num estudo, por exemplo, os efeitos de ancoragem ainda eram aparentes uma semana depois do valor de ancoragem ter sido considerado. Provavelmente, a mais notável demonstração de robustez do fenómeno deriva de pesquisa que demonstra que, nem mesmo instruções explícitas para corrigir uma possível influência de uma âncora é capaz de mitigar o efeito. RELEVÂNCIA: A ancoragem nos julgamentos não é só um efeito julgador robusto particular que tem sido demonstrado em vários domínios, também constitui um conceito explicativo básico que tem sido usado para explicar uma série de fenómenos dos julgamentos. A noção de ancoragem não ilumina os mecanismos subjacentes, descreve apenas a direção da influência observada (assimilação). Neste aspeto, o termo “ancoragem” constituí um conceito descritivo e não explicativo que não vai para lá dos termos assimilação e contraste. RELATOS TEÓRICOS: Até à data, quatro relatos teóricos de efeitos de ancoragem foram propostos. Em particular, tem sido sugerido que os efeitos de ancoragem resultam de: 1) ajustamento insuficiente do ponto de partida, 2) inferências de conversação, 3) priming numérico e 4) mecanismos de acessibilidade seletivos. 17 Ajustamento insuficiente Na sua descrição inicial do fenómeno, Tversky e Kahneman (1974) descreveram a ancoragem em termos de ajustamento insuficiente do ponto de partida. Eles argumentam que “as pessoas fazem estimativas começando num valor inicial que é ajustado para produzir uma resposta final. Os ajustamentos são normalmente insuficientes, isto é, diferentes pontos de partida criam diferentes estimativas, que são enviesadas devido ao valor inicial”. Tem sido demonstrado que o ajustamento insuficiente apenas parece contribuir para os efeitos de ancoragem se as âncoras críticas são auto-geradas e inaceitáveis, ao invés de um valor aceitável fornecido. Inferências de conversação De acordo com este raciocínio, aplicar regras implícitas de conversações naturais a situações estandardizadas, permite aos participantes que usem o valor de âncora para inferir a gama real de respostas possíveis. Os participantes que esperam que o investigador seja altamente informativo, ao colocar-lhe questões, pode assumir que o valor de âncora fornecida está perto do valor real e, consequentemente, colocam a sua estimativa próxima a esse valor. Priming numérico Este raciocínio assume que os efeitos de ancoragem são superficiais e puramente numéricos na sua natureza. Desta perspetiva, o único determinante do efeito de ancoragem é o valor de âncora, independentemente do seu contexto, do alvo com que está a ser comparado e das operações em que está envolvido. Um relato recente chega até a dizer que os efeitos de ancoragem podem ser tão superficiais que nem a própria âncora, mas apenaso seu valor absoluto é representado na memória e exerce a principal influência de ancoragem. No entanto, por mais convincente que possa parecer, uma análise cuidadosa da investigação dos efeitos de ancoragem revela que focar apenas no valor numérico de ancoragem é insuficiente para permitir a compreensão completa da ancoragem nos julgamentos. Em particular, evidências abundantes demonstram que o conteúdo semântico que está associado com a âncora tem necessariamente de ser levado em conta para entender o padrão completo de descobertas do efeito de ancoragem. 18 Acessibilidade seletiva A suposição básica do modelo de acessibilidade seletiva é de que a ancoragem é, na sua essência, o efeito de acessibilidade do conhecimento, cuja natureza é semântica. O modelo tenta explicar a ancoragem através da ligação com dois princípios que são fundamentais para a pesquisa de cognição social: 1) testagem consistente de hipóteses e 2) priming semântico. Mais especificamente, o modelo postula que, comparando o alvo do julgamento com o valor da âncora altera a acessibilidade do conhecimento acerca do alvo. Em particular, a acessibilidade do conhecimento sobre o alvo é aumentada seletivamente. Assumimos que os juízes comparam o alvo com a âncora, testando a possibilidade de que o valor do alvo é igual ao valor da âncora. Por exemplo, quando é perguntado a juízes se a percentagem de países africanos nas Nações Unidas é maior ou menor que uma âncora elevada de 65%, assume-se que vão testar a possibilidade deste valor ser mesmo 65%. Para fazer isto, eles selecionam conhecimentos na memória que são consistentes com este valor (ex. A África é um continente imenso. Existem mais países africanos do que aqueles que me consigo lembrar). Este tipo de testagem consistente de hipóteses é uma tendência geral que contribui para uma grande variedade de processos de julgamento. Como consequência, a acessibilidade de conhecimento consistente com as âncoras é aumentado. Para gerar uma estimativa numérica consistente, os juízes dependem principalmente no conhecimento facilmente acessível. Assim, a sua estimativa é altamente influenciada por conhecimento consistente com as âncoras geradas anteriormente. SEMELHANÇAS ENTRE A ANCORAGEM E OS EFEITOS DA ACESSIBILIDADE DE CONHECIMENTOS: Os efeitos de ancoragem dependem criticamente da aplicabilidade do conhecimento que se tornou acessível durante a tarefa comparativa. Uma característica que é partilhada na ancoragem e no efeito de acessibilidade de conhecimento é de que o tempo necessário para fazer um determinado julgamento depende do grau de acessibilidade da informação relevante para o julgamento. 19 No entanto, diferentes níveis de acessibilidade não influenciam apenas a latência de respostas para julgamentos absolutos, mas também o conteúdo desses julgamentos. A robustez temporal também constitui uma outra característica do efeito de acessibilidade de conhecimento que é partilhada também pela ancoragem. SUPORTE DIRETO DA ACESSIBILIDADE SELETIVA: O mais direto apoio para esta noção vem de uma série de estudos que tiveram acesso direto à acessibilidade do conhecimento do alvo subsequente ao julgamento crítico comparativo. Num desses estudos, pediu-se aos participantes para que comparassem o preço médio de um carro alemão, dando-lhes um valor alto ou baixo de âncora. Após este julgamento comparativo, acedeu-se à acessibilidade do conhecimento do alvo com uma tarefa de decisão lexical. Os participantes fizeram uma série de decisões lexicais incluindo palavras-alvo que eram altamente associadas com carros caros (ex. Mercedes, BMW) e palavras associadas com carros mais baratos (ex. VW). As latências de resposta para estes dois tipos de palavras-alvo dependeu claramente da condição de ancoragem. Em particular, os juízes foram mais rápidos a reconhecer palavras associadas com carros caros após a comparação com a âncora alta e menos rápidos em comparação com a âncora baixa. Estes resultados demonstram que a acessibilidade de conhecimento semântico consistente com as âncoras acerca do alvo aumentou em consequência do julgamento comparativo. Evidências adicionais sugerem que este aumento de acessibilidade é específico ao alvo a julgar. 20 INTEGRAÇÃO: ANCORAGEM COMO UM PROCESSO EM DUAS FASES: A discussão precedente sugere que os efeitos de ancoragem são, essencialmente, efeitos de acessibilidade de conhecimento. A comparação crítica do alvo a julgar com o valor de âncora parece envolver uma pesquisa seletiva de âncoras consistentes com o conhecimento do alvo. Apesar desta comparação entre o alvo e a âncora parecer ser o centro de todos os paradigmas da ancoragem, em alguns desses paradigmas há o envolvimento de um estado precedente. Nos paradigmas onde o valor da âncora não é dado aos juízes de forma explícita, eles primeiro têm de selecionar uma potencial âncora, que depois pode ser comparada com o alvo. Isto é, em pelo menos alguns paradigmas de ancoragem, os juízes primeiro têm de entrar num processo de seleção antes de poderem entrar nos processos de comparação, que provavelmente envolvem processos de acessibilidade seletiva. Isto sugere que, para obter a compreensão completa do fenómeno de ancoragem, é preciso diferenciar entre duas fases que parecem ser claramente distinguíveis no que diz respeito aos processos que envolvem: a seleção de uma âncora para fazer o julgamento e a sua comparação subsequente com o alvo. Pelo menos três mecanismos podem influenciar a fase inicial de seleção: Um valor particular pode ser selecionado como âncora porque as inferências conversacionais a sugerem como relevante. Se uma determinada âncora é mencionada explicitamente pelo investigador, então os juízes podem selecioná-la para, subsequentemente, a compararem com o alvo; Um valor pode ser selecionado como uma âncora por ser facilmente acessível e vier à cabeça durante a avaliação do alvo; Uma âncora pode ser gerada pelo indivíduo devido a um ajustamento insuficiente. Juízes a quem é fornecido, por exemplo, uma âncora implausível, podem usar esse valor como um ponto de partida para gerarem um valor mais plausível, que depois é comparado com o alvo. Isto sugere que mecanismos alternativos de inferência conversacional, priming numérico e ajustamento insuficiente podem contribuir para a seleção de um valor de âncora. O resultado deste processo de seleção estandardizada é provável que influencie processos subsequentes de avaliação do alvo. Ao mesmo tempo, esta seleção por si própria não é suficiente para influenciar como é que o alvo é julgado. 21 CRENÇA EM PRÁTICAS INEFETIVAS DE MEDICINA ALTERNATIVA: O que faz com que os tratamentos alternativos pareçam eficientes? As medicinas alternativas são sustentadas sob casos particulares de sucesso, isto é, se alguém sabe de uma pessoa que afirma ter sido ajudada por tais práticas, é difícil refutar ou ir contra esse resultado pois podemos não ter evidências sobre o contrário (heurística da ancoragem). Estamos, assim, perante um erro de atribuição causal: "se isto resultou no outro, então pode até resultar comigo". Podemos até apontar uma variedade de razões para este fenómeno acontecer: as pessoas podem ter uma relação negativa com a medicina devido a casos pessoais possivelmente traumáticos; conhecer alguém que considere “inteligente” e “culto” que apoie estas práticas; doenças que levam o paciente a desesperar por uma cura ou por um resultado de saúde mais rápido; ou até ser uma tentativa de se destacar dos demais a partir de uma escolha menos popular. Este desespero leva à falácia Post Hoc Ergo Propter Hoc, uma falácia lógica também conhecida como correlação coincidente. Consiste na ideia de que dois eventos que decorrem em sequência cronológica estão necessariamente interligados poruma relação de causa-efeito. Definição: Aconteceu A e depois aconteceu B. Logo, A causou B. Exemplos: O João está com uma dor de cabeça, bebe um sumo de laranja e deixa de sentir dores de cabeça. Logo, o sumo de laranja acabou com a dor de cabeça do João. A pessoa está doente, é-lhe administrado um tratamento e a pessoa melhora. Logo, o tratamento foi eficaz. É verdade que, em ambos os exemplos, as proposições e a conclusão podem ser verdadeiras mas, para isso, necessitamos de evidência que comprove esta relação. No caso da medicina alterativa é exatamente o mesmo: o organismo humano tem uma capacidade enorme de se recuperar/melhorar por ele próprio, ou seja, não significa que, por uma pessoa tomar um medicamento homeopático e melhorar ligeiramente, que essa melhora seja devido à medicação. Para justificar essa conclusão era necessária verificação de que o medicamento homeopático realmente funciona, verificação essa que não existe. 22 HEURÍSTICAS RÁPIDAS E FRUGAIS: Evoluímos para resolver problemas específicos. As diversas heurísticas que possuímos no nosso repertório comportamental devem ser avaliadas a partir da sua validade ecológica e não por comparação com modelos normativos (validade normativa). A mente humana é vista como uma caixa de ferramentas adaptativa (adaptative tool box): Temos várias capacidades resultantes da evolução (ex. rastreio visual, imitação, reconhecimento); Fazermos uso de diversas heurísticas, compostas por processos ou “building blocks” que fazem uso destas capacidades. Ou seja, as heurísticas (gut feelings) funcionam porque exploram as capacidades cognitivas que resultaram da adaptação da espécie humana ao seu ambiente. HEURÍSTICA DO RECONHECIMENTO: Se um dos dois objetos é reconhecido e o outro não, então infere-se que o reconhecido tem o valor mais elevado no atributo em causa. Esta heurística tem validade ecológica pois a heurística é bem-sucedida quando a ignorância se correlaciona com o critério de decisão. Exemplo: Foi questionado a estudantes americanos e alemães qual era a cidade americana com mais habitantes, Detroit ou Milwaukee? Os estudantes americanos, que conheciam ambas as cidades, tiveram 62% de respostas corretas. Os estudantes alemães, que apenas conheciam uma das cidades, tiveram 100% de respostas corretas. A heurística do reconhecimento prediz que devo decidir com base no reconhecimento (da cidade), mesmo que saiba que é uma cidade pequena. Para a utilização desta heurística é necessário ser parcialmente ignorante (less-is-more effect), ou seja, a ausência parcial de reconhecimento é essencial para que se faça uma inferência acertada. Verifica-se este efeito quando a validade do conhecimento é menor do que a validade do reconhecimento. 23 HEURÍSTICAS DE BUSCA SEQUENCIAL: Estas heurísticas são utilizadas quando o reconhecimento não funciona: Heurística take the best Ordenação da validade das pistas conhecidas da mais para a menos válida. Se a primeira pista descrimina entre opções, para-se a busca e responde-se com base nessa pista. Se não, continuar para a próxima pista. Escolher a alternativa com o valor mais elevado na primeira pista que discrimina entre as duas alternativas. Heurística minimalista Procurar uma pista qualquer das disponíveis (não implica a ordenação da validade das pistas conhecidas). Se a pista discrimina entre as opções, para-se e responde-se, não se passando para a próxima pista. Escolher a alternativa com o valor mais elevado na primeira pista que discrimina entre as alternativas. PORQUE É QUE AS HEURÍSTICAS RÁPIDAS E FRUGAIS FUNCIONAM? É possível utilizar heurísticas quando há correspondência entre o processo de julgamento e a estrutura do ambiente. Heurísticas não compensatórias (ex. take the best) são estratégias tão boas como estratégias de decisão compensatória (ex. regressão linear) em ambientes não-compensatórios e redundantes. Nestes casos, torna-se vantajoso o uso de heurísticas, porque necessitam de menos recursos cognitivos. Existem, também, certas características dos ambientes, onde as heurísticas tendem a funcionar melhor: Se existir uma pista que é claramente o melhor preditor; A correlação entre as pistas é elevada e positiva; O grau de predição é limitado (ambientes complexos). VALIDADE ECOLÓGICA: Uma heurística funciona (é válida) se estiver bem adaptada à estrutura do ambiente. No caso da take the best, é quando as outras pistas estão 24 correlacionadas com a melhor (best) e quando a incerteza é elevada, ou seja, quando a capacidade de predição das pistas é relativamente mais baixa. É irrelevante se leva a julgamentos internamente inconscientes. Less is more não quer dizer que decidimos melhor quanto menos sabemos, mas sim que há um ponto a partir do qual mais informação não melhora (e até pode piorar) a qualidade das predições. QUATRO CRENÇAS ERRADAS DO PROGRAMA DE HEURÍSTICAS E VIÉSES: As heurísticas levam a erros e enviesamentos: A função das heurísticas não é produzir escolhas lógicas ou coerentes, mas sim adaptadas ao ambiente, devendo utilizar-se um critério de correspondência e não de coerência; Problemas do mundo real podem sempre ser resolvidos recorrendo a modelos formais que otimizam as soluções: Não, não há estratégias ótimas para muitos problemas formais e do mundo real; As heurísticas são sempre soluções “satisfatórias” (second best): Não, por vezes ultrapassam o desempenho de modelos formais; Mais informação é sempre melhor: Não. As heurísticas baseiam-se em intuições de julgamento e decisão e têm por base capacidades cognitivas que são o resultado da evolução. As heurísticas levam a viéses característicos e sistemáticos porque ignoram informação relevante (Tversky e Khaneman). As heurísticas são ecologicamente válidas porque ignoram informação irrelevante (Gigerenzer). A validade das heurísticas depende dos contextos onde são aplicadas. 25 CRÍTICAS AO PROGRAMA DE INVESTIGAÇÃO DE HEURÍSTICAS E VIESES: As heurísticas são constructos teóricos vagos, difíceis de distinguir empiricamente e que meramente descrevem aquilo que deviam explicar. FORMATO DE APRESENTAÇÃO: Certas formulações dos mesmos problemas permitem às pessoas codificar a informação de forma mais adequada e, assim, reduzir ou eliminar os enviesamentos heurísticos. Tversky e Kahnemann distinguem entre erros de aplicação e erros de compreensão. Diferentes formatos de apresentação levam a melhores ou a piores resultados em função do modelo mental ou esquema cognitivo evocado pelos formatos de apresentação. No entanto, outros autores argumentam que as frequências (em vez de probabilidades) são formatos mais adequados pois são favorecidos pela seleção natural). No entanto, o julgamento indutivo humano não se resume às heurísticas. Existem diferenças individuais que mostram intuição estatística. A aprendizagem de estatística e de probabilidades leva a melhorias de desempenho (ex. não se deve julgar um livro pela capa). Nisbett et al., desenvolveram, com sucesso, programas de treino para promover o desenvolvimento e uso das heurísticas estatísticas. Em suma, as heurísticas são constructos vagos que meramente re-descrevem os fenómenos que deveriam explicar. São apenas erros de comunicação (abordagem conversacional) e dependem da forma de apresentação da informação, e não do algoritmo. O julgamento indutivo humano não se resume às heurísticas. ABORDAGEM DUALISTA: Os processos cognitivos subjacentes aos julgamentos podem separar-se em dois tipos: Autónomo: respostas intuitivas, processos opacos à consciência (heurísticas); Envolve memória de trabalho: deliberado, baseado em regras. 26 Ambos os tipos estão especialmente bem adaptados para responder a diferentes situações e,por isso, na maioria das vezes agem em consonância. Algumas vezes, contudo, propõem respostas diferentes para um mesmo problema, provocando conflito. A maioria dos modelos dualistas emergiram na tentativa de conseguir integrar aparentes discrepâncias na forma como os indivíduos reagem aos mesmos estímulos em circunstâncias diferentes. De uma forma global, estes modelos assumem que os indivíduos podem tomar decisões, fazer diferentes tipos de avaliações e julgamentos com base na sua “intuição” ou “elaborando a resposta mais apropriada à situação”. A natureza diferencial dos processos pelos quais os indivíduos respondem “intuitivamente”, ou de uma “forma ponderada”, dita a necessidade de se conceber a dualidade de processamento na nossa mente. Argumentos fenomenológicos e experimentais dão suporte adicional a esta ideia. Em termos fenomenológicos, são relevantes as circunstâncias em que os indivíduos se dão conta da discrepância das respostas que emergem destes dois tipos de processos (critério S). Sloman (1996) ilustra esta situação com as nossas reações a frases do tipo “A baleia é um peixe!”. Se, por um lado, a associação que fazemos das baleias aos peixes nos faz reagir positivamente à frase, a verdade é a de que o conhecimento que temos sobre a classificação das baleias como mamíferos suscita-nos uma reação negativa. Por outro lado, em termos experimentais, os dados, que têm vindo a demonstrar o impacto diferencial de algumas variáveis sobre cada um dos modos de processamento (ou sistemas de processamento), sugerem que estes desempenham diferentes funções. Muitos estudiosos da área da psicologia cognitiva reconheceram a existência de dois processos cognitivos: o “Sistema 1” e “Sistema 2”. Segundo Kahneman, o Sistema 1 é o que opera automática e rapidamente, com pouco ou nenhum esforço e nenhuma perceção de controlo voluntário; já o Sistema 2 aloca a atenção para as atividades mentais laboriosas que o requisitam, incluindo cálculos complexos. O Sistema 1 representa as tarefas/situações de forma altamente contextualizada e o Sistema 2 representa as tarefas/situações de forma descontextualizada (com base nos princípios subjacentes). As operações do Sistema 2 são muitas vezes associadas com a experiência subjetiva de atividade, escolha e concentração. O Sistema 1 reflete o pensamento automático, inconsciente e pouco exigente em termos de capacidade, de menor esforço associativo e normalmente carregado de um certo nível de emoção, governado pelos hábitos e difícil de ser controlado ou modificado. 27 A perspetiva da decisão baseada na intuição sugere que a maior parte das decisões são tomadas, ou pelo menos direcionadas, pelo uso de habilidades intuitivas do indivíduo, que possui no seu sistema cognitivo a capacidade de “ler” o cenário e fazer conexões com experiências vivenciadas, tomando decisões para atender satisfatoriamente a necessidade momentânea sem necessariamente a realização de uma análise sistemática ou a busca pela decisão ótima. Das atividades automáticas que são atribuídas ao Sistema 1, pode-se referir: detetar hostilidade em uma voz, ler palavras em grandes cartazes e dirigir um carro por uma rua vazia. O Sistema 2 é responsável pelo pensamento mais lento, serial e controlado, realizado com maior esforço, relativamente flexível e potencialmente governado por regras. Nas operações do Sistema 2 estão atividades que exigem mais atenção, e são interrompidas quando a atenção é desviada, como por exemplo: manter o passo mais rápido do que o natural, comparar dois produtos em relação ao seu valor global e verificar a validade de um argumento lógico complexo. Neste sentido, Frederick (2005) ressalta que apesar do processo de decisão poder ser explicado por dois sistemas: o tácito ou intuitivo (Sistema 1) e o analítico ou deliberativo (Sistema 2), o sistema intuitivo acaba por ter uma ligação maior com as heurísticas ou se sobrepõe quando a questão que precisa ser resolvida é vista como fácil pelo indivíduo. Isso ocorre quando, num primeiro momento, sem nenhuma análise mais detalhada, a pessoa já chega a uma alternativa que parece ser boa o suficiente para resolver o problema. Porque é que o Sistema 2 (ou processamento T2) não evita os erros e viéses de T1 (heurísticas)? Será falta de inteligência? Stanovich testou se os enviesamentos de julgamento são mais evitados pelas pessoas mais inteligentes, apresentando-lhes problemas de conjunção (ex. problema da Linda) e problemas de lógica (Belief bias, ex. silogismo das rosas- Todas as flores murcham, as rosas murcham, logo as rosas são flores). No entanto, apercebeu-se que estas correlações são moderadas e a maioria dos erros e enviesamentos não se correlacionam com a experiência, mas sim com base rates, ancoragem, falácia da conjunção, etc. Ou seja, pessoas inteligentes são igualmente suscetíveis a cometer erros heurísticos. 28 MENTE REFLEXIVA: É a resistência à preguiça cognitiva que permite evitar efeitos de contexto e ter mente aberta para resistir às primeiras intuições e considerar alternativas. Envolve a capacidade de autorregulação epistémica, responsável pela deteção da necessidade de usar a mente algorítmica e da iniciação do processamento da mente algorítmica. Exemplos: Quantos animais de cada espécie levou Moisés na arca do dilúvio? Nenhum, a arca era de Noé. Sem mente reflexiva diríamos 2 animais. Uma bola e um taco custam 1.10€. O taco custa mais 1€ que a bola. Quanto custa a bola? 0.05€. Sem mente reflexiva diríamos 0.10€ MENTE ALGORÍTMICA: É a capacidade intelectual para inibir as respostas intuitivas e substituí-las por respostas alternativas. Implica possuir estruturas de conhecimento adequadas (mindware) como raciocínio probabilístico, literacia financeira e pensamento científico que permitem raciocinar de forma racional (maximizar a utilidade esperada). Envolve a capacidade para inibir estímulos indesejados (respostas intuitivas) e descontextualizar a informação de forma a poder correr simulações (decoupling). Exemplo: considere um teste para detetar uma doença que afeta 0.1% (1/1000) da população portuguesa. Um indivíduo que não tenha a doença tem uma probabilidade de 5% (50/1000) de ter um teste positivo. Um indivíduo que tenha a doença testa sempre positivo. Qual é a probabilidade de uma pessoa que tenha um teste positivo ter, de facto, a doença? A resposta intuitiva seria de que a probabilidade é de 95%. No entanto, a resposta certa é de 1/51, ou seja 1.8%. MODELO TRIPARTIDO: De acordo com este modelo, é possível identificar três estruturas distintas que contribuem de modo diferencial para o julgamento: a mente autónoma, a mente algorítmica e, também, a mente reflexiva. Mais especificamente, enquanto as funções da mente autónoma se prendem essencialmente com a computação automática de respostas na presença dos estímulos desencadeares apropriados, a mente algorítmica é principalmente responsável por encontrar uma solução alternativa à resposta heurística através da 29 utilização de regras e conhecimentos específicos. Por sua vez, a mente reflexiva corresponde a uma estrutura de controlo superior que é responsável por enviar a mensagem de que é necessário computar uma solução alternativa à resposta associativa que surge naturalmente na mente. Assim, a relação entre estas três estruturas é conceptualizada como sendo de alguma forma hierárquica, uma vez que são as disposições ao nível da mente reflexiva que ativam o funcionamento dos mecanismos da mente algorítmica que irão permitir a posterior substituição da resposta heurística e intuitiva fornecida pela mente autónoma. Deste modo, apesar do modelo tripartido da mente respeitar e conservar algumas das suposições dos modelos dualistas de julgamento, a verdade é que acrescenta algumas novas premissas comimpacto. Por exemplo, embora as propriedades atribuídas ao raciocínio heurístico continuem a ser maioritariamente representadas na conceptualização da mente autónoma, o entendimento do sistema analítico ou baseado em regras altera-se significativamente, uma vez que passa a ser compreendido como uma estrutura organizada em dois níveis de processamento distintos através da divisão em mente reflexiva e algorítmica. Com efeito, a conceptualização da mente como uma estrutura tripartida parece ser mais do que uma abstração teórica, uma vez que é apoiada pela observação de que diferentes disfunções cognitivas têm consequências distintas nos três tipos de mente. Desta forma, por exemplo, dificuldades na mente autónoma parecem estar associadas a disfunções cognitivas como o autismo ou a agnosia. Por sua vez, no que diz respeito à mente algorítmica, verifica-se que disrupções a este nível parecem estar relacionados com incapacidades na habilidade cognitiva. Para além disso, e por último, dificuldades na mente reflexiva parecem refletir dificuldades no nível de funcionamento intencional. 30 Para conseguir distinguir as circunstâncias que influenciam a utilização do raciocínio analítico ou baseado em regras das condições em que a resposta heurística é dominante, é necessário diferenciar as variáveis que afetam a mente algorítmica dos fatores que atingem diretamente o funcionamento da mente reflexiva. INTUIÇÕES VS. FÓRMULAS: Paul Meehl foi um dos psicólogos mais versáteis no século XX. No seu livro, reviu os resultados de 20 estudos que tinha analisado onde as predições clínicas baseadas nas impressões subjetivas de profissionais treinados eram vistas como sendo menos precisas do que predições estatísticas feitas através da combinação de scores ou avaliações de acordo com uma certa regra. Num dos seus estudos, conselheiros treinados entrevistaram cada aluno de uma escola por 45 minutos. Também tinham acesso às suas notas escolares, a vários testes de aptidão e um texto de 4 páginas escritas pelo aluno. O algoritmo estatístico utilizou apenas uma fração desta informação: as notas escolares e um teste de aptidão. Mesmo assim, a fórmula foi mais precisa do que 11 dos 14 conselheiros. Porque é que as avaliações dos experts foram inferiores às avaliações do algoritmo? Os experts tentam ser espertos, fora da caixa, e consideram combinações complexas de características para fazerem as suas predições. A complexidade pode funcionar em alguns casos, mas geralmente diminui a validade. Combinações simples de características são melhores. Muitos estudos mostraram que os decisores humanos são inferiores a uma fórmula, mesmo quando o valor sugerido é dado pela fórmula. Eles sentem que podem rejeitar a fórmula porque têm informação adicional sobre o caso. Outra razão para a inferioridade do julgamento dos experts é pelo facto de os humanos serem altamente inconsistentes ao fazerem uma revisão dos julgamentos de informações complexas. Quando lhes é pedido para avaliarem duas vezes a mesma informação, frequentemente dão respostas diferentes. Julgamentos incertos não podem ser preditores válidos de nada. Esta grande inconsistência é devida provavelmente à necessidade extrema de contexto por parte do Sistema 1. Sabemos, devido a estudos de priming, que estímulos que passam despercebidos no ambiente têm uma influência substancial nos nossos pensamentos e ações. Estas influências flutuam de momento para momento. O rápido prazer de uma brisa de ar fresco num dia de calor pode fazer- nos ligeiramente mais positivos e otimistas acerca de um determinado assunto que temos de avaliar no momento. 31 A pesquisa sugere uma conclusão surpreendente: para maximizar a precisão preditiva, as decisões finais devem ser deixadas para as fórmulas, especialmente em ambientes com baixa validade. Na admissão de estudantes em faculdades de medicina, por exemplo, a decisão final é geralmente feita pelo membro da faculdade que entrevistou o estudante. A evidência é fragmentária, mas é possível fazer uma conjetura: ao conduzir a entrevista, é provável que a precisão no processo de admissão diminua se for esse mesmo entrevistador a fazer a decisão final. Entrevistadores demasiado confiantes nas suas intuições vão dar um peso maior a impressões pessoais e menos peso a outras fontes de informação, baixando a validade. As práticas estatísticas dominantes nas ciências sociais servem para determinar os pesos de diferentes preditores, seguindo um algoritmo, a regressão múltipla. A lógica da regressão múltipla é indiscutível: encontra a fórmula ideal para combinar os diferentes pesos dos diferentes preditores. No entanto, Dawes observou que o algoritmo estatístico complexo adiciona pouco ou nenhum valor. Uma pessoa pode obter um resultado similar ao selecionar um conjunto de scores que têm alguma validade para prever o resultado e ajustar os valores para os tornar comparáveis. Uma fórmula que combina estes preditores com pesos iguais é provavelmente tão preciso na sua previsão quanto a fórmula da regressão linear ideal. Fórmulas que determinam pesos iguais para todos os preditores são superiores porque não são afetados por acidentes de amostragem. INTUIÇÃO DOS EXPERTS: QUANDO PODEMOS CONFIAR NELA? Gary Klein fazia parte do grupo NDM, que rejeitava o foco nos enviesamentos das heurísticas e nesta abordagem (das fórmulas vs. Intuição). Eles criticavam este modelo por ser demasiado preocupado com as falhas e por ser dirigido por experimentos artificiais ao invés de estudarem pessoas reais a fazerem coisas que importam. São altamente céticos acerca do uso de algoritmos rígidos de modo a substituir o julgamento humano. 32 INTUIÇÃO COMO RECONHECIMENTO: A visão de Klein acerca da intuição foi moldada por uma série de estudos acerca de comandantes de bombeiros: Klein investigou como é que os comandantes conseguiam fazer boas decisões sem fazer comparações. A hipótese inicial era de que os comandantes deveriam restringir a sua análise a um par de opções, mas esta hipótese estava incorreta. De facto, os comandantes normalmente geravam apenas uma única opção. Poderiam, assim, recorrer ao seu repertório de padrões que haviam já compilado durante mais de uma década de experiência real e visual para identificarem qual a opção mais plausível. Eles avaliavam esta opção através da estimulação mental para verificar se esse padrão se aplica à situação em questão. Se este padrão parecer apropriado, os comandantes iriam implementá-lo. Se o plano tivesse deficiências, seria alterado. Se fosse dificilmente alterável, iriam passar para o próximo padrão plausível. Klein tornou esta descrição numa teoria das decisões chamada Recognition- primed decision model (RPD) que se aplicava aos bombeiros mas também descreve o expertise em outros domínios, incluindo o xadrez. Este processo envolve o Sistema 1 e 2. Numa primeira fase, a tentativa de um plano vem à mente através de funções automáticas da memória associativa (Sistema 1). Na próxima fase há um processo de deliberação em que o plano é mentalmente simulado para verificar se vai funcionar (Sistema 2). ADQUIRINDO A HABILIDADE: Como é que as informações que apoiam a intuição ficam “guardadas na memória”? Certos tipos de intuições são adquiridos de forma muito rápida. Adquirimos, dos nossos antecessores, uma grande facilidade de aprender quando ter medo. Vamos rotular de desconfortável essa intuição que for seguida de uma experiência má. Este modo de aprendizagem emocional está muito próximo do que aconteceu com os experimentos de Pavlov. A aprendizagem emocional pode ser rápida, mas o que consideramos de “expertise” geralmente demora muito tempo para desenvolver. O AMBIENTE DAS HABILIDADES: A confiança de uma pessoa numa crença depende de duas impressões: facilidade cognitivae coerência. Estamos confiantes quando a história que contamos vem facilmente à cabeça, sem contradições ou cenários em competição. No entanto, a facilidade e a coerência não garantem que uma 33 crença seja verdadeira. A máquina associativa está preparada para suprimir a dúvida e para evocar ideias e informações que são compatíveis com a história que estamos a contar no momento. Klein e Kahneman concordaram num princípio importante: a confiança que as pessoas têm nas suas intuições não é um guia fiável para a validação. Por outras palavras, não confiar em ninguém – incluindo o próprio- para dizer o quão pode confiar nos seus julgamentos. Se a confiança subjetiva não deve ser confiada, então como podemos avaliar a validade de um julgamento intuitivo? A resposta vem de duas condições básicas para adquirir uma habilidade: Um ambiente que é suficientemente regular para ser previsível; Uma oportunidade de aprender essas regularidades através da prática prolongada. LINGUAGEM: Chomsky defende a ideia de uma abordagem formal do estudo das estruturas das frases, baseada em símbolos e regras. As regras dividem as frases em partes menores e que, ao serem combinadas através de regras chamadas “transformações”, é possível gerar todas e apenas as frases gramaticais (válidas) de uma dada língua, que são ilimitadas em número, daí o nome Gramática Gerativo- Transformacional, como a abordagem ficou conhecida na época. Considerada uma das teorias mais importantes no campo da linguística do século XX, a proposta essencial da teoria gerativa é de que existe um componente mental inata compartilhada entre todos os seres humanos, o LAD, que possui mecanismos de regras gerais que nos instruem sobre como funciona a comunicação humana. Teríamos também uma gramática universal inata, que explicaria o porquê de apenas os seres humanos desenvolverem linguagem de elevada complexidade, as semelhanças entre as várias línguas do mundo e o rápido desenvolvimento da linguagem nas crianças. No entanto, esta teoria de Chomsky teve também várias críticas: Existem cerca de 8000 línguas no mundo e não se consegue encontrar princípios que sejam universais em todas. Estes resultados obtidos por Chomsky apenas se aplicam a seres humanos que têm uma determinada base genética que permite a aquisição da linguagem, tal como exagerou a velocidade com que as crianças adquirem linguagem. 34 A linguagem é menos especial, a nível de funções cognitivas, do que o que era assumido por Chomsky. Estudos de neuroimagem indicam que existem várias áreas associadas a funções cognitivas gerais (ex. atenção, memória) que estão ativas aquando do processamento da linguagem. A HIPÓTESE WHORFIANA: A hipótese Sapir-Whorf, também conhecida como relativismo linguístico, foi proposta nos anos 1930 por dois linguistas, Edward Sapir e Benjamin Lee Whorf que, ao estudarem as línguas indígenas da América do Norte, chegaram à conclusão de que a língua não é um “instrumento de comunicação”, como afirma a linguística estruturalista, mas é um fator decisivo na formação da visão do mundo. Assim, a hipótese postula que as pessoas vivem segundo as suas culturas, em universos mentais muito distintos que são expressos (e talvez determinados) pelas diferentes línguas que falam. A linguagem influencia o pensamento e o comportamento de diferentes formas. A HIPÓTESE LABEL-FEEDBACK : Os humanos são os únicos animais que têm nomes para as suas categorias, o que torna a comunicação linguística possível. Para além disso, os nomes das categorias servem também para estabilizar ideias abstratas na memória de trabalho e disponibilizá-las para introspeção. De acordo com a hipótese label-feedback, ao aprender a associar nomes de categorias com entidades a que se referem, o rótulo torna-se associado aos recursos mais típicos e distintos para a categoria nomeada. Quando ativada, a atividade produzida pelo rótulo é alimentada para modular as representações precetivas de nível inferior aumentando a atividade bottom-up evocada pelo estímulo visual com informações top-down da categoria mais ampla. EFEITOS DA LINGUAGEM NA PERCEÇÃO VISUAL: Os efeitos da linguagem na perceção podem ser observados tanto nos processos de higher-level, como no reconhecimento, quanto nos processos de lower-level, como na discriminação e na deteção. Uma descoberta consistente tem sido de que a linguagem faz com que nós percebamos as palavras de forma mais categórica. 35 LINGUAGEM COMO UMA FORMA DE EXPERIÊNCIA QUE AFETA A PERCEÇÃO: Um número cada vez maior de estudos tem mostrado que a linguagem afeta a perceção. Na aprendizagem de uma língua, como Inglês, os falantes aprendem a perceber certos sons do discurso como sendo funcionalmente semelhantes. Este processo de categorização altera a nossa perceção, fazendo com que percecionemos sons fisicamente equidistantes como sendo mais ou menos semelhantes, dependendo da nossa experiência linguística. Estes efeitos não terminam ao nível dos sons do discurso do próprio indivíduo. A nossa experiência ao agrupar certas combinações de sons do discurso em maiores unidades (palavras), faz com que percecionemos os mesmos sons de forma diferente, dependendo da palavra onde se encontrarem esses sons. EFEITOS DA LINGUAGEM NO RECONHECIMENTO, DISCRIMINAÇÃO E DETEÇÃO: Ver uma cadeira e reconhecê-la como uma requer que relacionemos o input percetivo com um estado anterior (ex. esta coisa que vejo à minha frente é uma cadeira porque parece com as coisas que eu vi anteriormente e que são cadeiras). Aumentos semelhantes no reconhecimento podem ser alcançados com a ajuda da linguagem? Existem estudos que suportam e que contradizem esta hipótese. Pylyshyn verificou, num dos seus estudos, que pistas verbais têm pouco efeito no reconhecimento de figuras fragmentadas. No entanto, um estudo recente descobriu que o reconhecimento pode ser substancialmente aumentado simplesmente devido ao uso de pistas verbais. Pode a linguagem mudar o nosso reconhecimento de uma cena visual, mesmo quando essa cena não está relacionada com o conteúdo linguístico? Em um estudo, as pessoas viram a imagem ambígua de um pássaro de frente, logo após terem visto um movimento real de cima para baixo ou terem lido a descrição linguística de movimentos físicos (sem estarem relacionados com pássaros). Após isso, era simplesmente pedido aos participantes para desenharem uma minhoca no bico do pássaro. O reconhecimento dos participantes da cabeça do pássaro foi afetada de modo semelhante em ambas as condições. Pode ser tentador tentar interpretar alguns desses efeitos como sendo efeitos da linguagem nas interpretações de processos percetivos que, eles próprios, não são influenciados pela linguística. Uma forma de distinguir os processos que são mais percetivos daqueles que podem refletir processos semânticos de higher-level ou de tomada de decisões é através do uso de ERPs. Alguns ERPs estão associados com o processamento de propriedades visuais de lower-level, como o contraste, a luz, ou de propriedades percetivas de higher-level, como objetos e faces. 36 EFEITOS DA LINGUAGEM NA DISCRIMINAÇÃO: Enquanto reconhecer uma imagem requer que esta seja discriminada de outras possíveis alternativas, é certamente possível discriminar imagens sem as reconhecer. Podemos utilizar tarefas de discriminação para verificar se os efeitos da linguagem na perceção vão para lá do reconhecimento. Muitas investigações acerca de como a linguagem afeta a discriminação têm sido feitas no domínio das cores. O que faz a cor ser um excelente domínio para pesquisas é o facto de que o estímulo físico é contínuo, mas temos tendência a falar dele de forma categórica. Aprender as palavras das cores requer necessariamente a aprendizagem de agrupamento de cores em categorias nomeadas pela nossalinguagem. Isto faz com que percecionemos também as cores de forma mais categórica. Tem-se mostrado que a linguagem influencia a perceção de cores de duas formas: Primeiro, existem estudos que mostram que as pessoas que falam diferentes línguas mostram padrões diferentes de discriminação das cores; Segundo, existem estudos que mostram que a discriminação das cores pode ser alterada por indivíduo através da manipulação de fatores linguísticos. Ter adultos a aprender novas categorias de cores pode induzir a uma maior perceção categórica das cores. Ao mesmo tempo, têm surgido diversas evidências que mostram que interferir com “rótulos” pode reduzir ou eliminar efeitos categóricos e negar diferenças entre línguas. Evidências um pouco mais circunstanciais para o envolvimento da linguagem na perceção das cores vem de descobertas em tarefas de discriminação de cores em que as pessoas mostram uma maior vantagem entre categorias no campo visual direito (que projeta no hemisfério esquerdo), do que no campo visual esquerdo. A interferência verbal afeta seletivamente a discriminação entre categorias no campo visual direito. Em estudos de neuroimagem, também foi descoberto que as tarefas de discriminação de cores evocam atividade nas regiões corticais associadas com a nomeação, e que esta ativação é mais forte para cores vistas pelo campo visual direito. Discriminar cores fáceis de nomear evocam maior atividade nas regiões de nomeação, comparando com a discriminação de cores mais difíceis de nomear. 37 EFEITOS DA LINGUAGEM NA DETEÇÃO: Um processo percetual ainda mais básico é a deteção simples, onde é pedido a pessoas que indiquem se elas viram algo durante um período de tempo específico. Tarefas de deteção simples não requerem reconhecimento nem discriminação. Quando lhes é mostrado brevemente letras mascaradas e reversas, a capacidade das pessoas indicarem corretamente se determinada letra estava presente foi afetada pelo facto de terem ouvido o nome de uma letra imediatamente antes. É como se o nome preparasse o sistema visual para detetar (não apenas reconhecer) uma classe de formas denotada pelo “rótulo”. Uma falha neste estudo é de que, apesar de a apresentação breve e mascarada fazer com que o estímulo seja difícil de ver, não bloqueia o processamento semântico, mantendo em aberto a possibilidade de que ouvir um “rótulo” afeta os processos ao invés de algo tão básico quanto a deteção visual. PROCESSAMENTO PREDITIVO E ALCANCE DA LINGUAGEM NA PERCEÇÃO: Imagina que precisas de reconhecer uma vaca o mais rapidamente possível. Isto pode ser atingido através da pré-ativação de características visuais que distinguem as vacas de outros animais e objetos. Este conjunto de recursos é precisamente o que o rótulo categórico de “vaca” está desenhado para ativar. De facto, as pessoas são melhores a reconhecer imagens familiares como, neste caso, a vaca, quando é precedido pelo seu rótulo categórico, do que quando é precedido por pistas não-verbais como a onomatopeia da vaca. Visto desta forma, o que faz as pistas linguísticas diferentes das pistas não- linguísticas é o seu padrão de associações. Qualquer experiência percetual de um carro, vaca ou a cor verde é bastante específico; com a linguagem, as mesmas palavras podem ser utilizadas para se referirem a uma vasta gama de objetos/eventos/relações. As pessoas aprendem que as palavras carro, vaca e verde, podem ser utilizadas em diversas categorias. Em suma, aprender uma linguagem permite com que utilizemos palavras e construções verbais mais amplas como sendo métodos mais baratos e flexíveis para a modificação de processos preditivos em cascata em nós próprios e nos outros, alterando o tipo de informação top-down que emerge e quanta influência tem nos diferentes níveis de processamento percetivo. 38 EFEITO MORAL DA LINGUAGEM ESTRANGEIRA NA LINGUAGEM: Respostas a dilemas morais geralmente dependem de fatores contextuais, como a relação entre o indivíduo que vai fazer a decisão e as pessoas envolvidas ou quais as diversas maneiras de lidar com a situação. Notavelmente, descobertas recentes têm demonstrado que as respostas a dilemas morais também dependem sistematicamente sobre se estas são apresentadas na linguagem nativa ou em uma língua estrangeira. Muitos estudos descobriram que bilingues são mais prováveis a adotar uma posição moral utilitária quando respondem a um dilema moral apresentado numa língua estrangeira. A este efeito dá-se o nome de efeito moral da linguagem estrangeira (EMLE). Sabemos que, ao fazer decisões, temos sempre a presença de dois sistemas, um mais intuitivo (sistema 1) e um mais analítico (sistema 2). Apesar de qualquer decisão poder ser feita tendo em conta a influência dos dois sistemas, há evidência de que comportamentos consistentes com proscrições deontológicas como “não causar dano ativamente”, são preferencialmente apoiadas por processos do sistema 1, onde julgamentos utilitários como “maximizar o bem maior para o maior número de pessoas”, é apoiado pelo sistema 2. Existem duas possíveis explicações teóricas para o EMLE: Abordagem blunted-deontology: afirma que o uso de uma língua estrangeira afeta decisões morais, atenuando o processamento emocional ou heurístico. Consumidores tendem a fazer escolhas mais emocionais quando indicam as suas preferências no discurso do que quando usam outras modalidades de comunicação, como apontar o dedo para algo. Estas diferenças desaparecem quando as pessoas usam uma língua estrangeira, o que pode explicar o porquê de as pessoas, nesta condição, estarem mais dispostas a sacrificar uma pessoa para salvar cinco, já que as regras morais não estão particularmente salientes. Abordagem heightened-utilitarianism: afirma que o uso de uma língua estrangeira afeta decisões morais, encorajando o pensamento deliberado. Responder numa língua estrangeira implica geralmente mais esforço cognitivo e pode aumentar a dificuldade de processamento, o que pode promover o pensamento analítico. De acordo com esta abordagem, falantes de línguas estrangeiras, comparando a pessoas que não falam uma segunda língua, não se sentem necessariamente mais confortáveis em sacrificar uma pessoa para salvar cinco, mas têm a tendência de colocar um peso maior na escolha que possa vir a trazer um bem maior. 39 LINGUAGEM: LEITURA E PERCEÇÃO DA FALA: MÉTODOS DE PESQUISA: Um dos aspetos mais intrigantes do processamento de palavras apresentadas visualmente é que cada palavra oferece uma série de dimensões de processamento relativamente distintas. Apesar de, na maioria dos contextos de linguagem natural, a atenção ser principalmente direcionada para o significado das palavras e as suas relações com outras palavras, é bem possível mudar a atenção para dimensões alternativas de processamento, como as características visuais básicas (ex. identificar as cores das palavras), a ortografia (ex. contar o número de consoantes), fonologia (ex. determinar se uma determinada palavra rima com outra palavra) e sintaxe (ex. identificar a classe gramatical). No entanto, a troca de atenção entre estas dimensões de processamento depende, em grande parte, da força das dimensões concorrentes. Essa competição é bem exemplificada no Tarefa de Stroop, em que há competição entre a palavra (característica dominante) e a sua cor (característica mais fraca), levando a uma dificuldade em dizer a cor da palavra e não a palavra em si. PROCESSOS FONOLÓGICOS NA LEITURA: Modelo de fonologia fraca: Aqui temos o exemplo do modelo de dupla via em cascata, onde o processamento fonológico das palavras visuais é lento e não essencial para a identificação das palavras; Modelo de fonologia forte: Aqui temos o modelo de Frost, onde a codificação fonológica ocorre mesmo que prejudique o desempenho. Alguma codificação
Compartilhar