Buscar

Pensamento e Linguagem

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Faculdade de Psicologia da Universidade de lisboa
pensamento e linguagem
Carolina Loureiro
2º ANO / 1º semestre
2020/ 2021
Julgamento e decisão em condições de incerteza:
Blaise Pascal, Deus e a primeira teoria da decisão:
O matemático francês Blaise Pascal é conhecido também como filósofo pelo seu livro Pensamentos. Nesse livro, ele formula um argumento que combina matemática e a teologia. O filósofo parte do princípio que não se pode provar a existência ou a inexistência de Deus, o que obriga o ser humano a fazer uma escolha: acreditar ou não acreditar em Deus. Esta escolha não tem de uma aposta no escuro, ela pode ser lógica. O argumento de Pascal estabelece que é melhor apostar na existência de Deus (vida pia) do que na tese oposta (vida mundana): se ganhar, ganha tudo; se perder, não perde nada ou perde muito pouco.
O matemático comprova a sua tese pelo seguinte raciocínio: 
1) Se tu acreditas em Deus e Ele existe, quando morreres o teu ganho vai ser infinito (a vida eterna no paraíso);
2) Se acreditares em Deus e Ele não existir, quando morreres a tua perda é finita, o tempo de vida que perdeste a acreditar Nele;
3) Se não acreditas em Deus e Ele de fato não existe, quando morreres o teu ganho é finito, o tempo de vida que não perdeste a acreditar Nele;
4) Se não acreditares em Deus e Ele existir, então quando morreres a tua perda é infinita, nada menos do que a condenação eterna ao inferno.
A oposição entre o melhor e o pior resultado da aposta – ganho infinito versus perda infinita – não deixa alternativa senão apostar que Deus existe. Deste modo, mesmo quem não consegue acreditar, deve agir como se acreditasse, por via de dúvidas. Com o tempo, é provável que a prática da fé leve à fé verdadeira. Na verdade, para o filósofo cristão, o primeiro ganho da aposta dá-se ainda em vida, com a conquista da fé verdadeira, a única capaz de levar o indivíduo à felicidade plena.
Paradoxo de São Petesburgo:
Em 1713, Nicolau Bernoulli propõe o seguinte jogo:
O Pedro convida o Paulo para jogar um jogo. O Pedro explica que ele lançará uma moeda equilibrada ao ar até sair a face “Caras”. O Pedro vai pagar ao Paulo duas moedas se a primeira cara aparecer no primeiro lançamento, quatro moedas se a primeira cada aparecer no segundo lançamento, oito moedas se a primeira cara sair no terceiro lançamento e daí por diante. Mas, para isso, o Paulo tem primeiro de pagar ao Pedro.
A pergunta é: Quando é que o Paulo deve pagar ao Pedro para jogar com ele?
Resposta: A probabilidade de sair cara no primeiro lançamento é de ½. No segundo lançamento, a probabilidade é de ¼, e no n-ésimo lançamento é de ½n. Logo, o valor esperado desse jogo é infinito!
O Paulo pagaria uma quantia infinita para entrar no jogo? A maioria das pessoas nem aceitaria entrar no jogo se tivessem de pagar uma quantia razoavelmente alta, quanto mais infinitas moedas. Daí vem o paradoxo: se a probabilidade de o Paulo ganhar uma quantia pequena é alta, então porque é que ele deveria pagar uma quantia tão alta?
Como resolver este paradoxo?
· Certeza moral:
Uma possível solução é aproximar o problema a valores muito baixos de probabilidade (como na lotaria). Por exemplo, se supormos que ½ 25 = 0, então o valor esperado do jogo é, que ainda é um valor considerado alto e que uma boa parte das pessoas não estaria disposta a pagar.
· Limitação de recursos:
Supondo que o Paulo entra no jogo e, por sorte, a primeira cara só aparece no n-ésimo lançamento e o Pedro não tem tantas moedas para dar ao Paulo, o que acontece é que o Paulo fica com todas as moedas que o Pedro tem disponível, o recurso máximo disponível.
Isto é um paradoxo, porque o valor esperado do jogo (a recompensa média que o indivíduo esperaria receber se o jogo fosse jogado por um número de vezes ilimitado) é infinito e, mesmo assim, muito poucas são as pessoas que estão dispostas a pagar elevadas quantias de dinheiro para jogar.
· Teoria da utilidade esperada (TUE):
Então, a questão é: porque é que as pessoas não estão dispostas a pagar mais que uns poucos euros para jogar um jogo onde podem ter um retorno infinito?
Esta teoria foi criada por Daniel Bernoulli e propõe que, quanto maior for a riqueza de uma pessoa, menos significado tem a soma de um dado ganho à sua riqueza. No entanto isto não varia linearmente, mas sim logaritmicamente, ou seja, chega a um ponto em que estagna, ganhar mais que X valor já não acrescenta nada à riqueza do indivíduo.
Utilidade esperada = P (resultado) x (utilidade do resultado). Ou seja, a probabilidade de um dado resultado (decorrente de uma decisão) a multiplicar pela utilidade desse resultado.
Newmann e Morgestern (1947) explicitam os axiomas de TUE tornando-a numa teoria prescritiva do comportamento de decisão humano:
· Ordenação de alternativas: Indivíduos que tomam decisões racionais devem ser capazes de comparar quaisquer duas alternativas e de preferirem uma alternativa à outra, ou serem indiferentes a ambas;
· Dominância: Indivíduos racionais nunca devem adotar estratégias que estejam a ser “dominadas” por outras estratégias;
· Cancelamento: Se duas alternativas de risco incluem resultados idênticos e têm a mesma probabilidade, então a escolha entre essas duas alternativas depende apenas dos aspetos em que elas diferem e os aspetos iguais devem ser ignorados;
· Transitividade: Se um indivíduo prefere resultado A ao resultado B, e prefere resultado B ao resultado C, então esse indivíduo deve preferir o resultado A ao resultado C;
· Continuidade: Em qualquer conjunto de resultados, o indivíduo deve sempre preferir jogar com os melhores e os piores resultados, para ter a certeza da existência de um resultado intermédio se as chances do melhor resultado forem suficientes;
· Invariância: O princípio da invariância estipula que o indivíduo que vai fazer uma decisão não deve ser afetado pela ordem em que aparecem as alternativas.
Newmann e Morgestern provaram matematicamente que, quando os indivíduos que vão tomar uma decisão, violam estes princípios, a utilidade esperada não é maximizada.
Savage (1954) propõe a teoria da utilidade esperada subjetiva, isto é, aceita que as probabilidades consideradas sejam subjetivas. Isto é particularmente importante nos casos em que uma probabilidade objetiva não pode ser previamente determinada ou o resultado apenas aconteceu uma vez (ex. a probabilidade de uma guerra nuclear).
Luce (1959) desenvolveu modelos estocásticos da teoria da utilidade esperada. Até terem sido desenvolvidos estes modelos, os teóricos da utilidade tinham muita dificuldade em explicar a racionalidade por detrás de uma pessoa preferir comer uma sopa num dia e uma salada no outro.
Teoria prospetiva:
A teoria prospetiva (TP) foi desenvolvida por Kahneman e Tversky (1979) em resposta às teorias normativas sobre o processo de tomada de decisão em contextos económicos/financeiros.
Grande parte das teorias sobre tomada de decisão são normativas/prescritivas, como é o caso da teoria da utilidade esperada (TUE). Tais teorias procuram identificar qual seria a melhor decisão a ser tomada, ou seja, o comportamento ideal tendo em conta todos os axiomas.
Na teoria da utilidade, a utilidade é obtida através da comparação de dois estados de riqueza. A teoria da utilidade esperada (TUE) considera que um ganho de 100 € possui a mesma utilidade que a desutilidade de perder a mesma quantia. Kahneman (2012) explica que uma das principais falhas desta abordagem é justamente não permitir que as utilidades para os ganhos sejam calculadas de forma diferente do que para as perdas. A teoria da utilidade acabou por presumir, mesmo que de forma não intencional, que a distinção entre ganhos e perdas não importava.
Uma das primeiras alternativas à TUE foi proposta por Nobel Laureate Simon (1956). Simon propôs que as pessoas, ao fazer decisões, preferem que estas as satisfaçam ao invés de as otimizarem.
A teoria prospetiva diferencia-se da teoria da utilidade esperada em diversos pontos. Primeiramente, ela destaca as diferenças entre os termos utilidade
e valor: a “utilidade” é substituída por “valor”, que é definido em termos de ganhos e perdas, que por sua vez são definidos como desvios (positivos ou negativos) em relação a um determinado ponto de referência.
Estes autores desenvolveram esta teoria para explicar vários paradoxos que anteriores teorias não conseguiam solucionar. As duas principais conclusões foram então:
· Os indivíduos identificam geralmente um ponto de referência ou nível de adaptação que representa o seu estado atual;
· Os indivíduos são muito mais sensíveis às potenciais perdas do que aos potenciais ganhos. Isto chama-se aversão à perda, e explica o porquê de a maioria das pessoas não estar disposta a aceitar uma aposta de 50/50 a menos que o montante que espera ganhar é cerca de duas vezes maior que a quantidade que pode perder. Como a função de perdas é mais inclinada do que a de ganhos, uma perda é sentida como mais “forte” do que um ganho do mesmo valor.
As nossas preferências não são estáveis mas dependem da forma como as situações são enquadradas. Temos aversão ao risco para ganhos e tolerância ao risco para perdas (aversão à perda).
· “Probabilidade” é substituída por “pesos de decisão” que tendem a sobrestimar probabilidades muito baixas e a subestimar probabilidades moderadas e elevadas (o que explica o porquê de muita gente jogar na loteria).
Efeito de certeza:
Outra diferença entre o TUE e a TP é que a teoria prospetiva prediz um efeito de certeza. 
No exemplo da roleta russa, em que temos uma arma apenas carregada com uma bala, e uma outra arma carregada com quatro balas, o indivíduo comum afirma que prefere pagar mais para que seja retirada uma bala da primeira arma, do que paga para que seja retirada uma bala da segunda arma. Isto, a princípio até pode fazer todo o sentido, mas na verdade não é a decisão mais racional. Porque haveria de fazer mais sentido o indivíduo pagar mais na primeira situação, onde as chances de ser morto são menores do que na segunda situação?
O efeito certeza faz com que os agentes apresentem uma reação desproporcional a uma diminuição de probabilidade quando esta transforma uma opção certa numa opção meramente provável e quando transforma uma opção provável numa opção menos provável.
Este efeito é predito pela teoria prospetiva, mas não pela teoria da utilidade esperada.
Pseudocerteza:
Em adição ao efeito de certeza, Tversky e Kahneman (1981), discutiram o efeito de Pseudocerteza. Quando uma situação apresenta a certeza como mais aparente que real, observa-se o efeito da pseudocerteza. Como exemplo, é possível citar a pesquisa de Slovic, Fischhoff e Lichtenstein. Os autores apresentaram uma de duas possibilidades de campanhas de vacinação para 211 pessoas. Na primeira forma de apresentação, apenas 40% de uma amostra optou por tomar uma vacina, tendo em vista que essa protegeria 50% dos que a tomam de ter uma doença que afetaria 20% da população (proteção provável). Já na condição de pseudocerteza – correspondente à segunda forma de apresentação – as pessoas foram informadas de que havia duas possíveis causas mutuamente excludentes e igualmente prováveis para a doença, de modo que cada uma afetaria 10% da população. A vacina daria proteção total contra uma dessas causas. Cinquenta e sete por cento da amostra optou por tomar a vacina, já que esta aparentaria eliminar o risco, em vez de reduzi-lo. Esses dados apontam escolhas nas quais a certeza não é real, mas aparente, o que reforça o padrão de aversão ao risco.
Efeito de posse:
Em cenários de negociação, os ganhos de uma das partes corresponde às perdas de outra parte. Cada negociador considera as suas perdas maiores do que as do oponente, ou seja, cada negociador tende a achar que, se ceder, vai ficar em desvantagem face ao outro.
Paradoxo da liberdade de escolha:
O conceito de paradoxo da escolha foi pensado pelo psicólogo americano Barry Schwartz e demonstra como nosso comportamento é afetado pela liberdade e as escolhas. 
Preferimos ter oportunidade de mudar as nossas opções, mas isso torna-nos menos felizes com as escolhas que fazemos. Quanto mais opções, mais fácil se torna de nos arrependermos com qualquer coisa mais dececionante na escolha.
Teoria do arrependimento:
A Teoria do Arrependimento, proposta por Loomes e Sugden (1982), refuta a abordagem exclusivamente objetiva das probabilidades associadas. Para os autores, existe uma série de probabilidades subjetivas associadas ao consumo. Ou seja, o consumidor sabe que poderá experimentar sensações de arrependimento ou conforto como decorrência da sua escolha. Dessa forma, pesa a probabilidade de ocorrência dessas sensações ao determinar qual opção será escolhida.
A antecipação de arrependimento não precisa de ser vista como inconsistente com a teoria prospetiva. No entanto, e em decisões que envolvem risco de morte (ex. uma cirurgia de coração aberto), não faz sentido em falar em arrependimento após um resultado negativo (?)
Escolhas de critérios múltiplos:
Em muitas escolhas, os resultados não podem dimensionados a apenas uma escala, como o dinheiro ou o risco de contrair uma determinada doença. Em vez da otimização do objeto, há apenas consistência com os objetivos e valores de alguém. Assim, muita da pesquisa das “escolhas de critérios múltiplos” foca-se no “como”, ao invés do “quão bem” as pessoas fazem decisões.
As pessoas utilizam uma série de diferentes estratégias de decisão para fazerem escolhas de critérios múltiplos, e essas estratégias variam muito dependendo do tipo de problema. Quando os indivíduos são forçados a fazer escolhas simples entre duas alternativas, eles normalmente utilizam estratégias “compensatórias”.
Estratégias compensatórias:
· Modelo linear: 
Num modelo linear, cada dimensão é ponderada de acordo com a sua importância e os valores ponderados são somados para formar um índice geral do valor.
Apesar de as pessoas não utilizarem equações lineares para chegarem a uma decisão, as regras de decisão linear geralmente produzem escolhas que vão de acordo com as escolhas efetivamente feitas pelas pessoas.
· Modelo da diferença aditiva:
Este modelo é similar ao modelo linear, à exceção de que, no modelo linear, cada alternativa é avaliada em todas as dimensões; no modelo da diferença aditiva, cada dimensão é primeiro avaliada entre alternativas, e apenas as diferenças entre as alternativas são ponderadas e somadas.
Focar nas diferenças trás duas grandes vantagens: simplifica a escolha entre duas alternativas e, como modelo de decisão, parece fornecer resultados similares às escolhas das pessoas.
· Modelo de ponto ideal:
De acordo com este modelo, os indivíduos têm uma representação de como seria uma alternativa ideal. Assim, as alternativas que tem disponíveis são avaliadas em termos de quão afastadas estão da alternativa ideal.
Estratégias não compensatórias:
Quando as pessoas são confrontadas com escolhas complexas com um grande número de alternativas, normalmente são utilizadas estratégias não compensatórias. Ao contrário das estratégias compensatórias, estas estratégias não permitem trocas.
· Regra conjuntiva: Eliminar todas as alternativas que não se encontram dentro de certos limites impostos pelo indivíduo;
· Regra disjuntiva: É avaliada, em cada alternativa, o seu melhor atributo, independentemente de quão fracos possam os outros atributos ser;
· Lexicográfica: Um indivíduo que usa esta estratégia começa por identificar a dimensão mais importante para a comparação e escolhe a alternativa mais desejada. Se restar mais que uma alternativa, as alternativas voltam a ser comparadas mas, neste caso, quanto ao seu segundo melhor aspeto, e assim por diante até sobrar apenas uma alternativa;
· Eliminação por aspetos: Cada dimensão- ou aspeto- de comparação é selecionado com uma probabilidade proporcional à sua importância. As alternativas são primeiro comparadas a respeito de um determinado aspeto, as alternativas inferiores são eliminadas, e assim continua até só restar uma alternativa.
A dimensão mais importante:
Slovic estava interessado em saber
como é que as pessoas escolhem entre duas alternativas igualmente valiosas. A sua hipótese era que, dada uma escolha destas, as pessoas tinham a tendência em escolher a alternativa que era superior na dimensão mais importante. Slovic chamou a isto de “a hipótese da dimensão mais importante”.
Após diversos estudos, os resultados que obteve iam de encontro com a sua hipótese, mostrando que, em situações como estas, as pessoas não faziam escolhas aleatórias ou ficavam paralisadas pela indecisão, mas sim que tinham tendência a escolher a alternativa cuja dimensão considerada “mais importante” era superior.
A heurística da representatividade:
Tversky e Kahneman propuseram que os indivíduos, ao tomarem decisões, utilizam heurísticas para chegarem a uma decisão. A grande vantagem das heurísticas é a redução do tempo e do esforço para que o indivíduo faça, geralmente, uma boa decisão.
Normalmente, as heurísticas levam a boas estimativas e decisões. No entanto, também têm desvantagens, como a tendência para enviesamentos sistemáticos. A heurística da representatividade leva a enviesamentos bastante previsíveis em certas situações.
Os A, B, C’s da representatividade:
De acordo com Tversky e Kahneman, as pessoas geralmente julgam as probabilidade pelo “grau que A é representativo de B, ou seja, pelo grau que A se assemelha com B”. Esta é a heurística da representatividade.
A definição desta heurística é um pouco complicada de entender, mas através da observação de exemplos concretos conseguimos ver como consegue fazer com que a resposta de um indivíduo seja enviesada em certas situações:
Exemplo: A Linda tem 31 anos, é solteira, franca e bastante inteligente. Ela tem um mestrado em filosofia. Enquanto estudante, estava profundamente preocupada com os problemas da discriminação e da justiça social, tal como também participou em demonstrações antinucleares. Por favor assinale a alternativa mais provável:
a) A Linda é banqueira;
b) A Linda é banqueira e feminista.
A maior parte das pessoas sentem que é mais provável que a Linda seja banqueira e feminista ao invés de ser apenas feminista. Se pensarmos nesta resposta, verificamos que viola os princípios da probabilidade. A conjunção de dois eventos (ser banqueira e ser feminista) não podem ter uma probabilidade mais alta do que um evento só (ser banqueira). Por esta razão, Tversky e Kahneman chamaram a este fenómeno, a falácia da conjunção.
Podemos verificar esta falácia ao olhar para um diagrama de Venn. O círculo da esquerda representa o universo de todos os banqueiros, o círculo da direita representa o universo de todos os feministas e, apenas a área do meio, representa o universo dos bancários feministas. Sendo assim, a probabilidade de a Linda ser bancária, é maior do que a probabilidade de a Linda ser bancária e feminista.
Devido a resultados como estes, Tversky e Kahneman concluíram que: Quanto mais aumenta o detalhe nos cenários, a sua probabilidade diminui, mas a sua representatividade (a sua semelhança) pode aumentar. Cenários específicos podem parecer mais prováveis do que cenários gerais, porque são mais representativos da forma como imaginamos esse evento particular.
A heurística funciona porque probabilidade e semelhança estão muitas vezes correlacionadas (validade ecológica). No entanto, existem outros fatores que afetam a probabilidade que nada têm a ver com semelhança. A Heurística representatividade leva-nos a ignorar estes fatores e, consequentemente, a enviesamentos.
A lei dos números pequenos:
Outra consequência da heurística da representatividade, é de que as pessoas tendem a acreditar em algo chamado “a lei dos números pequenos”. Esta lei faz referência a uma lei estatística chamada “a lei dos números grandes”, uma lei estatística que afirma que, quando maior for a amostra da população analisada, mais perto estará da avaliação da população inteira. A crença na lei dos números pequenos diz que, amostras aleatórias da população se vão assemelhar umas às outras e dar valores mais próximos dos valores da população, de uma forma mais correta do que a amostragem estatística conseguiria fazer.
Exemplo: O QI médio de uma população de estudantes do oitavo ano numa cidade é de 100. Foi selecionada uma amostra aleatória de 50 crianças para um estudo sobre conquistas educacionais. A primeira criança testada tem um QI de 150. O que é esperado que seja a média dos QI para o resto da amostra?
A maior parte das respostas vão dizer que o QI médio deveria de ser 100 mas, de facto, a resposta correta seria 101 (isto é demonstrado por cálculos).
Se respondeste 100 ao invés de 101, provavelmente assumiste que os valores de QI mais baixos iriam equilibrar os valores mais altos. Esta visão implica, no entanto, que as chances se autocorrijam. As chances não se corrigem ou cancelam resultados altos com resultados baixos, apenas “diluem” resultados elevados com resultados adicionais que estão mais perto da média. Tversky e Kahneman dizem que esta tendência de ver as chances como algo que se autocorrige é um enviesamento que resulta da heurística da representatividade, porque se espera que as amostras sejam altamente representativas da sua população.
Tversky e Kahneman também propuseram que a heurística da representatividade leva as pessoas a cometerem a falácia do jogador (gambler), onde há a crença de um resultado de sucesso após uma série de tentativas falhadas.
Exemplo: Supõe que uma moeda equilibrada é atirada três vezes, em cada uma das vezes, a moeda cai com a face “coroa” virada para cima. Se tivesses de apostar 100€ no próximo lançamento, em que face apostarias?
Como a moeda está equilibrada, a resposta correta seria de que a probabilidade de a moeda cair com a face “coroa” é a mesma de que cair com face “cara”. No entanto, há uma tendência para que as pessoas, ao responderem a esta questão, digam que apostariam em “caras” pelo simples facto de que, como já caiu “coroa” tantas vezes, então as chances de vir a cair “cara” devem ser maiores.
Negligenciar taxas de base:
Em alguns casos, a confiança na representatividade leva as pessoas a ignorar a informação das “taxas de base” (a frequência relativa com que determinado acontecimento acontece), a não ser quando a informação é consistente com a intuição prévia do indivíduo, tal como usam muito mais estas taxas quando a informação apresentada é causal, do que quando a informação não é causal, mesmo quando é dito aos participantes que ambos estes tipos de informação têm peso na decisão.
Exemplo: É pedido aos participantes que avaliem o desempenho de um estudante com base no número de horas que dormem (informação causal) e que avaliem outro estudante com base no salário que ele ganha (informação não causal.
As pessoas têm tendência a dizer que o número de horas de sono tem um maior impacto do que o salário feito pelo estudante no seu desempenho, o que não +e verdade.
Previsões não regressivas:
As pessoas também têm a tendência de negligenciar o diagnóstico da informação ao fazerem uma previsão e, assim, fazem previsões não regressivas.
A regressão à média é um fenómeno estatístico no qual pontuações elevadas ou altas têm a tendência em serem seguidos de uma pontuação mediana, tal como pais muito altos têm tendência em ter filhos de altura média.
Esta tendência de dar muita importância a resultados mais afastados da média pode resultar em erros críticos no julgamento. Se um piloto de avião fizer um voo espetacular e for congratulado por isso, a tendência é que, no próximo voo, a sua performance baixe. Significa isto que devemos de deixar de congratular as pessoas? Não. Isto é explicado exatamente pela regressão à média, onde os resultados têm sempre a tendência de voltarem a valores medianos. E o mesmo acontece no caso de um piloto fazer um mau voo inicialmente e, na próxima vez, fazer um voo melhor.
A heurística da disponibilidade:
De acordo com Tversky e Kahneman, a heurística da disponibilidade faz com que os indivíduos, ao tomar uma decisão, tenham acesso à frequência da classe ou da probabilidade de um
evento através da facilidade com que se recordam (ou geram mentalmente) instâncias desse acontecimento.
Normalmente esta heurística funciona muito bem. Se todas as coisas forem iguais, eventos comuns são mais fáceis de relembrar do que eventos incomuns. Através da confiança na disponibilidade de estimar uma frequência ou uma probabilidade, as decisões tornam-se mais simples do que eram à partida.
Como qualquer outra heurística, há casos em que estas podem levar a decisões tendenciosas. Alguns eventos estão mais disponíveis que outros não porque ocorrem com maior frequência, mas porque são mais fáceis de imaginar, estão mais recentes na mente, têm um valor emocional, etc.
A heurística funciona porque instâncias de classes maiores e eventos mais prováveis estão mais acessíveis em memória (validade ecológica). No entanto, outros fatores não correlacionados com frequência objetiva dos eventos afetam a acessibilidade da informação em memória. A negligência destes fatores em julgamentos com base nesta heurística leva a enviesamentos característicos
Disponibilidade que nem sempre funciona:
Ao contrário da escassa cobertura dos media, os diabetes e o cancro de estômago matam duas vezes mais americanos anualmente do que os homicídios ou os acidentes de carro. De acordo com Tversky e Kahneman, este tipo de estatísticas são contraintuitivas porque a maior parte das pessoas estima a frequência de um evento pelo quão fácil é lembrar-se de instâncias do evento. Os acidentes de carro estão mais disponíveis na mente do que os diabetes e o cancro de estômago. 
A disponibilidade também pode levar a julgamentos tendenciosos quando os exemplos de um evento são inerentemente mais difíceis de serem gerados, ou quando um tipo de resultado é mais fácil de prever do que outro.
Um estudo imaginativo:
Em 1978, John Carroll publicou um estudo que ligava a heurística da disponibilidade com o ato de imaginar um evento. Carroll queria saber se eventos fáceis de imaginar eram julgados como sendo mais prováveis. Para isso fez uma série de estudos.
Com os resultados dos estudos, Carroll foi capaz de concluir que imaginar um resultado fez com que este aparecesse mais frequentemente na mente das pessoas.
Os limites da imaginação:
E se um determinado resultado fosse difícil de imaginar? Se o indivíduo que vai fazer uma decisão tentar, sem sucesso, imaginar um resultado, então a probabilidade desse resultado diminui?
Sherman et al. (1985) concluiu que, imaginar um resultado não garante que este vai aparecer mais frequentemente. Se um resultado é difícil de ser imaginado, a tentativa de o imaginar pode efetivamente reduzir a probabilidade de ocorrência desse resultado.
Negação:
Outro caso em que a imaginação pode não aumentar aparentemente a probabilidade de um acontecimento é quando esse acontecimento é extremamente negativo. Alguns eventos são tão perturbadores que o próprio ato de os contemplar leva à negação de que eles ocorreram.
Se a perspetiva de um evento for tão perturbadora que leva à negação, então imaginar a sua ocorrência pode não fazer com que esta apareça mais vezes.
Vividez:
Um primo da disponibilidade é a vividez. A vividez normalmente refere.se ao quão concreto ou imaginável algo é, apesar de ocasionalmente poder vir a ter outros significados. Por vezes a vividez refere-se ao quão emocionalmente interessante ou entusiasmante algo é, ou o quão perto algo está no espaço e no tempo. Uma série de estudos mostram que os indivíduos que tomam uma decisão são mais influenciados por informações vívidas do que por informações mais “pálidas” ou abstratas.
Ancoragem e ajustamento:
No ambiente legal, o julgamento humano é frequentemente influenciado por âncoras salientes. Ancoragem de julgamento - a assimilação de um julgamento numérico a um padrão previamente considerado- pode ser uma das mais notáveis influências no julgamento humano por, pelo menos, duas razões:
· Os efeitos de ancoragem são incrivelmente intensos e robustos;
· Os mecanismos que produzem ancoragem são, ainda, um grande enigma.
O efeito de ancoragem permite estimativas rápidas (automáticas) que podem ser seguidamente ajustadas. Tem valor ecológico pois, em condições naturais, a informação presente no ambiente é muitas vezes relevante, tornando a ancoragem útil para uma melhor resposta.
No entanto, erros e enviesamentos ocorrem ao sermos influenciados, mesmo por âncoras irrelevantes e ao não estarmos conscientes da magnitude do impacto das âncoras no nosso julgamento.
Intensidade e robustez:
A ancoragem é independente de várias potenciais variáveis moderadoras. Por um lado, a ancoragem ocorre mesmo que os valores de âncora sejam claramente não informativos para a estimativa, por exemplo, porque foram aleatoriamente selecionadas. Para além disso, o efeito de ancoragem permanece não influenciado pela âncora extrema, o que significa que até valores extremos têm um determinado efeito.
Os efeitos de ancoragem parecem ser independentes da motivação dos participantes, tal como já foi demonstrado que o efeito de ancoragem ocorre independentemente do expertise do participante.
Para além disso, os efeitos de ancoragem são caracterizados por terem uma robustez temporal excecional e persistirem durante longos períodos de tempo. Num estudo, por exemplo, os efeitos de ancoragem ainda eram aparentes uma semana depois do valor de ancoragem ter sido considerado. Provavelmente, a mais notável demonstração de robustez do fenómeno deriva de pesquisa que demonstra que, nem mesmo instruções explícitas para corrigir uma possível influência de uma âncora é capaz de mitigar o efeito.
Relevância:
A ancoragem nos julgamentos não é só um efeito julgador robusto particular que tem sido demonstrado em vários domínios, como também como também constitui um conceito explicativo básico que tem sido usado para explicar uma série de fenómenos dos julgamentos.
A noção de ancoragem não ilumina os mecanismos subjacentes, mas descreve apenas a direção da influência observada (assimilação). Neste aspeto, o termo “ancoragem” constituí um conceito descritivo e não explicativo que não vai para lá dos termos assimilação e contraste.
Relatos teóricos:
Até à data, quatro relatos teóricos de efeitos de ancoragem foram propostos. Em particular, tem sido sugerido que os efeitos de ancoragem resultam de: 1) ajustamento insuficiente do ponto de partida, 2) inferências de conversação, 3) priming numérico e 4) mecanismos de acessibilidade seletivos.
· Ajustamento insuficiente
Na sua descrição inicial do fenómeno, Tversky e Kahneman (1974) descreveram a ancoragem em termos de ajustamento insuficiente do ponto de partida. Eles argumentam que “as pessoas fazem estimativas começando num valor inicial que é ajustado para produzir uma resposta final. Os ajustamentos são normalmente insuficientes, isto é, diferentes pontos de partida criam diferentes estimativas, que são enviesadas devido ao valor inicial”.
Tem sido demonstrado que o ajustamento insuficiente apenas parece contribuir para os efeitos de ancoragem se as âncoras críticas são auto-geradas e inaceitáveis, ao invés de um valor aceitável fornecido.
· Inferências de conversação
De acordo com este raciocínio, aplicar regras implícitas de conversações naturais a situações estandardizadas, permite aos participantes que usem o valor de âncora para inferir a gama real de respostas possíveis. Os participantes que esperam que o investigador seja altamente informativo, ao colocar-lhe questões, pode assumir que o valor de âncora fornecida está perto do valor real e, consequentemente, colocam a sua estimativa próxima a esse valor.
Estas inferências de conversação podem estar subjacentes aos efeitos da consideração de valores âncora que são de clara relevância para a estimativa a ser feita. É importante notar que isto pressupõe que o valor de âncora é efetivamente visto como informativo para o julgamento. Os efeitos de ancoragem, no entanto, também acontecem se os valores de âncora forem claramente não informativos por serem aleatoriamente selecionados, extremos
ou não estarem sequer relacionados com a questão.
Apesar de inferências de conversação serem potenciais dominantes de ancoragem em situações naturais, não são necessariamente uma pré-condição.
· Priming numérico
Este raciocínio assume que os efeitos de ancoragem são superficiais e puramente numéricos na sua natureza.
Desta perspetiva, o único determinante do efeito de ancoragem é o valor de âncora, independentemente do seu contexto, do alvo com que está a ser comparado e das operações em que está envolvido. Um relato recente chega até a dizer que os efeitos de ancoragem podem ser tão superficiais que nem a própria âncora, mas apenas o seu valor absoluto é representado na memória e exerce a principal influência de ancoragem.
No entanto, por mais convincente que possa parecer, uma análise cuidadosa da investigação dos efeitos de ancoragem revela que focar apenas no valor numérico de ancoragem é insuficiente para permitir a compreensão completa da ancoragem nos julgamentos. Em particular, evidências abundantes demonstram que o conteúdo semântico que está associado com a âncora tem necessariamente de ser levado em conta para entender o padrão completo de descobertas do efeito de ancoragem.
· Acessibilidade seletiva
A suposição básica do modelo de acessibilidade seletiva é de que a ancoragem é, na sua essência, o efeito de acessibilidade do conhecimento, cuja natureza é semântica.
O modelo tenta explicar a ancoragem através da ligação com dois princípios que são fundamentais para a pesquisa de cognição social: 1) testagem consistente de hipóteses e 2) priming semântico. Mais especificamente, o modelo postula que, comparando o alvo do julgamento com o valor da âncora altera a acessibilidade do conhecimento acerca do alvo. Em particular, a acessibilidade do conhecimento sobre o alvo é aumentada seletivamente. 
Assumimos que os juízes comparam o alvo com a âncora, testando a possibilidade de que o valor do alvo é igual ao valor da âncora. Por exemplo, quando é perguntado a juízes se a percentagem de países africanos nas Nações Unidas é maior ou menor que uma âncora elevada de 65%, assume-se que vão testar a possibilidade deste valor ser mesmo 65%. Para fazer isto, eles selecionam conhecimentos na memória que são consistentes com este valor (ex. A África é um continente imenso. Existem mais países africanos do que aqueles que me consigo lembrar).
Este tipo de testagem consistente de hipóteses é uma tendência geral que contribui para uma grande variedade de processos de julgamento. Como consequência, a acessibilidade de conhecimento consistente com as âncoras é aumentado. Para gerar uma estimativa numérica consistente, os juízes dependem principalmente no conhecimento facilmente acessível. Assim, a sua estimativa é altamente influenciada por conhecimento consistente com as âncoras geradas anteriormente.
Semelhanças entre a ancoragem e os efeitos da acessibilidade de conhecimentos:
Os efeitos de ancoragem dependem criticamente da aplicabilidade do conhecimento que se tornou acessível durante a tarefa comparativa (dependem muito do critério da aplicabilidade).
Uma característica que é partilhada na ancoragem e no efeito de acessibilidade de conhecimento é de que o tempo necessário para fazer um determinado julgamento depende do grau de acessibilidade da informação relevante para o julgamento.
No entanto, diferentes níveis de acessibilidade não influenciam apenas a latência de respostas para julgamentos absolutos, mas também o conteúdo desses julgamentos.
A robustez temporal também constitui uma outra característica do efeito de acessibilidade de conhecimento que é partilhada também pela ancoragem.
Suporte direto da acessibilidade seletiva:
O mais direto apoio para esta noção vem de uma série de estudos que tiveram acesso direto à acessibilidade do conhecimento do alvo subsequente ao julgamento crítico comparativo.
Em um desses estudos, perguntou-se aos participantes para que eles comparassem o preço médio para um carro Alemão, dando-lhes um valor alto ou baixo de âncora. Após este julgamento comparativo, foi acessada a acessibilidade do conhecimento do alvo com uma tarefa de decisão lexical. Os participantes fizeram uma série de decisões lexicais incluindo palavras alvo que eram altamente associadas com carros caros (ex. Mercedes, BMW) e palavras associadas com carros mais baratos (ex. VW).
As latências de resposta para estes dois tipos de palavras-alvo dependeu claramente da condição de ancoragem. Em particular, os juízes foram mais rápidos a reconhecer palavras associadas com carros caros após a comparação com a âncora alta e menos rápidos em comparação com a âncora baixa. Estes resultados demonstram que a acessibilidade de conhecimento semântico consistente com as âncoras acerca do alvo aumentou em consequência do julgamento comparativo.
Evidências adicionais sugerem que este aumento de acessibilidade é específico al alvo a julgar. Isto é, o conhecimento que é tornado acessível está especificamente ligado ao alvo a julgar.
Integração: ancoragem como um processo em duas fases:
A discussão precedente sugere que os efeitos de ancoragem são, essencialmente, efeitos de acessibilidade de conhecimento. A comparação crítica do alvo a julgar com o valor de âncora, parece envolver uma pesquisa seletiva de âncoras consistentes com o conhecimento do alvo. Apesar de esta comparação entre o alvo e a âncora parecer ser o centro de todos os paradigmas da ancoragem, em alguns desses paradigmas há o envolvimento de um estado precedente.
Nos paradigmas onde o valor da âncora não é dado aos juízes de forma explícita, eles primeiro têm de selecionar uma potencial âncora, que depois pode ser comparada com o alvo. Isto é, em pelo menos alguns paradigmas de ancoragem, os juízes primeiro têm de entrar num processo de seleção antes de poderem entrar nos processos de comparação, que provavelmente envolvem processos de acessibilidade seletiva.
Isto sugere que, para obter a compreensão completa do fenómeno de ancoragem, é preciso diferenciar entre duas fases que parecem ser claramente distinguíveis no que diz respeito aos processos que envolvem: a seleção de uma âncora para fazer o julgamento e a sua comparação subsequente com o alvo.
Pelo menos três mecanismos podem influenciar a fase inicial de seleção:
· Um valor particular pode ser selecionado como âncora porque as inferências conversacionais a sugerem como relevante. Se uma determinada âncora é mencionada explicitamente pelo investigador, então os juízes podem selecioná-la para, subsequentemente, a compararem com o alvo;
· Um valor pode ser selecionado como uma âncora por ser facilmente acessível e vier à cabeça durante a avaliação do alvo;
· Uma âncora pode ser gerada pelo indivíduo devido a um ajustamento insuficiente. Juízes a quem é fornecido, por exemplo, uma âncora implausível, podem usar esse valor como um ponto de partida para gerarem um valor mais plausível, que depois é comparado com o alvo.
Isto sugere que mecanismos alternativos de inferência conversacional, priming numérico e ajustamento insuficiente podem contribuir para a seleção de um valor de âncora.
O resultado deste processo de seleção estandardizada é provável que influencie processos subsequentes de avaliação do alvo. Ao mesmo tempo, esta seleção por si própria não é suficiente para influenciar como é que o alvo é julgado. Em vez disso, estes efeitos resultam dos processos de comparação do standard selecionado para ajudar na avaliação do alvo.
Crença em práticas inefetivas de medicina alternativa:
O que faz com que os tratamentos alternativos pareçam eficientes?
As medicinas alternativas são sustentadas sob casos particulares de sucesso, isto é, se alguém sabe de uma pessoa que afirma ter sido ajudada por tais práticas, é difícil refutar ou ir contra esse resultado pois podemos não ter evidências sobre o contrário (heurística da ancoragem). Estamos assim perante um erro de atribuição causal: "se isto resultou no outro, então pode até resultar comigo". Podemos até apontar uma variedade de razões para
este fenómeno acontecer: as pessoas podem ter uma relação negativa com a medicina devido a casos pessoais possivelmente traumáticos; conhecer alguém que considere “inteligente” e “culto” que apoie estas práticas;  doenças que levam o paciente a desesperar por uma cura ou por um resultado de saúde mais rápido; ou até ser uma tentativa de se destacar dos demais a partir de uma escolha menos popular.
Este desespero leva à falácia Post Hoc Ergo Propter Hoc, uma falácia lógica também conhecida como correlação coincidente. Consiste na ideia de que dois eventos que decorrem em sequência cronológica estão necessariamente interligados por uma relação de causa efeito.
Definição: Aconteceu A e depois aconteceu B. Logo, A causou B.
Exemplos: O João está com uma dor de cabeça, bebe um sumo de laranja e deixa de sentir dores de cabeça. Logo, o sumo de laranja acabou com a dor de cabeça do João.
A pessoa está doente, é-lhe administrado um tratamento e a pessoa melhora. Logo, o tratamento foi eficaz.
É verdade que em ambos os exemplos, as proposições e a conclusão pode ser verdadeira mas, para isso, necessitamos de evidência que comprove esta relação. No caso da medicina alterativa é exatamente o mesmo: o organismo humano tem uma capacidade enorme de se recuperar/melhorar por ele próprio, ou seja, não significa que, por uma pessoa tomar um medicamento homeopático e melhorar ligeiramente, que essa melhora seja devido à medicação. Para justificar essa conclusão era necessária verificação de que o medicamento homeopático realmente funciona, verificação essa que não existe.
Heurísticas rápidas e frugais:
Evoluímos para resolver problemas específicos. As diversas heurísticas que possuímos no nosso reportório comportamental devem ser avaliadas a partir da sua validade ecológica e não por comparação com modelos normativos (validade normativa)
A mente humana é vista como uma caixa de ferramentas adaptativa (adaptative tool box):
· Temos várias capacidades resultantes da evolução (ex. rastreio visual, imitação, reconhecimento);
· Fazermos uso de diversas heurísticas, compostas por processos ou “building blocks” que fazem uso destas capacidades.
Ou seja, as heurísticas (gut feelings) funcionam porque exploram as capacidades cognitivas que resultaram da adaptação da espécie humana ao seu ambiente.
Heurística do reconhecimento:
Se um dos dois objetos é reconhecido e o outro não, então infere-se que o reconhecido tem o valor mais elevado no atributo em causa. Esta heurística tem validade ecológica pois a heurística é bem-sucedida quando a ignorância se correlaciona com o critério de decisão.
Exemplo: Foi questionado a estudantes americanos e alemães qual era a cidade americana com mais habitantes, Detroit ou Milwaukee? Os estudantes americanos, que conheciam ambas as cidades, tiveram 62% de respostas corretas. Os estudantes alemães, que apenas conheciam uma das cidades, tiveram 100% de respostas corretas.
A heurística do reconhecimento prediz que devo decidir com base no reconhecimento (da cidade), mesmo que saiba que é uma cidade pequena.
Para a utilização desta heurística é necessário ser parcialmente ignorante (less-is-more effect), ou seja, a ausência parcial de reconhecimento é essencial para que se faça uma inferência acertada. Verifica-se este efeito quando a validade do conhecimento é menor do que a validade do reconhecimento.
Heurísticas de busca sequencial:
Estas heurísticas são utilizadas quando o reconhecimento não funciona:
· Heurística take the best
Ordenação da validade das pistas conhecidas da mais para a menos válida. Se a primeira pista descrimina entre opções, para-se a busca e responde-se com base nessa pista. Se não, continuar para a próxima pista. 
Escolher a alternativa com o valor mais elevado na primeira pista que descrimina entre as duas alternativas.
· Heurística minimalista
Procurar uma pista qualquer das disponíveis (não implica a ordenação da validade das pistas conhecidas). Se a pista discrimina entre as opções, para-se e responde-se, não se passando para a próxima pista.
Escolher a alternativa com o valor mais elevado na primeira pista que discrimina entre as alternativas.
Porque é que as heurísticas rápidas e frugais funcionam?
É possível utilizar heurísticas quando há correspondência entre o processo de julgamento e a estrutura do ambiente. Heurísticas não compensatórias (ex. take the best) são estratégias tão boas como estratégias de decisão compensatória (ex. regressão linear) em ambientes não-compensatórios e redundantes Nestes casos, torna-se vantajoso o uso de heurísticas, porque necessitam de menos recursos cognitivos.
Existem, também, certas características dos ambientes, onde as heurísticas tendem a funcionar melhor:
· Se existir uma pista que é claramente o melhor preditor;
· A correlação entre as pistas é elevada e positiva;
· O grau de predição é limitado (ambientes complexos).
Validade ecológica:
Uma heurística funciona (é válida) se estiver bem adaptada à estrutura do ambiente. No caso da take the best, é quando as outras pistas estão correlacionadas com a melhor (best) e quando a incerteza é elevada, ou seja, quando a capacidade de predição das pistas é relativamente mais baixa.
É irrelevante se leva a julgamentos internamente inconscientes.
Less is more não quer dizer que decidimos melhor quanto menos sabemos, mas sim que há um ponto a partir do qual mais informação não melhora (e até pode piorar) a qualidade das predições.
As heurísticas rápidas e frugais exploram esta noção de tomar decisões adaptativas e é menos evidente que as pessoas as usem tanto quanto seria de esperar no dia-a-dia.
Quatro crenças erradas do programa de heurísticas e viéses:
· As heurísticas levam a erros e enviesamentos: a função das heurísticas não é produzir escolhas lógicas ou coerentes, mas sim adaptadas ao ambiente, devendo utilizar-se um critério de correspondência e não de coerência;
· Problemas do mundo real podem sempre ser resolvidos recorrendo a modelos formais que otimizam as soluções: Não, não há estratégias ótimas para muitos problemas formais e do mundo real;
· As heurísticas são sempre soluções “satisfatórias” (second bst): Não, por vezes ultrapassam o desempenho de modelos formais;
· Mais informação é sempre melhor: Não, como podemos verificar com o over-fitting.
As heurísticas baseiam-se em intuições de julgamento e decisão e têm por base capacidades cognitivas que são o resultado da evolução. 
As heurísticas levam a viéses característicos e sistemáticos porque ignoram informação relevante (Tversky e Khaneman).
As heurísticas são ecologicamente válidas porque ignoram informação irrelevante (Gigerenzer).
A validade das heurísticas depende dos contextos onde são aplicadas.
Críticas ao programa de investigação de heurísticas e vieses:
As heurísticas são constructos teóricos vagos, difíceis de distinguir empiricamente e que meramente descrevem aquilo que deviam explicar.
Formato de apresentação:
Certas formulações dos mesmos problemas permitem às pessoas codificar a informação de forma mais adequada e, assim, reduzir ou eliminar os enviesamentos heurísticos.
Tversky e Kahnemann distinguem entre erros de aplicação e erros de compreensão.
Diferentes formatos de apresentação levam a melhores ou a piores resultados em função do modelo mental ou esquema cognitivo evocado pelos formatos de apresentação. No entanto, outros autores argumentam que as frequências (em vez de probabilidades) são formatos mais adequados pois são favorecidos pela seleção natural).
No entanto, o julgamento indutivo humano não se resume às heurísticas. Existem diferenças individuais que mostram intuição estatística. A aprendizagem de estatística e de probabilidades que capitalize na intuição estatística humana, leva a melhorias de desempenho (ex. não se deve julgar um livro pela capa).
Nisbett et al. Desenvolveram, com sucesso, programas de treino para promover o desenvolvimento e uso das heurísticas estatísticas.
Em suma, as heurísticas são constructos vagos que meramente re-descrevem os fenómenos que deveriam
explicar. São apenas erros de comunicação (abordagem conversacional) e dependem da forma de apresentação da informação, e não do algoritmo. O julgamento indutivo humano não se resume às heurísticas.
Abordagem dualista:
Os processos cognitivos subjacentes aos julgamentos podem separar-se em dois tipos:
· Autónomo: respostas intuitivas, processos opacos à consciência (heurísticas);
· Envolve memória de trabalho: deliberado, baseado em regras.
Ambos os tipos estão especialmente bem adaptados para responder a diferentes situações e, por isso, na maioria das vezes agem em consonância. Algumas vezes, contudo, propõem respostas diferentes para um mesmo problema, provocando conflito.
A maioria dos modelos dualistas emergiram na tentativa de conseguir integrar aparentes discrepâncias na forma como os indivíduos reagem aos mesmos estímulos em circunstâncias diferentes. De uma forma global, estes modelos assumem que os indivíduos podem tomar decisões, fazer diferentes tipos de avaliações e julgamentos, com base na sua «intuição» ou «elaborando a resposta mais apropriada à situação». A natureza diferencial dos processos pelos quais os indivíduos respondem «intuitivamente», ou de uma «forma ponderada», dita a necessidade de se conceber a dualidade de processamento na nossa mente.
Argumentos fenomenológicos e experimentais dão suporte adicional a esta ideia. Em termos fenomenológicos, são relevantes as circunstâncias em que os indivíduos se dão conta da discrepância das respostas que emergem destes dois tipos de processos (critério S). Sloman (1996) ilustra esta situação com as nossas reações a frases do tipo «A baleia é um peixe!». Se, por um lado, a associação que fazemos das baleias aos peixes nos faz reagir positivamente à frase, a verdade é a de que o conhecimento que temos sobre a classificação das baleias como mamíferos suscita-nos uma reação negativa. Por outro lado, em termos experimentais, os dados, que têm vindo a demonstrar o impacto diferencial de algumas variáveis sobre cada um dos modos de processamento (ou sistemas de processamento), sugerem que estes desempenham diferentes funções. Tal como sugerido por Tulving (1983), estes três critérios (diferente natureza, simultânea ocorrência, e independência funcional) corroboram a existência de um sistema dualista de processamento de informação.
Muitos estudiosos da área da psicologia cognitiva reconheceram a existência de dois processos cognitivos: o “Sistema 1” e “Sistema 2”. 
Segundo Kahneman, o Sistema 1 é o que opera automática e rapidamente, com pouco ou nenhum esforço e nenhuma perceção de controlo voluntário, já o Sistema 2 aloca a atenção para as atividades mentais laboriosas que o requisitam, incluindo cálculos complexos. O sistema 1 representa as tarefas/situações de forma altamente contextualizada e o sistema 2 representa as tarefas/situações de forma descontextualizada (com base nos princípios subjacentes.
As operações do sistema 2 são muitas vezes associadas com a experiência subjetiva de atividade, escolha e concentração. O Sistema 1 reflete o pensamento automático, inconsciente, e pouco exigente em termos de capacidade, de menor esforço associativo e normalmente carregado de um certo nível de emoção, governado pelos hábitos e difícil de ser controlado ou modificado. 
A perspetiva da decisão baseada na intuição sugere que a maior parte das decisões são tomadas, ou pelo menos direcionadas, pelo uso de habilidades intuitivas do indivíduo, que possui no seu sistema cognitivo a capacidade de “ler” o cenário e fazer conexões com experiências vivenciadas, tomando decisões para atender satisfatoriamente a necessidade momentânea sem necessariamente a realização de uma análise sistemática ou a busca pela decisão ótima. 
Das atividades automáticas que são atribuídas ao sistema 1, pode-se referir: detetar hostilidade em uma voz, ler palavras em grandes cartazes e dirigir um carro por uma rua vazia. O Sistema 2 é responsável pelo pensamento mais lento, serial e controlado, realizado com maior esforço, relativamente flexível e potencialmente governado por regras.
Nas operações do sistema 2 estão atividades que exigem mais atenção, e são interrompidas quando a atenção é desviada, como por exemplo: manter o passo mais rápido do que o natural, comparar dois produtos em relação ao seu valor global e verificar a validade de um argumento lógico complexo.
Neste sentido, Frederick (2005) ressalta que apesar do processo de decisão poder ser explicado por dois sistemas: o tácito ou intuitivo (sistema 1) e o analítico ou deliberativo ( sistema 2), o sistema intuitivo acaba por ter uma ligação maior com as heurísticas ou se sobrepõe quando a questão que precisa ser resolvida é vista como fácil pelo indivíduo. Isso ocorre quando, num primeiro momento, sem nenhuma análise mais detalhada, a pessoa já chega a uma alternativa que parece ser boa o suficiente para resolver o problema.
Porque é que o sistema 2 (ou processamento T2) não evita os erros e viéses de T1 (heurísticas)? Será falta de inteligência?
Stanovich testou se os enviesamentos de julgamento são mais evitados pelas pessoas mais inteligentes, apresentando-lhes problemas de conjunção (ex. problema da Linda) e problemas de lógica (Belief bias, ex. silogismo das rosas- Todas as flores murcham, as rosas murcham, logo as rosas são flores). No entanto, apercebeu-se que estas correlações são moderadas e a maioria dos erros e enviesamentos não se correlacionam com a experiência, mas sim com base rates, ancoragem, falácia da conjunção, etc. Ou seja, pessoas inteligentes são igualmente suscetíveis a cometer erros heurísticos.
Mente reflexiva:
É a resistência à preguiça cognitiva, que permite evitar efeitos de contexto e ter mente aberta para resistir às primeiras intuições e considerar alternativas.
Envolve a capacidade de autorregulação epistémica, responsável pela deteção da necessidade de usar a mente algorítmica e da iniciação do processamento da mente algorítmica.
Exemplos: Quantos animais de cada espécie levou Moisés na arca do dilúvio? Nenhum, a arca era de Noé. Sem mente reflexiva, diríamos 2 animais.
Uma bola e um taco custam 1.10€. O taco custa mais 1€ que a bola. Quanto custa a bola? 0.05€. Sem mente reflexiva, diríamos 0.10€
Mente algorítmica:
É a capacidade intelectual para inibir as respostas intuitivas e substituí-las por respostas alternativas. Implica possuir estruturas de conhecimento adequadas (mindware) como raciocínio probabilístico, literacia financeira e pensamento científico que permitem raciocinar de forma racional (maximizar a utilidade esperada).
Envolve a capacidade para inibir estímulos indesejados (respostas intuitivas) e descontextualizar a informação de forma a poder correr simulações (decoupling).
Exemplo: considere um teste para detetar uma doença que afeta 0.1% (1/1000) da população portuguesa. Um indivíduo que não tenha a doença tem uma probabilidade de 5% (50/1000) de ter um teste positivo. Um indivíduo que tenha a doença testa sempre positivo. Qual é a probabilidade de uma pessoa que tenha um teste positivo ter, de facto, a doença? A resposta intuitiva seria de que a probabilidade é de 95%. No entanto, a resposta certa é de 1/51, ou seja 1.8%.
Modelo tripartido:
De acordo com este modelo, é possível identificar três estruturas distintas que contribuem de modo diferencial para o julgamento: a mente autónoma, a mente algorítmica e, também, a mente reflexiva. 
Mais especificamente, enquanto as funções da mente autónoma se prendem essencialmente com a computação automática de respostas na presença dos estímulos desencadeares apropriados, a mente algorítmica é principalmente responsável por encontrar uma solução alternativa à resposta heurística através da utilização de regras e conhecimentos específicos. Por sua vez, a mente reflexiva corresponde a uma estrutura de controlo superior que é responsável por enviar a mensagem de que é necessário computar uma solução alternativa à resposta associativa que surge naturalmente na mente. 
Assim, a relação entre estas três estruturas
é conceptualizada como sendo de alguma forma hierárquica, uma vez que são as disposições ao nível da mente reflexiva que ativam o funcionamento dos mecanismos da mente algorítmica que irão permitir a posterior substituição da resposta heurística e intuitiva fornecida pela mente autónoma. 
Deste modo, apesar do modelo tripartido da mente respeitar e conservar algumas das suposições dos modelos dualistas de julgamento, a verdade é que acrescenta algumas novas premissas com impacto. Por exemplo, embora as propriedades atribuídas ao raciocínio heurístico continuem a ser maioritariamente representadas na conceptualização da mente autónoma, o entendimento do sistema analítico ou baseado em regras altera-se significativamente, uma vez que passa a ser compreendido como uma estrutura organizada em dois níveis de processamento distintos através da divisão em mente reflexiva e algorítmica.
Com efeito, a conceptualização da mente como uma estrutura tripartida parece ser mais do que uma abstração teórica, uma vez que é apoiada pela observação de que diferentes disfunções cognitivas têm consequências distintas nos três tipos de mente. 
Desta forma, por exemplo, dificuldades na mente autónoma parecem estar associadas a disfunções cognitivas como o autismo ou a agnosia. Por sua vez, no que diz respeito à mente algorítmica, verifica-se que disrupções a este nível parecem estar relacionados com incapacidades na habilidade cognitiva. Para além disso, e por último, dificuldades na mente reflexiva parecem refletir dificuldades no nível de funcionamento intencional.
Desta forma, e de acordo com a conceptualização da mente como uma estrutura tripartida, para conseguir distinguir as circunstâncias que influenciam a utilização do raciocínio analítico ou baseado em regras das condições em que a resposta heurística é dominante, é necessário diferenciar as variáveis que afetam a mente algorítmica dos fatores que atingem diretamente o funcionamento da mente reflexiva.
Intuições vs. Fórmulas:
Paul Meehl foi um dos psicólogos mais versáteis no século XX. No seu livro, reviu os resultados de 20 estudos que tinha analisado onde as predições clínicas baseadas nas impressões subjetivas de profissionais treinados eram vistas como sendo mais precisas do que predições estatísticas feitas através da combinação de scores ou avaliações de acordo com uma certa regra.
Num dos seus estudos, conselheiros treinados entrevistaram cada aluno de uma escola por 45 minutos. Também tinham acesso às suas notas escolares, a vários testes de aptidão e um texto de 4 páginas escritas pelo aluno. O algoritmo estatístico utilizou apenas uma fração desta informação: as notas escolares e um teste de aptidão. Mesmo assim, a fórmula foi mais precisa do que 11 dos 14 conselheiros.
Porque é que as avaliações dos experts foram inferiores às avaliações do algoritmo? Os experts tentam ser espertos, fora da caixa, e consideram combinações complexas de características para fazerem as suas predições. A complexidade pode funcionar em alguns casos, mas geralmente diminui a validade. Combinações simples de características são melhores. Muitos estudos mostraram que os decisores humanos são inferiores a uma fórmula, mesmo quando o valor sugerido é dado pela fórmula. Eles sentem que podem rejeitar a fórmula porque têm informação adicional sobre o caso.
Outra razão para a inferioridade do julgamento dos experts é pelo facto de os humanos serem altamente inconsistentes ao fazerem uma revisão dos julgamentos de informações complexas. Quando lhes é pedido para avaliarem duas vezes a mesma informação, frequentemente dão respostas diferentes. Julgamentos incertos não podem ser preditores válidos de nada.
Esta grande inconsistência é devida provavelmente à necessidade extrema de contexto por parte do sistema 1. Sabemos, devido a estudos de priming, que estímulos que passam despercebidos no ambiente têm uma influência substancial nos nossos pensamentos e ações. Estas influências flutuam de momento para momento. O rápido prazer de uma brisa de ar fresco num dia de calor pode fazer-nos ligeiramente mais positivos e otimistas acerca de um determinado assunto que temos de avaliar no momento.
A pesquisa sugere uma conclusão surpreendente: para maximizar a precisão preditiva, as decisões finais devem ser deixadas para as fórmulas, especialmente em ambientes com baixa validade. Na admissão de estudantes em faculdades de medicina, por exemplo, a decisão final é geralmente feita pelo membro da faculdade que entrevistou o estudante. A evidência é fragmentária, mas é possível fazer uma conjetura: ao conduzir a entrevista, é provável que a precisão no processo de admissão diminua se for esse mesmo entrevistador a fazer a decisão final. Entrevistadores demasiado confiantes nas suas intuições vão dar um peso maior a impressões pessoais e menos peso a outras fontes de informação, baixando a validade. 
As práticas estatísticas dominantes nas ciências sociais servem para determinar os pesos de diferentes preditores, seguindo um algoritmo, a regressão múltipla.
A lógica da regressão múltipla é indiscutível: encontra a fórmula ideal para combinar os diferentes pesos dos diferentes preditores. No entanto, Dawes observou que o algoritmo estatístico complexo adiciona pouco ou nenhum valor. Uma pessoa pode obter um resultado similar ao selecionar um conjunto de scores que têm alguma validade para prever o resultado e ajustar os valores para os tornar comparáveis. Uma fórmula que combina estes preditores com pesos iguais é provavelmente tão preciso na sua previsão quanto a fórmula da regressão linear ideal.
Fórmulas que determinam pesos iguais para todos os preditores são superiores porque não são afetados por acidentes de amostragem.
Intuição dos experts: quando podemos confiar nela?:
Gary Klein fazia parte do grupo NDM, que rejeitava o foco nos enviesamentos das heurísticas e nesta abordagem. Eles criticavam este modelo por ser demasiado preocupado com as falhas e por ser dirigido por experimentos artificiais ao invés de estudarem pessoas reais a fazerem coisas que importam. São altamente céticos acerca do uso de algoritmos rígidos de modo a substituir o julgamento humano.
Maravilhas e falhas:
O livro de Gladwell abre com a história memorável de experts da arte a serem confrontados com um objeto que é descrito como sendo um exemplar de uma estátua do movimento Kouros. Muitos dos experts tinham fortes reações viscerais: sentiam no seu âmago que a estátua era falsa, mas não eram capazes de articular o porquê de sentirem isso. Os experts acabaram por concordar que a estátua era falsa mas sem saber explicar o porquê, sendo esta a própria definição de intuição.
Esta história parece implicar que a busca sistemática pela pista que fez os experts adotarem uma determinada posição, falhou. No entanto, Kahneman e Klein rejeitaram essa conclusão.
Intuição como reconhecimento:
A visão de Klein acerca da intuição foi moldada por uma série de estudos acerca de comandantes de bombeiros: Klein investigou como é que os comandantes conseguiam fazer boas decisões sem fazer comparações. A hipótese inicial era de que os comandantes se deveriam restringir a sua análise a um par de opções, mas esta hipótese estava incorreta. De facto, os comandantes normalmente geravam apenas uma única opção. Poderiam, assim, recorrer ao seu repertório de padrões que haviam já compilado durante mais de uma década de experiência real e visual para identificarem qual a opção mais plausível. Eles avaliavam esta opção através da estimulação mental para verificar se esse padrão se aplica à situação em questão. Se este padrão parecer apropriado, os complementos iriam implementá-lo. Se o plano tivesse deficiências, seria alterado. Se fosse dificilmente alterável, iriam passar para o próximo padrão plausível.
Klein tornou esta descrição numa teoria das decisões chamada Recognition-primed decision model (RPD) que se aplicava aos bombeiros mas também descreve o expertise em outros domínios, incluindo o xadrez. Este processo envolve o sistema
1 e 2. Numa primeira fase, a tentativa de um plano vem à mente através de funções automáticas da memória associativa (sistema 1. Na próxima fase há um processo de deliberação em que o plano é mentalmente simulado para verificar se vai funcionar (sistema 2).
Adquirindo a habilidade:
Como é que as informações que apoiam a intuição ficam “guardados na memória”? Certos tipos de intuições são adquiridos de forma muito rápida. Adquirimos, dos nossos antecessores, uma grande facilidade de aprender quando ter medo. Vamos rotular de desconfortável essa intuição que for seguida de uma experiência má. Este modo de aprendizagem emocional está muito próximo do que aconteceu com os experimentos de Pavlov.
A aprendizagem emocional pode ser rápido, mas o que consideramos de “expertise” geralmente demora muito tempo para desenvolver.
O ambiente das habilidades:
A confiança de uma pessoa numa crença depende de duas impressões: facilidade cognitiva e coerência. Estamos confiantes quando a história que contamos vem facilmente à cabeça, sem contradições ou cenários em competição. No entanto, a facilidade e a coerência não garantem que uma crença seja verdadeira. A máquina associativa está preparada para suprimir a dúvida e para evocar ideias e informações que são compatíveis com a história que estamos a contar no momento.
Klein e Kahneman concordaram num princípio importante: a confiança que as pessoas têm nas suas intuições não é um guia fiável para a validação. Por outras palavras, não confiar em ninguém – incluindo o próprio- para dizer o quão pode confiar nos seus julgamentos.
Se a confiança subjetiva não deve ser confiada, então como podemos avaliar a validade de um julgamento intuitivo? A resposta vem de duas condições básicas para adquirir uma habilidade:
· Um ambiente que é suficientemente regular para ser previsível;
· Uma oportunidade de aprender essas regularidades através da prática prolongada.

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais