Baixe o app para aproveitar ainda mais
Prévia do material em texto
DESCRIÇÃO Apresentação das principais escolas de pensamento econômico empíricas e teóricas, além do estabelecimento de um debate sobre a evolução específica de cada uma delas, com destaque para os conceitos, as obras, os autores e as correntes de pensamento mais marcantes dessas escolas. PROPÓSITO Conhecer os desdobramentos recentes na história do pensamento econômico (HPE) a partir de escolas empíricas ou teóricas, além do contexto e da definição de conceitos fundamentais na teoria econômica. OBJETIVOS MÓDULO 1 Analisar a evolução das escolas de pensamento econômico empíricas MÓDULO 2 Descrever a evolução das escolas de pensamento econômico teóricas INTRODUÇÃO Estudaremos neste tema as escolas de pensamento econômico empíricas e teóricas que vêm se destacando após recentes desdobramentos na HPE. 1º MÓDULO Abordaremos três importantes correntes econômicas empíricas: a teoria dos ciclos de negócios, a escola empírica e a econometria e o desenvolvimento econômico. 2º MÓDULO Estudaremos outras correntes econômicas e teóricas: a teoria financeira e a teoria dos jogos. MÓDULO 1 Analisar a evolução das escolas de pensamento econômico empíricas TEORIA DOS CICLOS DE NEGÓCIOS A discussão sobre crises econômicas e depressões industriais não é recente, tendo em vista que ela já aparecia em obras de mercantilistas, fisiocratas e até mesmo nos escritos de Adam Smith. ORIGENS DOS CICLOS DE NEGÓCIOS Mesmo que o conceito de “crise” seja debatido há algum tempo, a ideia de que as crises são periódicas demorou mais para ser definida. O que significa essa periodicidade? Ela significa que as crises são fatos que vão e vêm repetindo-se com alguma regularidade, como, por exemplo, um ciclo em vez de um evento singular. THOMAS SPENCE E HEINRICH STORCH ESTÃO ENTRE OS PRIMEIROS ESCRITORES QUE TENTARAM FORNECER UMA TEORIA ECONÔMICA SOBRE AS DEPRESSÕES INDUSTRIAIS. COMO ELES DEFINIAM AS CRISES ECONÔMICAS? RESPOSTA RESPOSTA Para ambos, elas podiam ser definidas como situações em que uma superprodução generalizada, provocada por aumento excessivo da capacidade de produção, não encontrava um correspondente incremento na demanda para ser consumida. Os economistas clássicos rejeitavam a ideia da superprodução, pois eles acreditavam que isso seria uma impossibilidade teórica. ECONOMISTAS CLÁSSICOS Principalmente James Mill, Jean-Baptiste Say, David Ricardo e Nassau William Senior. As crises econômicas, apontavam, eram o resultado de uma produção mal direcionada – e não excessiva. O tópico ganhou muita atenção com as crises pós-guerras napoleônicas, culminando na controvérsia da Saturação Geral (1819 a 1821). Contrariando o argumento clássico sobre o papel do direcionamento da produção nas crises, Robert Malthus, Simonde de Sismondi e Thomas Chalmers reviveram a teoria da superprodução, ainda que de forma um pouco mais elaborada. Para eles, o subconsumo podia ser explicado a partir das incompatibilidades entre as classes sociais, tendo em vista suas diferentes dinâmicas de distribuição de renda e de gastos. javascript:void(0) javascript:void(0) As crises de 1825 e 1836 puseram em cena, pela primeira vez, a moeda e as finanças. A contribuição do sistema bancário para desencadear crises foi o centro da discussão durante a controvérsia bancária do final dos anos 1830 e início dos anos 1840 tanto na Grã-Bretanha quanto na Alemanha, na França e nos Estados Unidos. 1836 Crise financeira de larga escala que, desta vez, foi iniciada nos Estados Unidos. DE ACORDO COM ESSAS NOVAS TEORIAS, COMO AS CRISES ECONÔMICAS PODIAM SER EXPLICADAS? Elas podiam sê-lo em termos de um colapso repentino dos investimentos. Tal colapso, por sua vez, resultava em perdas financeiras por conta das bolhas especulativas ou pelo aumento exageradamente otimista da capacidade produtiva durante períodos de empréstimos em abundância. Afastando-se dessas teorias monetárias, os historicistas alemães K. H. Rau, W. G. F. Roscher e Lujo Brentano criaram outras mais diversificadas, se concentrando nas taxas reais das proporções de produção e de distribuição de consumo. Essas teorias podem ser vistas como um antecessor da tradição alemã acerca da teoria dos ciclos, cujo foco estava nos desajustes intersetoriais — ao contrário dos desajustes dinâmicos da inglesa. Ou seja, as crises seriam causadas por dificuldades na distribuição do consumo entre os setores da economia. javascript:void(0) A literatura socialista, por sua vez, também produziu muitas teorias sobre crises econômicas. É possível distinguir os analistas que as viam como: Uma consequência necessária decorrente da distribuição de renda sob o capitalismo. William Godwin, William Thompson, Pierre-Joseph Proudhon, Karl Rodbertus e Eugen Dühring são alguns exemplos de defensores dessa linha de pensamento. Um inevitável resultado da organização capitalista da produção industrial. Defendiam esse ponto de vista analistas como Sismondi, Louis Blanc, Henry George, Karl Marx, Friedrich Engels, Karl Kautsky, Brentano, Albert Schäffle, Adolph Wagner e Wilhelm Lexis. XVII Embora não tenha tido continuidade na época, a ideia da existência de ciclos periódicos já podia ser encontrada em trabalhos de William Petty no século XVII, quando ele identificou um ciclo de sete anos. No entanto, o próprio Petty frisava que a duração dos ciclos poderia ser diferente. A identificação dessa periodicidade (inicialmente como um ciclo de 10 anos) foi proposta mais tarde por William Langton e John Mills na segunda metade do século XIX. Enquanto ambos vinculavam a periodicidade das crises a questões como sentimentos pessoais e crédito, William Stanley Jevons, na década de 1860, a vinculou aos fenômenos reais das manchas solares e das colheitas. MANCHAS SOLARES Fenômeno astrofísico no qual se observam pequenas manchas na superfície do Sol. Pensava- se à época que elas poderiam ter um efeito relevante sobre a Terra e, portanto, sobre a economia. javascript:void(0) javascript:void(0) XIX CRISES ECONÔMICAS E O CONCEITO DE EQUILÍBRIO Por que a relação entre os ciclos de negócios e a teoria econômica pode ser considerada complexa e nem sempre intuitiva? O conceito de equilíbrio sempre serviu como um fundamento organizador da teoria econômica e restringia-se a mercados individuais – e não à macroeconomia. A visão do equilíbrio tradicionalmente implícita nas análises econômicas oferecia, dessa forma, pouco ou nenhum espaço para flutuações regulares. Essa foi a razão pela qual os programas de pesquisa foram, por muito tempo, conduzidos paralelamente, havendo pouco contato entre eles. A teoria dos ciclos econômicos acabou dominando o campo de interesse das escolas históricas francesas e alemãs, tendo sido adotada com especial entusiasmo pela escola institucionalista americana. No período entreguerras, um economista (Wesley Clair Mitchell) e um instituto de pesquisa econômica (National Bureau for Economic Research) tornaram-se os especialistas absolutos em ciclos de negócios, estando voltados para a identificação de fatos empíricos estilizados sobre o ciclo econômico. PERÍODO ENTREGUERRAS Período compreendido entre a Primeira e a Segunda Guerra Mundial no século XX. Apesar desse avanço, a crise econômica após a Primeira Guerra Mundial e, em especial, a recessão de 1920 e 1921 foram um divisor de águas. Foi só então que os economistas puramente teóricos começaram a realmente se esforçar para explicar os ciclos de negócios. Alguns tentaram explicá-los por meio da teoria do equilíbrio geral já existente. Outros apoiaram-se na ideia de choques aleatórios como condutores de flutuações mais longas. Houve ainda aqueles que transformaram a teoria do equilíbrio em uma nova teoria macroeconômica ampliada. javascript:void(0) Os debates após 1920 ressuscitaram de muitas maneiras os argumentos do século anterior. A escola de Cambridge passou a explicar as crises em termos de desajustes dinâmicos entre expectativas e resultados.Tais desajustes eram facilitados por meio de crédito bancário, pensamento que, aliás, estava em linha com os antigos debates sobre o sistema bancário e a moeda. Já a "tradição alemã" sobre desajustes intersetoriais foi retomada pela: Escola Kiel Com uma discussão dada em termos reais. Escola austríaca Com um debate feito a partir do papel da moeda. As teorias de subconsumo, por sua vez, foram retomadas por Foster e Catchings – e, mais notoriamente, por John Maynard Keynes. O destino dessa teoria foi novamente marcado por um grande evento: a Grande Depressão após 1929. 1 A crise prolongada e aparentemente sem fim contribuiu para que as pessoas desacreditassem a suposta periodicidade do ciclo. A revolução keynesiana mudou fundamentalmente o debate, deixando de lado os aspectos cíclicos para atentar na possibilidade de o equilíbrio estabelecer-se permanentemente no subemprego. 2 3 O interesse por questões cíclicas ressuscitou no período pós-Segunda Guerra Mundial, estando munido, dessa vez, de ferramentas da macroeconomia keynesiana para explicar as macroflutuações cíclicas. ESCOLA EMPÍRICA E A ECONOMETRIA O trabalho empírico — isto é, baseado na observação de experiências — assumiu um papel importante na economia desde que William Petty começou a registrar (e, às vezes, inventar) dados econômicos na Grã-Bretanha durante o século XVII. A relevância desse ramo da economia deve-se a duas razões nem sempre unânimes entre os economistas. Eles pensam, por exemplo, que: 1 Os insights econômicos podem ser obtidos por um exame cuidadoso dos dados: abordagem indutiva. 2 Teorias econômicas existentes podem ser validadas ou falsificadas mediante a comparação de suas afirmações com dados empíricos: abordagem teórica. MÉTODOS EMPÍRICOS E OS CICLOS DE NEGÓCIOS ABORDAGEM INDUTIVISTA A abordagem indutivista tem uma longa história e nos remete a Jevons, que, a partir de dados obtidos, conseguiu coletar evidências sobre um ciclo de negócios impulsionado por manchas solares. Clément Juglar, ainda no século XIX, encontrou em tabelas financeiras algumas evidências de um ciclo orientado pelo crédito. Da mesma forma, Henry L. Moore, já no início do século seguinte, usou essa abordagem para argumentar a favor de um ciclo gerado por questões climáticas. ABORDAGEM TEÓRICA A abordagem teórica, no entanto, também é bastante antiga. Economistas como Charles D'Avenant (século XVII) e Fleeming Jenkin (final do século XIX) já tentavam ajustar os dados às curvas de demanda. O mesmo Henry L. Moore (do método indutivista) também tentou ajustá-los às equações de demanda de Walras com Henry Schultz e P. H. Douglas, seus alunos na Universidade Columbia, tendo continuado esses esforços na década de 1930. Trabalho semelhante foi realizado na Grã-Bretanha por A. C. Pigou e na Alemanha por Jacob Marschak. Logo em seguida, Columbia também foi palco de um novo desdobramento da corrente empírica: o retorno da abordagem indutivista na análise dos ciclos de negócios. Esse esforço esteve, desta vez, sob o comando Wesley C. Mitchell. A abordagem indutivista foi, sem dúvida, contemplada tanto pela escola histórica alemã quanto pelos institucionalistas americanos. No entanto, foi apenas com W. C. Mitchell e seu instituto de pesquisa econômica (National Bureau of Economic Research) que as pesquisas sistemáticas com essa abordagem se concretizaram. QUAL FOI O PRINCIPAL TÓPICO DESSA PESQUISA INDUTIVISTA? QUAIS FORAM SEUS GRANDES CONTRIBUINTES? RESPOSTA 1 RESPOSTA 2 RESPOSTA 1 A medição dos ciclos de negócios foi o principal tópico dessa pesquisa indutivista. RESPOSTA 2 javascript:void(0) javascript:void(0) O NBER de Mitchell contou com grandes contribuintes da economia empírica, como, por exemplo, Arthur F. Burns, John Maurice Clark, Simon Kuznets, Frederick C. Mills, Rutledge Vining, Solomon Fabricant, Leonard P. Ayres e outros nomes da escola institucionalista americana. O registro empírico e a análise do ciclo de negócios naturalmente culminaram na coleta e análise de todos os tipos de dados empíricos, mas, em especial, no colhimento de dados de renda das contas nacionais. EXEMPLO Produção e investimento. Na Inglaterra, esta foi a principal atividade de Simon Kuznets e Colin Clark, enquanto R. G. D. Allen e Arthur Bowley dedicaram-se a uma grande coleta de dados sobre gastos familiares. Mesmo a partir dos trabalhos teóricos sobre ciclos de negócios — como os de J. A. Schumpeter, D. H. Robertson, A. C. Pigou e G. Haberler —, que traziam uma apresentação de dados empíricos, não se pode dizer que houve realmente a adoção de uma "abordagem teórica", já que não foram empregados métodos apropriados de inferência estatística para tal. A abordagem do NBER foi severamente criticada por George Yule, Eugene Slutsky, Ragnar Frisch e, mais notoriamente, por Tjalling C. Koopmans. Tais questionamentos resultaram no renascimento da abordagem teórica e, portanto, da econometria como a conhecemos. Pela primeira vez, a abordagem teórica foi aplicada com utilidade na análise dos ciclos de negócios por Jan Tinbergen no final dos anos 1930, período seguinte ao surgimento da teoria geral de J. M. Keynes. Após Keynes propor algumas relações funcionais simples entre variáveis de fácil observação (consumo, renda, investimento etc.), Tinbergen teve a ajuda de que precisava, usando métodos estatísticos, como as regressões lineares, para estimar os parâmetros das relações keynesianas. Contudo, não demorou para que as técnicas econométricas de Tinbergen recebessem críticas, tendo o próprio Keynes as considerado pouco mais do que uma "magia negra". BOOM ECONOMÉTRICO Houve um grande avanço na década de 1940 quando a abordagem probabilística da econometria foi proposta por Trygve Haavelmo e, em seguida, assumida como objetivo central da Comissão Cowles, um instituto de pesquisa econômica voltado para a vinculação da teoria econômica à matemática e à estatística. NO QUE SE FUNDAMENTA ESSA ABORDAGEM? Como o próprio nome sugere, a análise de dados passou a ser fundamentada na teoria matemática da probabilidade. Ou seja, passou-se a entender que os fenômenos socioeconômicos são sujeitos a choques aleatórios: nossas observações constituem apenas um resultado possível entre vários outros que poderiam ter ocorrido, assim como o de um lançamento de um dado é apenas um entre seis possibilidades. A partir daí, esse aspecto estocástico é modelado com as ferramentas da teoria matemática da probabilidade. Desse modo, durante a segunda metade do século XX, a versão "probabilística" da abordagem teórica estabeleceu-se como dominante na economia empírica, nascendo a econometria formal que conhecemos nos livros didáticos. Com um boom econométrico ocorrendo, o trabalho da Comissão Cowles pôde desenvolver técnicas de estimação para sistemas de equações simultâneas, como o modelo Klein- Goldberger da macroeconomia keynesiana. No entanto, para colocar tais técnicas em prática, era necessário ainda lidar com uma questão que tanto atormentava os primeiros trabalhos de Moore e Schultz: o problema da “identificação”. O que é esse problema de identificação? Esse problema clássico da econometria refere-se à impossibilidade de modelos econômicos determinarem um ou mais parâmetros a partir de variáveis observáveis, dependendo das hipóteses que sejam feitas sobre os fundamentos desses modelos. O modelo Klein-Goldberger da macroeconomia complementou ainda outros modelos estruturais de grande escala projetados para trabalhos empíricos e planejamento governamental, como o sistema de input-output de Leontief. Modigliani desenvolveu outro macromodelo de grande escala, o conhecido modelo MPS, cujo nome foi formado de acordo com as iniciais das instituições que ajudaram a desenvolvê-lo: MIT, Penn e o Social Science Research Council (SSRC) ou, em português, Conselho de Pesquisa em Ciências Sociais. Mais do que meros testes, tais modelos foram criados com a finalidade de ajudar os formuladoresde políticas públicas. MIT Massachusetts Institute of Technology, um importante instituto de tecnologia nos Estados Unidos. 1 Herman Wold foi um nos nomes por trás das críticas às técnicas simultâneas desses grandes modelos, defendendo, em vez disso, sistemas recursivos ou, pelo menos, blocos recursivos, que exigiriam uma análise mais cuidadosa das técnicas de séries temporais. 2 javascript:void(0) Nesses sistemas, modela-se de maneira explícita o impacto atual de uma variável sobre o comportamento dela no futuro. Antigo analista de dados responsável por conduzir vários estudos empíricos pioneiros de demanda, Richard Stone foi igualmente crítico desses modelos, assim como Oskar Morgenstern. 3 Uma ponderação mais ampla, no entanto, foi levantada por Lord Robbins, que, seguindo os passos dos austríacos, criticou a verificação empírica de teorias a partir de fundamentos metodológicos. 4 Por fim, foi Robert Lucas quem, na década de 1970, apresentou a crítica mais famosa ao argumentar que os parâmetros estruturais dos modelos de grande escala, principalmente quando utilizados para políticas, eram supostos constantes e, portanto, não atendiam às proposições do que então estava se tornando a nova teoria macroeconômica dominante. A partir de uma série de outros artigos, Lucas delineou uma nova metodologia econométrica: A macroeconometria de séries temporais, que se tornou o padrão nos livros-texto de economia no final do século XX, é simplesmente um conjunto de técnicas para lidar com os problemas econométricos específicos das séries temporais tipicamente usadas na macroeconomia (mas não apenas nela). DESENVOLVIMENTO ECONÔMICO PARA ALGUMAS PESSOAS: O estudo do desenvolvimento econômico, isto é, a análise do progresso econômico das nações, deveria ser o foco da economia. De fato, qual era o propósito de Adam Smith senão o de descobrir a "natureza e as causas" do desenvolvimento econômico? PARA OS ECONOMISTAS MAIS MODERNOS: A categoria de desenvolvimento econômico é um pouco mais inquietante; afinal, ela sempre foi um campo independente, escondido em algum lugar nos bastidores, sem ser, de fato, considerada economia real, e sim uma combinação de sociologia, antropologia, história, política e, com muita frequência, ideologia. É possível dizer que, entre os maiores economistas, poucos foram aqueles que realmente ignoraram por completo esse campo de estudo. Adam Smith e (possivelmente) toda a escola clássica preocuparam-se mais em entender o que passaria a ser denominado desenvolvimento econômico. 1911 O primeiro livro famoso de Schumpeter recebeu o título Teoria do desenvolvimento econômico. A escola histórica alemã, assim como suas correspondentes versões inglesa e americana, poderiam muito bem ser consideradas parte da economia do desenvolvimento. Pode-se dizer então que toda a teoria do crescimento econômico esteja, de certa forma, voltada ou mesmo inclusa nesse ramo de estudo. No entanto, o "desenvolvimento econômico", na forma como é entendido hoje em dia, só surgiu realmente na década de 1930. Estimulados pelos estudos quantitativos de Colin Clark, alguns economistas passaram a dar mais atenção ao fato de que a maior parte da humanidade não vivia em um sistema econômico capitalista avançado. 1930 A grande preocupação inicial, contudo, ainda se restringia ao continente europeu e, de forma mais específica, a outras questões, como, por exemplo, a reconstrução europeia no pós- guerra e a industrialização de suas margens orientais. Foi apenas algum tempo depois da Segunda Guerra Mundial que os economistas realmente começaram a direcionar suas preocupações para a Ásia, a África e a América Latina, tendo a descolonização sido um importante estímulo para tal. Com uma nova abundância de nações cujos padrões de vida e instituições eram tão diferentes da europeia, a moderna teoria do desenvolvimento — vista aqui como uma análise não só do crescimento, mas também das instituições que poderiam o induzir, sustentar e acelerar — estabeleceu-se de forma séria. SAIBA MAIS Bert Hoselitz, Simon Kuznets, W. Arthur Lewis e Hla Myint foram os primeiros economistas que começaram a analisar o desenvolvimento econômico como um assunto autônomo. A criação das Nações Unidas no pós-guerra e de órgãos concomitantes, como o Banco Mundial, o Fundo Monetário Internacional, a Organização Internacional do Trabalho, além das várias comissões regionais, revelou-se outro impulso importante nessa questão. A encomenda de vários estudos por essas instituições gerou o surgimento de uma vertente não acadêmica da teoria do desenvolvimento – ainda que ela seja mais aplicada – na busca de soluções. DESENVOLVIMENTO COMO CRESCIMENTO E FORMAÇÃO DE CAPITAL No começo, a teoria do desenvolvimento econômico era apenas uma extensão da teoria econômica tradicional, que igualava o desenvolvimento a crescimento e industrialização. Por conta disso, países latino-americanos, asiáticos e africanos eram predominantemente vistos como subdesenvolvidos, ou seja, versões "primitivas" das nações europeias, que poderiam, com o tempo, "desenvolver" instituições e padrões de vida como os da Europa e da América do Norte. A ideia de uma teoria do estágio dominou, dessa forma, as discussões sobre o desenvolvimento econômico, ganhando espaço por meio das obras de Alexander Gerschenkron e, principalmente, de Walt W. Rostow. De acordo com as teorias dos estágios lineares, que já haviam sido levantadas anteriormente por historicistas alemães, todos os países tendem a passar pelos mesmos estágios históricos de desenvolvimento econômico. O que isso significa na prática? Os atuais países subdesenvolvidos estariam apenas em um estágio anterior nesse progresso histórico linear. As nações do Primeiro Mundo (europeias e norte-americanas) estariam em um estágio posterior. Hollis Chenery, Simon Kuznets e Irma Adelman estiveram por trás de outras tentativas mais esclarecidas de se chegar a uma definição empírica do conceito de "subdesenvolvimento". Eles chegaram à conclusão de que, ainda que não houvesse "estágios lineares" explícitos, os países tendiam a exibir padrões de desenvolvimento semelhantes, mesmo que algumas diferenças persistissem. De acordo com essa interpretação, a tarefa do economista do desenvolvimento era, portanto, sugerir "atalhos" por meio dos quais os países subdesenvolvidos pudessem "alcançar" os desenvolvidos, “pulando” alguns estágios. Ao igualar o desenvolvimento ao crescimento da produção, seus primeiros teóricos, incentivados pelas ideias de Ragnar Nurkse, identificaram a formação de capital como um componente crucial para acelerar o desenvolvimento. O famoso trabalho inicial sobre a "economia dual", de Sir W. Arthur Lewis, enfatizava exatamente o papel da poupança no desenvolvimento. Os primeiros keynesianos, como Kaldor e Robinson, tentaram chamar a atenção para a questão da distribuição de renda como um fator determinante da poupança e, portanto, do crescimento. Até mesmo marxistas modernos, como, por exemplo, Maurice Dobb, concentraram suas análises na questão da formação de poupança. Após assumir um papel central nessa discussão, a poupança acabou levantando naturalmente outra possibilidade. A de ser manipulada pela intervenção do governo. Algo que, aliás, já havia sido sugerido por Lewis e sustentado pelos keynesianos. Na verdade, antes disso, Rosenstein-Rodan já argumentara que os retornos crescentes de escala tornavam viável a industrialização dirigida pelo governo. A ideia de transformar círculos viciosos de baixa poupança e baixo crescimento em círculos virtuosos de alta poupança e alto crescimento por intermédio de intervenção governamental foi reiterada tanto por Hans W. Singer, em sua doutrina de crescimento equilibrado, quanto por Gunnar Myrdal, em sua teoria de causalidade cumulativa. Como resultado, o envolvimento do governo (seja por meio de planejamento, engenharia socioeconômica ou gestão efetiva da demanda)passou a ser considerado uma ferramenta crítica no desenvolvimento econômico. Contrariando essa visão, outros economistas apontavam o comércio internacional como o grande fomentador do crescimento. Hla Myint, Gottfried Haberler e Jacob Viner já haviam enfatizado esse argumento, estando em linha com a doutrina clássica de Adam Smith de que o comércio e a especialização seriam capazes de aumentar o "alcance do mercado". No início da década de 1930, no entanto, D. H. Robertson lançou dúvidas sobre essa relação, visão esta reiterada posteriormente por outros economistas, como, por exemplo, Ragnar Nurkse, H. W. Singer e Rául Prebisch. ASPECTOS SOCIAIS DO DESENVOLVIMENTO ECONÔMICO Apesar de a formação de capital nunca ter realmente saído de campo, o significado do termo mudou um pouco com o tempo. Baseado em sua famosa tese da escola de Chicago, T. W. Schultz afastou-se da ideia de acumulação de capital físico para enfatizar outra necessidade: a da formação de capital humano. A PARTIR DESSE NOVO CONCEITO, QUAL FOI A ÊNFASE DADA? QUE RESULTADO ELA OBTEVE? RESPOSTA 1 RESPOSTA 2 RESPOSTA 1 A grande ênfase passou a ser dada à educação e à qualificação como pré-requisitos para o crescimento. RESPOSTA 2 Como resultado, foi identificado um novo problema dado pela "fuga de cérebros" do Terceiro para o Primeiro Mundo (e, como seria enfatizado mais tarde, do setor privado para as burocracias governamentais). W. Arthur Lewis e Hans W. Singer expandiram a tese de Schultz ao argumentarem que: O desenvolvimento social como um todo — em especial, educação, saúde e fertilidade —, tendo sido alcançado pela melhora do capital humano, também constituía um pré-requisito necessário para o crescimento. Nessa visão, portanto, um processo de industrialização feito às custas do desenvolvimento social jamais poderia ser autossustentável. javascript:void(0) javascript:void(0) DUDLEY SEERS Foi apenas em 1969 que Dudley Seers finalmente quebrou o fetichismo do crescimento da teoria do desenvolvimento. Segundo Seers, ele era um fenômeno social que não se limitava a aumentar a produção per capita. Em sua visão, desenvolvimento significava eliminar também a pobreza, o desemprego e a desigualdade. OUTROS ECONOMISTAS Nessa linha de pensamento, Singer, Myrdal e Adelman estiveram entre os primeiros veteranos a reconhecer a validade da denúncia de Seers. Muitos economistas mais jovens, como, por exemplo, Mahbub ul Haq, foram estimulados pelo apelo dele para redefinir o desenvolvimento econômico. Desse modo, as questões estruturais, como, por exemplo, dualismo, crescimento populacional, desigualdade, urbanização, transformação agrícola, educação, saúde, desemprego e muitas outras, passaram a ser revistas por seus próprios valores, e não apenas como apêndices de uma teoria geral do crescimento. OBRA DE CHAYANOV E O DEBATE SOBRE CRESCIMENTO Cabe destacar aqui o ressurgimento da obra de Chayanov sobre as estruturas únicas presentes nas economias camponesas. Também emergiu, nessa época, um debate acerca do grande apetite pelo crescimento. E. F. Schumacher estava entre os que se manifestaram contrários ao forte interesse por industrialização, exaltando os méritos das economias artesanais. Esse debate teve uma nova guinada à medida que a crise ambiental mundial se tornou mais clara na década de 1980. Com a própria sustentabilidade do desenvolvimento econômico sendo questionada, ficou claro que o grande interesse pelo desenvolvimento precisava ser reconsiderado. ESTRUTURALISMO E SEUS DESCONTENTA MENTOS Antes mesmo de Seers apontar a importância das questões estruturais na teoria do crescimento, muitos economistas já se sentiam extremamente desconfortáveis com as primeiras teorias do desenvolvimento e as suposições implícitas trazidas pelo raciocínio em "estágios". Com isso, uma ideia relativamente nova começava a surgir: o chamado "estruturalismo". TESE "ESTRUTURALISTA": Basicamente, esta tese chamava atenção para os diferentes problemas estruturais vividos por países do Terceiro Mundo. Para os estruturalistas, os países subdesenvolvidos não eram meramente "versões primitivas" dos países desenvolvidos, e sim nações com características próprias. Estruturalistas antigos Como vimos anteriormente, Chenery já havia defendido uma tese parecida, embora ele se concentrasse nas semelhanças observadas em diferentes experiências de desenvolvimento. Estruturalistas mais novos Indo na direção contrária, eles chamavam a atenção para as diferenças entre as experiências de desenvolvimento. Albert O. Hirschmann foi um dos primeiros a enfatizar a necessidade de uma análise do desenvolvimento específica para cada país, viés posteriormente reforçado por Dudley Seers. Um exemplo dessas características distintas estava no fato de que, ao contrário da industrialização europeia, aquela realizada no Terceiro Mundo teve de ocorrer paralelamente à seguinte realidade: o fato de essas nações mais pobres estarem ligadas pelo comércio a países ocidentais já industrializados. Para alguns teóricos do desenvolvimento, essa questão poderia dar origem a problemas estruturais diferentes para o desenvolvimento de cada país. De forma paralela à de H. W. Singer, Raúl Prebisch, um economista da Comissão das Nações Unidas para a América Latina, formulou a famosa teoria da "dependência" do desenvolvimento econômico. Segundo sua teoria, Prebisch: 1 Argumentava que o mundo se desenvolveu na direção de uma relação "centro-periferia" entre as nações, tendo o Terceiro Mundo regredido a fim de tornar-se o produtor de matérias- primas para fabricantes de primeiro. Desse modo, eles foram condenados a um papel periférico e dependente na economia mundial. 2 Assim, Prebisch concluiu que algum grau de protecionismo no comércio seria uma condição necessária para que esses países encontrassem um caminho de desenvolvimento autossustentável. Com isso, uma estratégia ideal seria a substituição de importações por meio de políticas de proteção adotadas pelo governo, e não uma orientação para o comércio e a exportação. 3 Exemplos históricos de industrialização dirigidos pelo governo, como o Japão na Era Meiji e a Rússia soviética, foram apresentados como uma prova de que não havia apenas um caminho único para o desenvolvimento, algo sugerido até então pelas teorias mais primitivas dos "estágios". Essa tese de Prebisch e Singer teve grande repercussão particularmente entre os pensadores marxistas, que reconheceram nela argumentos imperialistas como os de Rosa Luxemburgo e Vladimir Lenin. Rompendo com pensadores marxistas ortodoxos obcecados por poupança, alguns neomarxistas, como Paul Baran, Paul Sweezy, A. G. Frank e Samir Amin, fundiram a tese de Prebisch-Singer com a de Luxemburgo, adaptando-a para a era moderna. Muitos governos do Terceiro Mundo passaram a adotar a linguagem e as políticas dos estruturalistas (e/ou neomarxistas) durante as décadas de 1960 e 1970, revelando a grande influência do movimento estruturalista. O neocolonialismo e relação centro-periferia tornaram-se as palavras-chave da época. NEOCOLONIALISMO Estrutura econômica que repetiria, em essência, o modelo colonial frequente entre as potências europeias e os demais países do mundo (especialmente na Ásia e na África) até meados do século XX. javascript:void(0) javascript:void(0) CENTRO-PERIFERIA Relação de dependência econômica entre países pobres (periferia) e ricos (centro). No entanto, à medida que o tempo passava, essas políticas não pareciam produzir seus frutos prometidos. Iniciado por P. T. Bauer, I. M. D. Little, Deepak Lal, Bela Balassa, Anne Krueger e Harry G. Johnson, um contramovimento neoclássico (ou, mais precisamente, neoliberal) começou a ganhar mais adeptos. TESE NEOLIBERAL A tese neoliberal, de forma simples e direta, apontava que a intervenção governamental não só não melhorou o desenvolvimento, como também o frustrou. Segundo os neoliberais, o surgimento de enormes burocracias e regulamentaçõesestatais sufocava o investimento privado e distorcia os preços, tornando as economias em desenvolvimento extraordinariamente ineficientes. Nessa teoria, os males do crescimento desequilibrado e da dependência podiam ser inteiramente atribuídos ao excesso de controle governamental. A tese neoliberal ganhou ainda mais adesão nos últimos anos, principalmente na América Latina. Apesar disso, suas evidências ainda são contraditórias e contestáveis. IMPERIALISMO ECONÔMICO Este vídeo explicará o que significa o imperialismo econômico. VERIFICANDO O APRENDIZADO MÓDULO 2 Descrever a evolução das escolas de pensamento econômico teóricas TEORIA FINANCEIRA A teoria financeira tem uma história surpreendentemente curta na economia. As primeiras ideias sobre mercados financeiros eram, em grande medida, apenas intuitivas, sendo formuladas principalmente por profissionais da área. Apesar de conhecerem há bastante tempo as funções econômicas básicas dos mercados de crédito, os economistas não tinham grande interesse em aprofundar sua análise acerca desse tópico. TEORIA DO PORTFÓLIO Os primeiros trabalhos teóricos sobre mercados financeiros, em especial o de Louis Bachelier, foram praticamente ignorados tanto por teóricos quanto por profissionais. Isso não significa, no entanto, que economistas pioneiros tenham deixado de lado os mercados financeiros. Henry C. Emery e Irving Fisher já haviam delineado as funções básicas dos mercados de crédito para a atividade econômica, estabelecendo-os particularmente como uma forma de alocar recursos ao longo do tempo. Ambos reconheciam o papel do risco e a importância da atividade especulativa para a canalização de informações via preços. Ao desenvolver suas teorias monetárias, John Maynard Keynes, John Hicks, Nicholas Kaldor e Jacob Marschak já haviam elaborado a teoria de seleção de portfólio, segundo a qual a incerteza desempenhava um papel fundamental. Para diversos economistas, no entanto, os mercados financeiros, em sua fase inicial, ainda eram considerados meros "cassinos" em vez de "mercados" propriamente ditos. Nessa linha, os preços dos ativos eram determinados em grande parte por expectativas e contraexpectativas de ganhos de capital, sendo, portanto, "sustentados pelos próprios recursos". Isso explica a grande quantidade de tinta gasta no debate sobre a atividade especulativa, isto é, a prática de compra e venda temporária de bens ou ativos para a revenda posterior. Esse tópico foi levantado pela primeira vez em uma discussão robusta feita por Henry C. Emery. Analisaremos agora a linha de pensamento de alguns economistas: JOHN MAYNARD KEYNES E JOHN HICKS Posteriormente, em um trabalho pioneiro sobre os mercados de futuros, John Maynard Keynes e John Hicks argumentaram que o preço de um contrato futuro para a entrega de uma mercadoria tende a estar, em geral, abaixo do preço à vista esperado para ela, fenômeno que Keynes chamou "retrocesso normal". Keynes e Hicks argumentavam que isso ocorria porque, em grande medida, os negociadores de ativos transferiam o risco para os especuladores, que recebiam por isso uma espécie de recompensa. Conhecida como prêmio de risco, ela seria justamente a diferença de rentabilidade entre um ativo de maior risco e outro mais seguro. NICHOLAS KALDOR Ele passou a analisar tal questão a fim de saber se a especulação tinha sucesso em estabilizar os preços. A fazer isso, Kaldor expandiu consideravelmente a teoria da preferência pela liquidez de Keynes. HOLBROOK WORKING Anos mais tarde, ele contestou essa visão, argumentando que não havia, de fato, nenhuma diferença entre as motivações de hedgers e especuladores. Essa discussão deu origem a uma breve corrida empírica: Hendrik Houthakker encontrava evidências a favor do retrocesso normal, enquanto Lester Telser obtinha as que lhe eram contrárias. JOHN BURR WILLIAMS Foi um dos primeiros a desafiar a visão de "cassino" que os economistas tinham dos mercados financeiros, assim como outras questões sobre a precificação de ativos. Williams acreditava que os preços dos ativos financeiros refletiam o valor intrínseco de um ativo, que pode ser medido pelo fluxo descontado, isto é, pelo valor presente de futuros dividendos esperados desse ativo. VALOR PRESENTE DE FUTUROS DIVIDENDOS Se você ainda não estudou valor presente, basta pensar nisto: somamos todos os dividendos que esperamos receber de determinado ativo ao longo do tempo, dando um menor peso àqueles mais distantes no futuro Essa noção "fundamentalista" também se alinhava à teoria de Irving Fisher e à abordagem de "investimento de valor" de alguns profissionais do mercado financeiro, como, por exemplo, Benjamin Graham. HARRY MARKOWITZ Dando continuidade à ideia de Williams, Markowitz percebeu que, como a noção fundamentalista dependia de expectativas sobre o futuro, o elemento “risco” não deveria ser ignorado. Portanto, cabia utilizar a recém-desenvolvida teoria da utilidade esperada de John von Neumann e Oskar Morgenstern. TEORIA DA UTILIDADE ESPERADA Esta é simplesmente a teoria de escolha sob incerteza da microeconomia. Se você ainda não estudou isso, imagine que os agentes econômicos avaliem custos e benefícios de uma escolha, dando mais peso às consequências prováveis e menos às improváveis. Voltaremos a esse ponto ainda neste módulo! Markowitz formulou a teoria da seleção de portfólio ideal no contexto de uma compensação (trade-offs) entre risco e retorno, concentrando-se na ideia da diversificação de portfólio javascript:void(0) javascript:void(0) como um método de redução de risco. Nascia, assim, a conhecida teoria moderna de portfólio. A ideia de uma alocação ótima de portfólio, no entanto, já havia sido considerada por Keynes, Hicks e Kaldor em suas teorias monetárias. Dessa forma, foi um passo lógico para James Tobin adicionar moeda à teoria de Markowitz, o que resultou no famoso teorema da separação de Tobin. O que argumentava o teorema de Tobin? Segundo Tobin, os agentes diversificariam suas poupanças entre um ativo sem risco (moeda) e um portfólio único com ativos de risco (idêntico para todos). Diferentes níveis de aceitação de risco, ele afirmava, resultariam apenas em combinações distintas desses dois componentes. Ainda assim, a praticidade da teoria de Markowitz-Tobin não era muito clara, especialmente no que tange ao método de estimação dos benefícios obtidos a partir da diversificação. Para mensurar tais ganhos, seria necessário que os especialistas financeiros calculassem a covariância dos retornos entre cada par de ativos. COVARIÂNCIA DOS RETORNOS ENTRE CADA PAR DE ATIVOS Se dois ativos costumam se valorizar juntos, eles têm uma covariância positiva. É o que ocorre, por exemplo, com o preço do barril do petróleo e o valor das ações de empresas exploradoras desse combustível: ambos costumam subir ao mesmo tempo. Caso contrário, fala-se em javascript:void(0) covariância negativa. São exemplos disso o preço do barril do petróleo e o valor das ações de empresas que precisam comprá-lo, como uma frota de ônibus. Em seu modelo de precificação de ativos de capital, William Sharpe e John Lintner resolveram essa dificuldade prática demonstrando que era possível obter o mesmo resultado. Para isso, bastava calcular a covariância de cada ativo em relação a um índice geral de mercado. Essa solução reduziu, enfim, o poder de cálculo necessário para mensurar os termos de interesse, fazendo com que a seleção de portfólio ideal se tornasse computacionalmente viável. Não demorou muito para que o CAPM fosse amplamente adotado pelos especialistas financeiros. Ainda assim, esse modelo enfrentou resistência e foi desafiado empiricamente por uma série de artigos de Richard Roll. As alternativas oferecidas foram: CAPM INTERTEMPORAL Robert Merton avaliou como a precificação de ativos é afetada pela busca dos investidores de proteção contra riscos. Essa nova abordagem de Merton e a suposição de expectativas racionais conduziramà equação diferencial parcial de Cox, Ingersoll e Ross para os preços de ativos e, um passo à frente, à teoria de precificação de ativos de Robert E. Lucas. TEORIA DE PRECIFICAÇÃO POR ARBITRAGEM Esta teoria foi elaborada por Stephen A. Ross. Em sua abordagem, ele afastou-se da lógica risco versus retorno presente no CAPM, explorando, em vez disso, a noção de "precificação por arbitragem" de todas as formas possíveis. Flexibilizando as premissas originais com o objetivo de inserir no modelo variáveis macroeconômicas que também sejam capazes de explicar o retorno dos ativos, a teoria de precificação por arbitragem evidencia que esse retorno pode depender de outros fatores além do risco de mercado. Como observado por Ross, o raciocínio teórico da arbitragem não é um aspecto exclusivo de sua teoria, mas, na verdade, a base lógica e metodológica de praticamente toda a teoria financeira. Posteriormente, esse viés de Ross foi ilustrado por famosos teoremas financeiros. A conhecida teoria de precificação de opções de Fisher Black, Myron Scholes e Robert Merton baseava-se extensamente no uso do raciocínio de arbitragem. Intuitivamente, se os retornos de determinada opção podem ser replicados por uma carteira de outros ativos, então o valor dessa opção deve ser igual ao da carteira em questão — caso contrário, pode-se dizer que existem oportunidades de arbitragem. OPÇÕES Se você ainda não estudou as opções ou os derivativos financeiros, pense no seguinte exemplo: eu posso ser o dono de ações da Petrobras. Além disso, posso ter em mãos um contrato que me dê o direito de comprar as ações dessa companhia a determinado preço numa certa data. Esse contrato, em suma, constitui uma opção de compra. A lógica da arbitragem também foi usada por M. Harrison, David M. Kreps, Darrell J. Duffie e Chi-Fu Huang para avaliar títulos de vários períodos (isto é, "de longa duração"). Todos esses desdobramentos culminaram nas teorias neowalrasianas de equilíbrio geral com mercados de ativos (completos e incompletos) desenvolvidas por Roy Radner, Oliver D. Hart e muitos outros desde então. Este é simplesmente o modelo de equilíbrio geral da microeconomia ampliado para permitir que os indivíduos escolham seus níveis de consumo em diferentes contingências. Para isso, javascript:void(0) modela-se explicitamente o mercado de ativos, o qual, por sua vez, permite a transferência de recursos para contingências distintas. Um exemplo clássico disso é a compra de um seguro: Um seguro contra roubo de automóveis transfere recursos de uma situação em que eu não tenho o carro roubado para outra em que ele o foi (sem o seguro, meus recursos seriam significativamente menores no cenário de roubo). Esta versão do modelo permite o cálculo dos preços de bens e serviços em diferentes contingências, além daqueles relativos aos próprios ativos (como o pagamento pelo seguro do automóvel). Desenvolvido por Franco Modigliani e Merton H. Miller, o famoso teorema Modigliani-Miller (ou MM) sobre a irrelevância da estrutura financeira corporativa para o valor de mercado de uma empresa também emprega a lógica da arbitragem. Segundo esse teorema, seja qual for a proporção em relação aos recursos (próprios ou de terceiros) que financiam uma empresa, suas ações não teriam seu valor modificado desde que a distribuição de fluxo de caixa fosse mantida. O famoso teorema MM pode ser visto como uma extensão do teorema da separação originalmente desenvolvido por Irving Fisher. Basicamente, Fisher argumentava que, com mercados de capital plenos e eficientes, a decisão sobre a produção de uma empresa deveria ocorrer independentemente daquela relativa ao consumo intertemporal de seu empresário proprietário. Isso significa dizer que o plano de produção para maximizar o lucro da empresa não pode ser afetado pelas preferências de seus proprietários e, em especial, por suas decisões de empréstimo. Em outras palavras, o plano de produção é independente da decisão de financiamento. Modigliani-Miller estendeu essa proposição por meio da lógica da arbitragem. Considerando as empresas como ativos, caso os planos de produção de empresas com diferentes formas de financiamento sejam idênticos, o valor de mercado delas deverá ser o mesmo; caso contrário, o que haverá é uma oportunidade de arbitragem para ser tomada. A arbitragem determina, portanto, que o valor das firmas seja igual independentemente da composição de sua estrutura financeira. HIPÓTESE DE MERCADOS EFICIENTES A segunda corrente de trabalho a ter ganhado destaque na discussão financeira foi a análise empírica dos preços de ativos. Uma descoberta particularmente surpreendente foi a de que tais preços tendiam a seguir um caminho aleatório, pois parecia não haver correlação evidente entre as mudanças sucessivas de preços nos mercados de ativos. Essa tendência já havia sido documentada mais especificamente por Louis Bachelier para os preços de commodities, sendo confirmada mais tarde por estudos de Holbrook Working para uma variedade de séries de preços. Alfred Cowles também encontrou evidências de aleatoriedade para os preços de ações americanas, enquanto Maurice G. Kendall obteve o mesmo em relação às britânicas e aos preços de commodities. As descobertas empíricas de Working-Cowles-Kendall foram recebidas com aversão e descrença por diversos economistas. De acordo com a concepção clássica de que os preços são determinados pelas "forças de oferta e demanda", pode-se concluir, portanto, que as mudanças deles devem mover-se em uma direção específica e necessária para o equilíbrio de mercado – e não aleatoriamente. O descontentamento com os resultados empíricos que apontavam uma tendência aleatória para o preço de ativos não foi, contudo, unânime. Vejamos o que alguns economistas achavam dessa questão: 1 Muitos viram esses resultados como uma prova de que a teoria "fundamentalista" estava incorreta, isto é, que os mercados financeiros eram realmente "cassinos selvagens" e que as finanças não deveriam ser um objeto legítimo de preocupação econômica. 2 Outros afirmaram ainda que isso provava o fracasso dos métodos "estatísticos" tradicionais em explicar quase tudo. Mesmo usando métodos rigorosos de séries temporais, Clive Grangerand, Oskar Morgenstern e Eugene F. Fama chegaram ao mesmo resultado de aleatoriedade. O grande avanço dessa discussão deve-se, no entanto, a Paul A. Samuelson e Benoit Mandelbrot. Longe de provar que os mercados financeiros não funcionavam de acordo com as leis da economia, Samuelson interpretou as descobertas de Working-Cowles-Kendall como indícios de que, na verdade, essas leis funcionavam muito bem. A noção básica era bastante simples: se as mudanças de preço não fossem aleatórias (isto é, se fossem previsíveis), então qualquer pessoa em busca de lucro e capaz de fazer arbitragem poderia, de maneira fácil e conveniente, comprar e vender ativos para explorar isso. Tendo isso em vista, Samuelson e Mandelbrot postularam a renomada hipótese de mercados eficientes. De acordo com essa hipótese, se os mercados estiverem funcionando adequadamente, todas as informações públicas (e, em alguns casos, privadas) sobre um ativo serão canalizadas imediatamente para o seu preço. INFORMAÇÕES PÚBLICAS Informações disponíveis para todos os participantes de um mercado. OBSERVAÇÃO Notemos que o termo "eficiente" se refere apenas à ideia de que os agentes fazem pleno uso das informações disponíveis, não dizendo nada sobre outros tipos de "eficiência econômica", javascript:void(0) javascript:void(0) javascript:void(0) javascript:void(0) como aquela relativa à alocação de recursos produtivos. Qual é a conclusão dessa teoria? Se as mudanças de preços parecem aleatórias, sendo imprevisíveis, isso é porque os investidores estão fazendo seu trabalho, ou seja, todas as oportunidades de arbitragem já foram exploradas na medida do possível. A HME ficou famosa com Eugene Fama, tendo sido, mais tarde, conectadaà hipótese das expectativas racionais (ideia básica da escola macroeconômica conhecida como novo- clássica). Apesar disso, ela não agradou muitos profissionais do mercado financeiro. Aqueles traders que acreditavam poder prever os preços dos ativos examinando os padrões dos movimentos dos preços ficaram confusos. A HME lhes dizia que não era possível "vencer o mercado", ou seja, obter resultado melhor que a média dos operadores de um mercado, pois qualquer informação disponível já estava incorporada ao preço. Outros especialistas financeiros fundamentalistas também se sentiram incomodados. A ideia de mercados eficientes depende de "informações" e "crenças". Assim, ela teoricamente não exclui a possibilidade de bolhas especulativas baseadas em boatos, possíveis informações erradas e a "loucura das multidões". javascript:void(0) BOLHAS ESPECULATIVAS Valorização de ativos sem fundamento real. As pessoas compram um ativo simplesmente pela expectativa de poder revendê-lo a um preço maior. A resistência à hipótese de mercados eficientes, no entanto, não se limitou apenas aos profissionais financeiros: ela acabou não agradando também aos economistas. Embora seja provavelmente uma das proposições empíricas mais resistentes, a HME não parece ter um posicionamento teórico claramente sólido. Afinal, tudo parece desmoronar com uma incoerência em particular: Se todas as informações já estão contidas nos preços dos ativos e os investidores são totalmente racionais, então não apenas é impossível lucrar com o uso de suas informações, como, na verdade, não pode haver qualquer compra ou venda deles! Intuitivamente, essa contradição pode ser simplificada da seguinte forma: A hipótese dos mercados eficientes significa, na prática, que não existe "almoço grátis", isto é, não há notas de R$ 100 no chão, porque, se houvesse, alguém já as teria pegado. Logo, não vale a pena olhar o chão, principalmente se houver um custo para tal. Porém, se todos raciocinarem dessa maneira e ninguém olhar a calçada, toda e qualquer nota de R$ 100 que possa estar ali não será encontrada por ninguém. Desse modo, agora há motivos para se olhar para baixo. Se todos perceberem isso, no entanto, todos olharão para baixo e pegarão as notas de R$ 100. Com isso, voltamos ao estágio inicial: não há nenhuma nota nem adianta olhar para baixo. Tais implicações peculiares e contraditórias das expectativas racionais foram demonstradas por Sanford J. Grossman, Joseph E. Stiglitz, Paul Milgrom e Nancy Stokey. A circularidade do raciocínio, como descrita anteriormente, é o que torna os fundamentos teóricos da hipótese de mercados eficientes um tanto duvidosos. TEORIA DOS JOGOS Com seu surgimento relativamente recente, a teoria dos jogos desafiou de forma expressiva o método convencional de análise da economia. Embora muitos antecessores ilustres tenham trabalhado com problemas possivelmente relacionados à "teoria dos jogos", sua concepção formal como parte integrante da teoria econômica foi organizada, pela primeira vez, por John von Neumann e Oskar Morgenstern. COMPORTAMENTO ESTRATÉGICO Diferentemente das demais teorias de decisão, a teoria dos jogos leva em conta as situações em que, em vez de os agentes tomarem decisões como reações a preços exógenos (variáveis mortas), elas serão reações estratégicas àquelas realizadas por outros agentes (variáveis vivas). Um agente depara-se com um conjunto de possíveis movimentos que ele pode “jogar” e, assim, formar sua estratégia (definida aqui como o plano de ação capaz de fornecer a melhor resposta ao seu ambiente). As estratégias podem ser classificadas como: "Puras" Jogar um movimento específico. "Mistas" Atribuir probabilidades a diferentes ações possíveis. É possível ainda dividir a teoria dos jogos em duas grandes áreas: Jogos não cooperativos ou estratégicos. Jogos cooperativos ou coalizões. Apesar de o significado desses termos ser bastante intuitivo, John Nash considerava ser possível reduzir todos os jogos cooperativos a alguma forma não cooperativa (voltaremos a falar de Nash mais à frente). JOHN NASH Este matemático norte-americano foi um vencedor do Prêmio Nobel de Economia. Na literatura não cooperativa, outra distinção também pode ser feita entre os jogos estáticos, cujas decisões de diferentes jogadores são feitas de forma simultânea, e os dinâmicos, nos quais elas são sequenciais. John von Neumann e Oskar Morgenstern foram os responsáveis por introduzir todos esses conceitos, assim como o pressuposto da teoria da utilidade esperada. Ele é extremamente útil para a economia sob condições de incerteza e a estratégia “maximin”. TEORIA DA UTILIDADE ESPERADA ESTRATÉGIA “MAXIMIN” TEORIA DA UTILIDADE ESPERADA A principal hipótese por trás desta teoria é a de que a racionalidade dos agentes pode ser modelada pela assumpção de que eles sempre buscam maximizar um valor esperado de utilidade de acordo com suas preferências. Dessa forma, o agente maximizador toma sua decisão considerando a combinação de todas as diferentes possibilidades de recompensa (“payoffs”), assim como suas respectivas probabilidades. javascript:void(0) ESTRATÉGIA “MAXIMIN” Derivado anteriormente por John von Neumann, o conceito de estratégia “maximin” é empregado para resolver simples jogos estáticos de soma zero, em que o ganho obtido por um jogador é equivalente à perda sofrida por outro. A ideia por trás dessa estratégia é a de que os agentes tomam suas decisões considerando a possibilidade de extrair o melhor resultado possível e supondo que todos os demais jogadores possam prejudicá-lo. Sabendo que todas as decisões envolvem ganhos e perdas, uma estratégia maximin é aquela que busca uma decisão capaz de produzir a menor perda. EQUILÍBRIO DE NASH Apesar da extensa e importante contribuição de John von Neumann e Oskar Morgenstern, foi John Nash quem introduziu, em 1950, o conceito central da teoria dos jogos conhecido como equilíbrio de Nash. Embora isso remetesse a ideias já apresentadas previamente por Cournot, foi só então que tal conceito se firmou. Como o equilíbrio de Nash pode ser alcançado? Um equilíbrio de Nash é alcançado quando as melhores respostas de todos os jogadores são compatíveis entre si, de forma que nenhum deles esteja melhor desviando-se unilateralmente de sua estratégia. A partir de então, o que se observou foi o refinamento do conceito de Equilíbrio de Nash. Uma ideia que assumiu grande importância nessa teoria foi o conceito de estratégias dominantes. Uma estratégia dominante será aquela considerada melhor do que qualquer outra disponível independentemente da que for escolhida pelos outros jogadores. Um clássico exemplo desse tipo de estratégia é o dilema do prisioneiro: Suponhamos que você e seu cúmplice tenham sido presos e acusados de cometer um crime. Após serem interrogados em salas separadas, a polícia oferece um acordo para ambos: aquele que confessar receberá um bônus na pena. Esse bônus, porém, depende da resposta dos dois. Se você confessar o crime e seu parceiro negar, ele pegará a pena completa (cinco anos de cadeia), enquanto você ficará livre. Se ele o confessar em vez de você, contudo, será você quem pegará a pena completa, enquanto seu cúmplice estará livre. Caso ambos confessem o crime, os dois serão presos, mas com uma pena de apenas dois anos de prisão para cada, considerando-se o bônus da confissão. Caso os dois neguem o crime, não haverá evidência suficiente; assim, ambos receberão uma pena mais branda de apenas um ano cada. Observando o quadro a seguir, verificamos que, racionalmente, a melhor decisão que você pode tomar – independentemente do que seu parceiro faça – é confessar o crime. Desse modo, você sempre terá um resultado melhor. Por constituir a melhor escolha independentemente do que o outro fizer, esta é considerada uma estratégia dominante. Você Negar Confessar Parceiro Negar 1 ano1 ano 5 anoslivre Confessar livre5 anos 2 anos2 anos Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal QUAL É O RESULTADO? Os dois prisioneiros confessam o crime. Contudo, isso não é o ideal do ponto de vista agregado: para minimizar o total de anos na cadeia, ambos deveriam negá-lo. Ou seja, o equilíbrio de Nash (previsão que a teoria faz para o resultado dessa interação estratégica) não precisa maximizar o bem-estar agregado dos jogadores. Essa observação mostrou-se bastante útil no estudo de diversas áreas da economia, desde o comércio internacional até a busca por inovações, passando pelo comportamento de empresas e pela regulação econômica. No campo dos jogos não cooperativos, R. Duncan Luce e Howard Raiffa forneceram o primeiro livro popular de teoria dos jogos. Ambos introduziram nele o conceito de jogos repetidos, isto é, jogos estáticos que são jogados diversas vezes. Além disso, seus autores formalizaram o método de eliminação recursiva de estratégias dominadas. Uma estratégia é considerada: ESTRITAMENTE DOMINADA Quando existe outra capaz de sempre gerar um resultado melhor independentemente da estratégia escolhida pelo outro jogador. FRACAMENTE DOMINADA Quando há outra capaz de sempre gerar resultado melhor ou igual independentemente da estratégia escolhida pelo outro jogador. Como consideramos que os jogadores são racionais e buscam maximizar seus payoffs, isso implica dizer que as estratégias estritamente dominadas nunca são jogadas e podem, portanto, ser eliminadas. H. W. KUHN Introduziu jogos dinâmicos com "informação imperfeita", ou seja, quando os jogadores não conhecem todos os movimentos executados previamente por todos os outros jogadores. javascript:void(0) javascript:void(0) WILLIAM VICKREY Forneceu a primeira formalização dos "leilões", uma das principais aplicações da teoria dos jogos. Tendo em vista que eles envolvem participantes fazendo ofertas em busca de uma aquisição na qual o vencedor seja determinado pela melhor oferta, sempre constituirá uma estratégia dominante dar um lance igual ao valor que o participante atribui ao bem em questão. Em outras palavras, um lance acima ou abaixo do quanto o participante valoriza o bem sempre gerará um payoff pior. A teoria de leilões é, hoje em dia, central no estudo de diversas formas de alocação de recursos, como, por exemplo, compras governamentais por meio de licitações. REINHARD SELTEN Desenvolveu o conceito de um equilíbrio perfeito em subjogos, uma versão mais elaborada do equilíbrio de Nash que é empregada em jogos dinâmicos. Considerando que um jogo dinâmico finito é formado por subjogos, identifica-se o equilíbrio perfeito a partir de uma estratégia capaz de promover o equilíbrio de Nash para todo o jogo e para cada um dos seus subjogos. Desse modo, impõe-se um requerimento de equilíbrio para todas as etapas do jogo, evitando que sejam feitas previsões para o resultado baseadas em “ameaças não críveis”, ou seja, aquelas que o próprio jogador não gostaria de jogar se tivesse a oportunidade. EXEMPLO No clássico “jogo da entrada”, o mercado tem uma firma incumbente e monopolista que obtém um lucro alto. Um concorrente potencial decide se vai entrar ou não nele. Se ficar de fora, terá um lucro zero. Se entrar, a incumbente decidirá se fará guerra de preços ou não. Se a fizer, ambas terão prejuízo. Se não fizer essa guerra e acomodar a entrada, as duas obterão lucros moderados. Notemos que, no exemplo citado, há dois equilíbrios de Nash PRIMEIRO EQUILÍBRIO SEGUNDO EQUILÍBRIO PRIMEIRO EQUILÍBRIO O competidor potencial fica de fora, enquanto a incumbente ameaça fazer uma guerra de preços em caso de entrada: isto é um equilíbrio, pois, dada a estratégia do outro jogador, ninguém tem incentivo a mudar unilateralmente sua escolha. SEGUNDO EQUILÍBRIO O competidor entra no mercado, enquanto a incumbente acomoda a entrada: novamente, não ocorre incentivo unilateral a uma mudança de estratégia. O primeiro equilíbrio, porém, não parece uma boa previsão para o resultado do jogo: Este equilíbrio é baseado em uma estratégia da firma incumbente (“fazer guerra de preços em caso de entrada da concorrente”) que ela mesma não gostaria de implementar em caso de entrada! Afinal, é melhor acomodar e obter um lucro moderado do que fazer guerra e ter prejuízo. O competidor, aliás, pode ser capaz de antecipar isso. O conceito de equilíbrio de Nash perfeito em subjogos descarta, portanto, esse equilíbrio. Desse modo, ele considera apenas aqueles equilíbrios cujos jogadores gostariam de implementar em cada etapa do jogo. EQUILÍBRIO DE NASH BAYESIANO John C. Harsanyi apresentou o conceito de um equilíbrio de Nash Bayesiano para jogos bayesianos, isto é, aqueles nos quais seus jogadores têm uma informação incompleta sobre os outros (como seus movimentos disponíveis e respectivos payoffs). Dada a incerteza presente nos jogos dessa natureza, o equilíbrio de Nash Bayesiano é encontrado considerando-se a distribuição de probabilidade de cada cenário. O que isso significa na prática? Imaginemos duas firmas que estejam competindo em um mercado. Cada uma delas pode ter uma: Tecnologia eficiente com custo baixo Tecnologia ineficiente e custo alto. Uma firma conhece a própria tecnologia, mas não a da rival, à qual atribui uma distribuição de probabilidade. Exemplo: “acho que meu competidor tem 50% de chance de contar com uma tecnologia eficiente”. Resolvemos esse tipo de jogo supondo que cada jogador, para cada tipo possível que possa haver, maximiza sua utilidade esperada mediante o uso da distribuição de probabilidade sobre o outro jogador. No nosso exemplo, é como se tivéssemos quatro jogadores: A FIRMA 1 EFICIENTE A FIRMA 1 INEFICIENTE A FIRMA 2 EFICIENTE A FIRMA 2 INEFICIENTE Naturalmente, isso é artificial, mas essa mecânica nos ajuda a obter previsões para jogos de informação incompleta. UM POUCO MAIS TARDE, A TEORIA DOS JOGOS EVOLUCIONÁRIOS COMEÇOU A SER DESENVOLVIDA. QUAL FOI O OBJETIVO DISSO? RESPOSTA RESPOSTA Seu objetivo era aplicar os conceitos da teoria dos jogos não cooperativos para a explicação de fenômenos que, muitas vezes, são considerados o resultado da cooperação ou do design humano. Ou seja, "instituições" e "convenções", como formação de mercado, mecanismos de preços, regras sociais de conduta, dinheiro e crédito etc. Essa modelagem considera explicitamente como a interação entre grupos humanos caminha ao longo do tempo, tendo vários pontos de contato com a teoria da evolução de Darwin. Um dos primeiros expoentes dessa ramificação da teoria dos jogos foi Thomas C. Schelling. O autor argumentava que as instituições sociais aparentemente "cooperativas" eram essencialmente mantidas por "ameaças" de punição e retaliação. Essa ideia foi particularmente levada em conta durante a década de 1990. javascript:void(0) SAIBA MAIS Algumas das principais figuras da teoria dos jogos tiveram suas contribuições reconhecidas com o prêmio Nobel: ele foi compartilhado por John Nash, JC Harsanyi e R. Selten em 1994 e por William Vickrey e James Mirrlees em 1996. Já Herbert Simon ganhou o Nobel em 1979 por conceitos como o da racionalidade limitada, os quais, desde então, foram incorporados à teoria dos jogos (evolucionários). A TEORIA DOS JOGOS E SUAS APLICAÇÕES Este vídeo abordará algumas aplicações importantes da teoria dos jogos. VERIFICANDO O APRENDIZADO CONCLUSÃO CONSIDERAÇÕES FINAIS Apresentamos neste tema duas vertentes das escolas de pensamento econômico que recentemente vêm ganhando espaço na história do pensamento econômico: a empírica e a teórica. Ainda apresentamos importantes conceitos, obras e autores da teoria econômica. Discutimos a evolução de cada uma das correntes econômicas empíricas (teoria dos ciclos de negócios, escola empírica e econometria e desenvolvimento econômico) e teóricas (teoria financeira e teoria dos jogos). PODCAST AVALIAÇÃO DO TEMA: REFERÊNCIAS MLADENOVA, Z. The evolution of economic theory during the twentiethcentury. In: ResearchGate. jan. 2006. SCHUMPETER, J. Teoria do desenvolvimento econômico. São Paulo: Nova Cultural, 1997. EXPLORE+ Assista aos seguintes filmes: a) Para entender alguns dos problemas que afetam o mercado financeiro MARGIN call - o dia antes do fim. Direção: J. C. Chandor. Estados Unidos: Before The Door Pictures, 2011. 107 min. b) Para saber mais sobre a teoria dos jogos UMA mente brilhante. Direção: Ron Howard. Estados Unidos: Universal, 2002. 135 min. CONTEUDISTA Juliana Damasceno de Sousa CURRÍCULO LATTES javascript:void(0); javascript:void(0);
Compartilhar