Prévia do material em texto
FLF0472 – Filosofia da Física
(2o sem. 2008)
Filosofia da Física Clássica
Osvaldo Pessoa Jr.
Curso ministrado pelo Depto. de Filosofia, FFLCH, USP
para o 3o ano de Licenciatura de Física, IFUSP.
FLF0472 Filosofia da Física (USP - 2008)
ii
Sumário
Cap. I. FILOSOFIA DA MATEMÁTICA
Como explicar a importância da matemática nas ciências naturais?
1. A Desarrazoada Efetividade da Matemática 1
2. A Matemática na Grécia Antiga 1
3. Os Postulados de Euclides 2
4. Questão Ontológica: Existem Objetos Matemáticos? 3
5. Questão Epistemológica: Números Imaginários se aplicam à Realidade Física? 4
6. Noções de Continuidade 5
7. Existe o Infinito? 6
Cap. II. PARADOXOS DE ZENÃO
O espaço e o tempo são contínuos ou discretos?
1. Pano de Fundo de Zenão 7
2. Paradoxos do Movimento 8
3. Paradoxos da Pluralidade 8
3. O Holismo Aristotélico 10
4. Visão Moderna dos Paradoxos 11
5. Espaço e Tempo Discretizado na Gravidade Quântica 12
Cap. III. FILOSOFIA MECÂNICA
Como explicar a gravidade sem forças à distância?
1. Hilemorfismo e a Física Aristotélica 13
2. Atomismo Greco-Romano 14
3. Naturalismo Animista 15
4. A Filosofia Mecânica 16
5. A Física e Cosmologia de Descartes 16
6. Explicação da Gravidade segundo a Filosofia Mecânica 18
7. Teoria Cinética da Gravitação 19
Cap. IV. CONCEPÇÕES REALISTA E INSTRUMENTALISTA DE “FORÇA”
A ciência deve apenas descrever o que é observável ou deve lançar
hipóteses sobre a realidade que estaria por trás dos fenômenos?
1. Mecanicismo com Forças à Distância 21
2. Definições e Leis no Principia 22
3. A Natureza da Força 24
4. Realismo, Instrumentalismo, Descritivismo 25
5. Realismo e Anti-Realismo em Newton 27
Cap. V. EXPERIMENTO DO BALDE E ESPAÇO ABSOLUTO
O espaço e o tempo são absolutos ou relativos?
1. Há Juízos Sintéticos A Priori? 28
2. Referenciais Inerciais e Não-Inerciais 29
3. O Experimento do Balde 29
4. A Defesa do Espaço Relativo 31
5. Princípio de Mach e a Teoria da Relatividade Geral 32
FLF0472 Filosofia da Física (USP - 2008)
iii
Cap. VI. DETERMINISMO E PROBABILIDADE (versão preliminar)
A natureza é determinista ou há eventos sem causa?
1. Determinismo e Previsibilidade 34
2. O Demônio de Laplace 34
3. Probabilidade 35
4. Definições de Aleatoricidade 36
5. Caos Determinístico e Sensibilidade a Condições Iniciais 37
Cap. VII. PRINCÍPIOS DE MÍNIMA AÇÃO
Qual é o lugar das causas finais na física (e na ciência)?
1. Paradigmas e Programas de Pesquisa 39
2. Programas de Pesquisa Rivais na Mecânica Clássica 40
3. Princípios de Mínima Ação 42
4. Causas Finais na Física 44
Cap. VIII. AXIOMATIZAÇÃO DA MECÂNICA CLÁSSICA
Por que e como axiomatizar as teorias físicas?
1. Contexto da Descoberta e Contexto da Justificação 45
2. Discussão dos Princípios Newtonianos no Séc. XIX 45
3. Críticas ao Método de Mach 47
4. Axiomatização das Teorias Matemáticas 48
5. Axiomatização Dedutivista da Mecânica Clássica 49
6. O Debate entre Axiomatizações Empiristas e Dedutivistas 51
Cap. IX. A ONTOLOGIA DO ELETROMAGNETISMO
Quais conceitos do eletromagnetismo correspondem a entidades reais?
1. Critérios para estabelecer o que é Real 53
2. Ampère e o Magnetismo como Epifenômeno 54
3. Forças Magnéticas violam o Princípio de Ação e Reação? 56
4. Campos e a Ação por Contato, ou Localidade 57
5. O Potencial Vetor é um Campo? 58
6. Invariantes da Teoria da Relatividade 60
Cap. X. CONTEXTO DA DESCOBERTA DO ELETROMAGNETISMO
Qual é o papel das imagens e das analogias na ciência?
Cap. XI. TERMODINÂMICA E ENERGÉTICA
A lei de conservação de energia é uma convenção?
Cap. XII. MECÂNICA ESTATÍSTICA E IRREVERSIBILIDADE
Qual a origem da irreversibilidade dos fenômenos macroscópicos?
Cap. XIII. DEMÔNIO DE MAXWELL E FÍSICA DA COMPUTAÇÃO
Um ser inteligente conseguiria violar a irreversibilidade?
Filosofia da Física Clássica
Cap. I
1
Filosofia da Matemática
Questão: Como explicar a importância da matemática
nas ciências naturais?
1. A Desarrazoada Efetividade da Matemática
Por que a matemática é tão importante na física? Essa é a questão que o importante
físico húngaro Eugene Wigner (1902-95) discutiu em um artigo em que usou a curiosa
expressão “desarrazoada (não razoável) efetividade (eficácia) da matemática”.1 A opinião de
Wigner era que a gente não compreende porque a matemática é tão útil na física: seria uma
espécie de “milagre”: “A lei da gravitação, que Newton relutantemente estabeleceu e que ele
pôde verificar com uma acurácia de aproximadamente 4%, mostrou-se acurada numa
porcentagem menor do que dez milésimos” (p. 231). Ou seja, usamos a matemática para
descrever um domínio limitado da realidade, e às vezes essa descrição matemática se mostra
eficaz em domínios muito mais amplos. Outro exemplo que Wigner cita é o sucesso da
mecânica quântica (a partir de 1927) em explicar os níveis energéticos do átomo de hélio, um
sistema bem mais complexo (por envolver dois elétrons interagentes) do que aqueles usados
por Heisenberg para construir sua mecânica matricial. “Com certeza, neste caso, conseguimos
‘tirar algo’ das equações que não tínhamos colocado” (p. 232).
A tese de Wigner, de que a efetividade da matemática na física é desarrazoada,
inexplicável, exprime um certo aspecto de seu pensamento filosófico no início dos anos 60,
uma sensibilidade a problemas não resolvidos, como o mistério da consciência humana ou o
problema do colapso na mecânica quântica. No entanto, muitas outras respostas foram dadas a
este problema, desde a época de Pitágoras, que considerava que a essência da natureza são
números. Curiosamente, uma resposta semelhante à de Pitágoras foi proposta recentemente
pelo cosmólogo Max Tegmark, para quem “nosso mundo físico é uma estrutura matemática
abstrata”!2
2. A Matemática na Grécia Antiga
A matemática grega, partindo de Tales de Mileto (c. 625-546 a.C.) e Pitágoras de
Samos (c. 575-495 a.C.), se caracterizou pelo esforço de demonstrar de maneira rigorosa os
seus resultados. Os pitagóricos, reunidos onde hoje é a Sicília, defendiam que todas as
relações científicas eram expressas por meio de números naturais (1, 2, 3, ...) ou razões entre
tais números, os chamados números racionais, ½, ¾, etc. Em conseqüência desta concepção,
supunham que o espaço, o tempo e o movimento eram constituídos de elementos discretos.
Ao pitagórico Hipaso de Metaponto (nascido circa 500 a.C.) é atribuída a descoberta
dos números irracionais, como 2 , que seria a medida da diagonal de um quadrado de lado
1. Esta descoberta era vista como um problema para a filosofia pitagórica, e conta a lenda que
1 WIGNER, E.P. (1960), “The Unreasonable Effectiveness of Mathematics in the Natural Sciences”,
Communications in Pure and Applied Mathematics 13, 1-14. Disponível na internet. Tradução disponível no
saite do curso.
2 TEGMARK, M. (2007), “The Mathematical Universe”, arXiv 0704.0646v1, 28 pp. Na internet, é fácil também
encontrar sobre o assunto o artigo do matemático aplicado HAMMING, R.W.(1980), “The Unreasonable
Effectiveness of Mathematics”, American Mathematical Monthly 87.
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática
2
Hipaso teria sido lançado ao mar por seus colegas, em represália.3 Veremos no cap. II outro
problema para a concepção pitagórica: os paradoxos de Zenão, que punham em xeque a
concepção de que o espaço e o tempo são divisíveis.
Os matemáticos gregos passaram a dividir a matemática na teoria dos números, que
estuda entidades discretas ordenadas, e na geometria, que envolve o contínuo. Essa divisão
transparece nos Elementos, obra escrita por Euclides de Alexandria em torno de 300 a.C. Ele
reuniu os trabalhos de Eudoxo, Teeteto e outros matemáticos, sistematizou-os, melhorou as
demonstrações, e coligiu sua obra de acordo com o método axiomático. Os Elementos partem
de definições, axiomas (noções comuns, princípios auto-evidentes) e postulados (suposições
geométricas). O número 1 foi tratado como a “unidade”, e os outros como “números”
propriamente ditos. O número 0 não estava presente, e só foi introduzido na Índia, onde se
usava o sistema numérico posicional, juntamente com os números negativos, pelo matemático
Brahmagupta, em 628 d.C.
3. Os Postulados de Euclides
Euclides partiu de 23 definições, como a de ponto, que é “aquilo que não tem partes”,
e reta, que é “um comprimento sem espessura [...] que repousa equilibradamente sobre seus
próprios pontos”. Em 1899, o alemão David Hilbert reformularia a axiomatização da
geometria plana sem partir de definições primitivas: “ponto” e “reta” seriam definidos
implicitamente pelos postulados.
Os cinco axiomas usados por Euclides, em notação moderna, são:
A1) Se A=B e B=C, então A=C.
A2) Se A=B e C=D, então A+C = B+C.
A3) Se A=B e C=D, então A–C = B–C.
A4) Figuras coincidentes são iguais em todos os seus aspectos.
A5) O todo é maior do que qualquer de suas partes.
Os cinco postulados da geometria plana são:
P1) Dois pontos determinam um segmento de reta.
P2) Um segmento de reta pode ser estendido para
uma reta em qualquer direção.
P3) Dado um ponto, há sempre um círculo em que
ele é centro, com qualquer raio.
P4) Todos os ângulos retos são iguais.
P5) Se a soma dos ângulos a e b for menor do que
dois ângulos retos, então os segmentos de reta A
e B se encontram, se forem estendidos
suficientemente (ver Fig. I.1).
Figura I.1: Quinto
postulado de Euclides.
O postulado P5 é logicamente equivalente à proposição de que, dados uma reta A e um
ponto P fora dela, passa apenas uma reta por P que seja paralela a A. Veremos mais à frente
como a discussão do quinto postulado levou no séc. XIX às geometrias não-euclidianas.
3 Muitos detalhes da história da matemática podem ser obtidos de: EVES, H. (2004), Introdução à História da
Matemática, trad. H.H. Domingues, Ed. Unicamp, Campinas (original em inglês: 1964). Sobre Hipaso, ver p.
107.
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática
3
Com esses axiomas e postulados, deduz-se boa parte da geometria plana, como o
teorema de Pitágoras. No entanto, a base de postulados não é completa. Por exemplo,
Euclides supõe tacitamente que uma reta que passa pelo centro de um círculo passa também
por dois pontos do círculo, mas isso não é dedutível da base de postulados! Além disso,
muitas verdades geométricas que dependem da noção de limite, algumas das quais formuladas
por Arquimedes de Siracusa (287-212 a.C.), não são dedutíveis dos axiomas de Euclides.4
A geometria euclidiana foi o paradigma de conhecimento certo e verdadeiro, na
ciência e filosofia, até o séc. XIX.
4. Questão Ontológica: Existem Objetos Matemáticos?
Os números existem? Há 27 alunos nesta classe, isso é um fato indubitável: mas o
número 27 existe de maneira independente, no mundo, ou apenas em minha mente? Há duas
respostas básicas a esta questão.
A tradição pitagórica, elaborada por Platão (428-348 a.C.), concebe que os números
naturais são entidades reais, assim como outros objetos matemáticos, como o triângulo. Tais
entidades, porém, não existiriam no mundo físico, mas em um mundo abstrato, ideal, para
fora do espaço e do tempo. O filósofo Bertrand Russell, simpático a esta concepção no livro
Problemas da Filosofia (1912), utilizou o verbo “subsistir” para designar este tipo de
realidade, em oposição ao “existir” das coisas particulares. Essa noção de subsistência, em
Platão e Russell, não se limitava apenas a entidades matemáticas, mas se estendia para
quaisquer propriedades ou relações abstratas, ditas “universais”. Assim, para Platão, aquilo
que haveria em comum entre um ato justo de um magistrado romano e um ato justo de um rei
asteca seria a “justiça”, um universal que subsistiria num mundo à parte do material. Os
diferentes triângulos que desenhamos num papirus seriam cópias imperfeitas de triângulos
ideais, e o que todos os triângulos têm em comum seria a “triangularidade”, um universal
distinto de qualquer triângulo desenhável, pois cada triângulo é ou isósceles (ao menos dois
lados de mesmo comprimento) ou escaleno, ao passo que a triangularidade não teria nenhuma
dessas duas propriedades.
A visão metafísica que defende a existência de universais, quer sejam números, quer
sejam propriedades ou relações, pode ser chamada de realismo de universais. A visão
antagônica é conhecida como nominalismo, e defende que no mundo físico há particulares
concretos (coisas) com propriedades, mas tais propriedades não têm uma realidade autônoma,
independente de cada particular. Ou seja, não se pode dizer que os universais subsistem. O
que o realista chama de universais seriam apenas idéias em nossa mente (conceitualismo) ou
nomes lingüísticos (nominalismo, em sentido estrito). A “querela dos universais” foi
disputada intensamente na Idade Média, e Guilherme de Ockham (1285-1350) é o grande
representante do nominalismo medieval, ao passo que o lógico Willard Quine (1908-2000) é
um importante nominalista moderno.5
Em filosofia da matemática, a oposição entre realistas e nominalistas é um pouco
diferente da querela metafísica. Os realistas afirmam que os números, conjuntos e outros
objetos matemáticos existem ou subsistem de alguma maneira, independentes dos seres
4 O presente relato foi obtido de SKLAR, L. (1974), Space, Time, and Spacetime, U. California Press, Berkeley,
pp. 13-6. O livro de Euclides está disponível na internet, ou como: EUCLID (1956), The Thirteen Books of
Euclid’s Elements, tradução e comentários de T.L. Heath, 3 vols., Dover, Nova Iorque.
5 Uma excelente introdução ao debate metafísico entre realistas de universais e nominalistas é apresentada por
LOUX, M.J. (2002), Metaphysics – A Contemporary Introduction, 2a ed, Routledge, Londres, caps. 1 e 2. Há um
“resumão” em português na internet.
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática
4
humanos. Já os nominalistas defendem que os objetos matemáticos são construções mentais,
de forma que não se pode afirmar que os números naturais existam no mundo.
Um dos argumentos dos realistas, em favor da existência dos objetos matemáticos, é
justamente a sua grande utilidade nas ciências naturais. Segundo este “argumento da
indispensabilidade”, formulado por Willard Quine (um nominalista metafísico, mas um
realista matemático) e Hilary Putnam, como nossas melhores teorias científicas fazem
referência a objetos matemáticos como números, conjuntos e funções, e tais entidadessão
indispensáveis para a ciência, então devemos nos comprometer com a existência real de
objetos matemáticos, da mesma maneira que nos comprometemos com a existência de
entidades físicas teóricas como quarks e partículas virtuais. Opondo-se a este argumento, o
filósofo nominalista Hartry Field vem trabalhando num projeto para mostrar como é possível
construir teorias científicas sem números e outros objetos matemáticos, numa certa linguagem
relacional. Conseguiu aplicar seu método para a teoria da gravitação newtoniana, mas não
para outras teorias mais contemporâneas. A matemática seria útil para a ciência pelo fato de
ela simplificar muito os cálculos e a expressão de enunciados das ciências exatas, mas ela não
seria indispensável.6
5. Questão Metodológica: Números Imaginários se aplicam à Realidade Física?
Na seção anterior, vimos que a questão sobre a existência do número natural 27 pode
receber diferentes respostas. Mas a prática do físico não é afetada por esta questão filosófica:
qualquer que seja a resposta a essa questão “ontológica” (ou seja, questão sobre o que é real),
é seguro supor que o número inteiro 27 “se aplica” corretamente à descrição da realidade
nessa sala de aula.
Podemos investigar esta questão “metodológica” em relação a números não positivos,
como os inteiros negativos. Talvez não possamos dizer que há –5 maçãs na cesta, mas
podemos dizer que a temperatura é –5˚C. Ou seja, pode-se dizer que os inteiros negativos se
aplicam a certos domínios da realidade.
E quanto aos números que representam uma reta contínua? A estrutura do espaço
físico é a estrutura dos números racionais ou dos números reais? Na seção seguinte
deixaremos clara a distinção entre os dois, com base na distinção entre conjuntos ordenados
densos e completos. A questão levantada é também uma questão ontológica, mas não em
relação à natureza dos objetos matemáticos, e sim em relação a uma entidade física, o espaço.
Sendo assim, para examinar esta questão devemos levar em conta também as evidências
experimentais. Deixaremos o estudo desta questão para o Cap. II. Associada a esta questão há
também uma constatação metodológica: é usual representar o espaço físico como um espaço
matemático tridimensional contínuo, envolvendo números reais, e não apenas números
racionais.
E os números imaginários? Tais números, múltiplos de i, ou 1− , surgiram com o
matemático italiano Gerolamo Cardano, em 1545, como soluções de equações cúbicas. Em
1637, René Descartes os chamou de “imaginários”, indicando que não os levava à sério. No
entanto, Abraham de Moivre (1730) e Leonhard Euler (1748) os estudaram, chegando à
notável equação que tanto fascinou o jovem Richard Feynman: 1−=πie . Isso levaria à noção
6 Uma resumo sucinto da filosofia da matemática é: POSY, C.J. (1995), “Philosophy of Mathematics”, in AUDI,
R. (org.), The Cambridge Dictionary of Philosophy, Cambridge U. Press, pp. 594-7. Sobre o argumento da
indispensabilidade, ver: COLYVAN, M. (2004), “Indispensability Arguments in the Philosophy of Mathematics”,
Stanford Encyclopedia of Philosophy, na internet. O filósofo brasileiro Otávio Bueno (U. Miami) tem trabalhado
nesta e noutras questões da filosofia da ciência e da matemática; por exemplo: BUENO, O. (2005), “Dirac and the
Dispensability of Mathematics”, Studies in History and Philosophy of Modern Physics 36, 465-90.
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática
5
de plano complexo, formulado por Caspar Wessel (1797), Carl Gauss (1799) e Jean Argand
(1806), que representa os números complexos a + bi em um plano.
A questão ontológica, da realidade dos números imaginários, não parece ser diferente
da questão ontológica de outros objetos matemáticos. A diferença está na questão
metodológica, pois é costume afirmar-se que “nenhuma grandeza física observável é
representada por um número imaginário”. Números imaginários aparecem na representação
de movimentos oscilantes ou ondulatórios, mas na hora de exprimir valores de correntes (na
engenharia elétrica) ou de probabilidades (na mecânica quântica), o resultado é sempre
expresso por meio de números reais. Assim, num certo sentido, números imaginários não se
aplicam à realidade observável. Mas e a realidade não-observável? Aqui recaímos na
discussão sobre o estatuto da realidade não-observável (realismo x instrumentalismo), que
veremos no cap. IV.
Alguns autores argumentam que os números imaginários não podem ser eliminados da
mecânica quântica e das modernos teorias de campo, a não ser por procedimentos artificiais, e
portanto eles têm aplicação essencial na física7. Por outro lado, a discussão não é que os
números imaginários não podem ser aplicados à realidade observada, pois por convenção
poderíamos multiplicar todos os números que representam grandezas observáveis por i, de tal
maneira que seriam os reais não-imaginários que não teriam aplicação direta. O ponto da
discussão é que os números reais seriam suficientes para descrever a realidade observável,
sem necessidade de ampliar, com os números imaginários, o sistema numérico utilizado.
6. Noções de Continuidade
Consideremos o intervalo entre os números 0 e 1, e imaginemos o conjunto ordenado
de todos os números racionais (frações) deste intervalo. Este conjunto é denso, pois entre
quaisquer dois números racionais existe pelo menos um número racional. É fácil intuir que há
um número infinito de racionais neste intervalo.
No entanto, sabemos que números como 2
2 e 8π não são racionais, mas fazem parte
do conjunto dos reais. Está claro que este conjunto é denso, mas ele também tem a
propriedade de ser completo. Considere a seguinte seqüência crescente infinita de números
racionais,{ }...,,,, 4504516988346512891053831 , onde cada termo n=1,2,... é expresso por [ ]∑
=
−−−
n
m
mm
1
1)14)(34( .
Tal seqüência tem limites superiores racionais, como 52 , ou seja, há números racionais
maiores do que todos os termos da seqüência. O problema, porém, é que não há um racional
que seja o menor limite superior, ou supremo. Se considerarmos agora esta seqüência como
um subconjunto dos reais, mostra-se (a partir de fórmula derivada por Gregory e Leibniz no
séc. XVII) que tal seqüência converge para 8π , que é o supremo da seqüência. Assim, os reais
são completos, no sentido que todas as seqüências com limite superior têm um supremo.
Na matemática, a noção de continuidade aplica-se a funções, como y = f(x) .
Intuitivamente, diz-se que uma função é contínua se uma pequena variação no argumento x
levar a uma pequena variação em y. Na disciplina de Cálculo I, aprendemos a definição
rigorosa de continuidade de Cauchy para os reais, em termos de “εpsilons e δeltas”. Se uma
função for definida para números racionais, parece ser possível aplicar essa noção de
7 WIGNER (1960), op. cit. (nota 1), pp. 225, 229. YANG, C.N. (1987), “Square Root of Minus One, Complex
Phases and Erwin Schrödinger”, in Kilmister, C.W. (org.), Schrödinger: Centenary Celebration of a Polymath,
Cambridge: Cambridge University Press, pp. 53-64.
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática
6
continuidade também para os racionais. Por outro lado, o conjunto dos números reais é às
vezes chamado de “o contínuo”.
7. Existe o Infinito?
Há uma longa história da noção de infinito na matemática, na ciência e na filosofia.
Hoje em dia aceita-se que o Universo tenha uma extensão espacial finita, mas a questão do
infinitamente pequeno aindaestá em aberto, como discutiremos no Cap. II.
Na matemática, um resultado importante foi obtido pelo russo-alemão Georg Cantor
(1845-1918): podem se definir infinitos maiores do que o infinito contável! O tamanho de um
conjunto é denominado sua “cardinalidade”. Cantor denotou a cardinalidade dos números
naturais por ℵ0 (alef-zero), ou infinito contável. Para encontrar a cardinalidade de outro
conjunto infinito, basta tentar mapear os elementos do conjunto nos números naturais. Por
exemplo, mostra-se que a cardinalidade dos números racionais também é ℵ0, escrevendo
todas as frações m/n em uma matriz na posição (m,n), e escolhendo uma seqüência de
ordenamento, como o da Fig. I.2, que mapeia cada fração em um número natural (podem-se
eliminar as frações de valores repetidos).
Qual seria a cardinalidade dos números reais, entre 0 e 1? Cantor apresentou o
“argumento da diagonal”, que permite construir um número real que escapa da tentativa de
mapear bijetoramente os inteiros nos números reais. Façamos uma lista dos números reais
entre 0 e 1, com i = 1, 2, ..., escrevendo cada um da seguinte forma: pi = 0 , ai1, ai2, ai3, ...,
onde os aij são dígitos entre 0 e 9 (Fig. I.3). Por exemplo, 8π = 0,392... teria ai1=3, ai2=9,
ai3=2, etc. Naturalmente, esta lista de números reais pi seria contavelmente infinita, mas há
pelo menos um número real que não consta desta lista, o número q = 0 , b1, b2, b3, ...,
construído da seguinte maneira. Consideremos os dígitos na diagonal i=j, ou seja, a11, a22, etc.
Se o dígito aii = 5, então bi = 4; se aii ≠ 5, então bi = 5. Com isso, constrói-se um número real
b que não consta da lista contavelmente infinita (que tem cardinalidade ℵ0). Isso mostra que a
cardinalidade dos números reais, que Cantor mostrou ser igual a 2ℵ0, é maior do que a dos
números racionais: 2ℵ0 > ℵ0 .
Figura I.2: Numeros racionais são contáveis. Figura I.3: Argumento da diagonal de Cantor.
Filosofia da Física Clássica
Cap. II
7
Paradoxos de Zenão
Questão: O espaço e o tempo são contínuos ou discretos?
1. Pano de Fundo de Zenão
Zenão de Eléia (490-430 a.C.) é bem conhecido por causa de seus paradoxos, como
aquele da corrida de Aquiles com a tartaruga. De fato, escreveu um livro com em torno de 40
paradoxos, mas este se perdeu. O que sabemos de Zenão nos foi transmitido por Platão,
Aristóteles e pelo comentador Simplício do séc. VI d.C. 8
Figura II.1: Zenão de Eléia.
O que Zenão queria provar com seus paradoxos?
Como eles foram encarados na Antigüidade? Como eles são
resolvidos hoje em dia?
Zenão era discípulo do grande filósofo Parmênides
(515-450 a.C.), da cidade de Eléia (atual Itália), que defendia
que a pluralidade (o estado de haver muitas coisas distintas,
ao invés de uma só) não existe e que qualquer mudança é
impossível. O ponto de partida de Parmênides era a razão, o
intelecto, em oposição à observação. É verdade que nossos
sentidos vêem uma aparente mudança, mas isso seria pura
ilusão, pois a realidade não poderia mudar. Afinal, “o que é
não pode deixar de ser”: se alguma coisa tem uma essência,
como é que essa essência pode desaparecer desta coisa? Por
outro lado, “do não-ser não pode surgir o ser”: como é que
algo pode surgir do nada? Assim, o Universo seria uno, e
não mudaria (algo parecido com a idéia de um único Deus
imutável).9
As teses de Parmênides tiveram um forte impacto na filosofia da natureza na Grécia.
Elas estimularam soluções como a de Empédocles (490-435 a.C.), para quem haveria quatro
elementos imutáveis (terra, água, ar e fogo) que se combinariam em diferentes proporções
para gerar os diferentes objetos que conhecemos. A mudança seria uma recombinação dos
quatro elementos fundamentais, como na queima de madeira (constituída de uma certa
proporção de terra, água e fogo), que perde seu elemento água e fogo para se transformar em
carvão, que seria terra pura.
Zenão buscava defender as idéias de seu mestre, atacando a idéia de pluralidade e de
movimento. Sua estratégia era supor a tese que queria atacar, por exemplo a pluralidade de
pontos em uma reta, e daí deduzir uma conseqüência que contradissesse sua suposição,
levando assim a uma redução ao absurdo.
8 Uma excelente apresentação é dada por: HUGGETT, N. (2004), “Zeno’s Paradoxes”, The Stanford Encyclopedia
of Philosophy, na internet Um livro clássico com textos de diversos autores é: SALMON, W.C. (org.), Zeno’s
Paradoxes, Bobbs-Merrill, Indianápolis, 1970. A figura de Zenão foi retirada de http://www-history.mcs.st-
andrews.ac.uk/history/ PictDisplay/Zeno_of_Elea.html.
9 Alguns cosmólogos modernos gostam de olhar para o Universo como uma entidade única, um “bloco” (block
Universe) no qual o tempo é visto como uma quarta dimensão semelhante ao espaço, sem distinções ontológicas
entre passado e futuro (também chamada de “doutrina das partes temporais”). Olhando este bloco de fora, um
observador abstrato pode olhar para o futuro, para o passado, para onde quiser. O bloco não muda, então nesse
sentido não há mudança, o que lembra o Uno parmenidiano (por outro lado, a concepção do universo em bloco
não rejeita a pluralidade).
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão
8
2. Paradoxos do Movimento
Concentremo-nos aqui em quatro paradoxos do movimento, que são apresentados por
Aristóteles (384-322 a.C.) em sua Física.10 A Dicotomia e o Aquiles são semelhantes: Zenão
parte da suposição de que uma certa distância tem infinitos pontos, e que um corredor teria
que passar por todos eles antes de atingir a linha de chegada (ou uma tartaruga), para concluir
que o corredor nunca atinge seu objetivo. Assim, a razão mostra que o movimento é
impossível, e o que vemos é uma ilusão. A Flecha envolve a noção de que, em cada instante,
uma flecha está parada, então como ela poderia estar em movimento? O quarto paradoxo, o
Estádio, é apresentado de maneira provavelmente errônea por Aristóteles, então ele tem que
ser reconstruído.
3. Paradoxos da Pluralidade
É interessante que os paradoxos do movimento também podem ser usados contra a
tese de que o espaço e o tempo possuem partes atuais (reais), ou seja, contra a pluralidade do
Universo (que mencionamos ser uma das teses de Parmênides). O filósofo galês G.E.L. Owen
(1922-82) fez uma reconstrução de como poderia ter sido este argumento, resultando num
grande argumento contra diferentes concepções de pluralidade11. Ou seja, apresentaremos os
quatro paradoxos de Zenão não como argumentos contra a possibilidade de movimento – que
iremos supor que ocorre realmente – , mas contra a divisibilidade do espaço e do tempo em
partes reais. É provável que Zenão não tenha articulado seus argumentos dessa forma, mas
como nosso interesse é mais filosófico do que histórico, seguiremos a reconstrução de Owen.
O argumento em questão é consistente com a conclusão de Aristóteles de que um todo
não possui partes “atuais”, mas apenas partes “em potência”, cuja atualização só pode ocorrer
posteriormente à existência do todo. Essa prioridade do todo sobre as partes exprime uma
posição conhecida como holismo, que examinaremos na seção seguinte.
A questão a ser examinada, então, é se o espaço e o tempo são compostos de uma
pluralidade de partes reais. Há, naturalmente, duas respostas possíveis: SIM, são compostos de
partes reais; ou NÃO, são um todo sem partes reais, apenas partes imaginadas.
Vamos examinar a resposta positiva. Veremos que as diferentes possibilidades levam a
paradoxos, de forma que seremos obrigados a concluir (segundo o argumento atribuído a
Zenão) que o espaço e o tempo NÃO são compostos de partes reais.Partamos então da tese de que o espaço e o tempo têm partes reais. A próxima questão
a ser colocada é se o espaço e o tempo podem ser divididos sem limite ou se há limites para a
divisão. Há duas respostas plausíveis: A) São divisíveis sem limite. B) Há limites para a
divisão. Consideremos a primeira alternativa.
A) O espaço e o tempo são divisíveis sem limite. Zenão então teria apresentado dois
paradoxos para refutar esta alternativa, o da Dicotomia e o de Aquiles.
1) Paradoxo da Dicotomia. Um corredor pretende cobrir uma certa extensão, digamos
de 100 m. Antes de chegar ao final, ele terá que passar por um ponto localizado no meio do
percurso, ½ da extensão total. Após isso, ele tem que passar pelo ponto que corresponde a ¾ do
percurso. Depois disso, pelo ponto 87 , depois 1615 , depois 3231 , etc. Como, pela hipótese A, o
10 ARISTOTLE (1996), Physics, trad. R. Waterfield, Oxford U. Press, 1996, orig. c. 350 a.C. Tradução para o
português de trechos relativos aos paradoxos de Zenão está disponível no saite do curso.
11 OWEN, G.E.L. (1957), “Zeno and the Mathematicians”, Proceedings of the Aristotelian Society 58, 199-222,
republicado em SALMON (1970), op. cit. (nota 8), pp. 139-63. Um resumo deste argumento é apresentado por
TILES, MARY (1989), The Philosophy of Set Theory, Blackwell, Oxford (nova edição pela Dover), pp. 12-21.
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão
9
espaço é divisível sem limite, há um número infinito de pontos que o corredor deve percorrer
antes de chegar ao final de seu percurso. Assim, conclui Zenão, ele nunca chega ao final!
Este é o paradoxo da Dicotomia “progressivo”; há também a versão “regressiva”.
Antes de chegar à metade do percurso, o corredor tem que atingir ¼ da extensão total; mas
para chegar neste ponto, tem que antes atingir 81 do percurso; e antes disso, 161 , etc. Desta
maneira, o corredor nem conseguiria iniciar sua corrida!
2) Paradoxo de Aquiles. Nesta versão do argumento, o veloz Aquiles aposta uma
corrida contra uma lenta tartaruga, que começa dez metros à sua frente. Em pouco tempo,
Aquiles atinge a marca dos 10 m, mas neste intervalo de tempo a tartaruga caminhou 1 m. Em
seguida, Aquiles percorre esse metro adicional, mas a tartaruga não está mais lá, pois percorreu
mais 101 de metro. Quando Aquiles cobre este 101 de metro adicional, a tartaruga está 1001 m à
frente. E depois, 10001 à frente, e depois 000.101 , etc. Como, pela hipótese A, o espaço é
infinitamente divisível, sempre haverá um ponto que Aquiles deve atingir antes de prosseguir
em seu encalço à tartaruga. Conclui-se então que Aquiles nunca conseguirá alcançar a tartaruga!
Visto que a hipótese A levou a duas situações que vão contra o que constatamos na
realidade, ela deve ser rejeitada. Assim, supondo-se que o espaço e o tempo são compostos de
partes, não se poderia admitir que essas partes sejam infinitamente divisíveis. Para sermos
mais precisos, o que esses argumentos sustentam é que o espaço não seria infinitamente
divisível. Resta assim a hipótese alternativa.
B) Há limites para a divisão do espaço e do tempo. Neste caso, pergunta-se sobre o
tamanho desses limites: eles têm tamanho? (a) Sim, têm tamanho. (b) Não, não têm tamanho.
Consideremos cada caso em separado.
(a) Os limites para a divisão do espaço e do tempo têm tamanho. Ou seja, dentro de
uma unidade indivisível de tempo, ocorreria um pequeno movimento (esta é uma situação
difícil de imaginar, mas prossigamos com o argumento reconstruído por Owen). Neste caso,
Zenão teria invocado o paradoxo do estádio.
(3) Paradoxo do Estádio. Imagine que durante a Olimpíada, em um estádio, dois
dardos são atiradas em sentidos opostos. Estamos supondo que o espaço e o tempo são
discretizados, ou seja, suas partes têm um tamanho ou duração mínimos (que chamaremos
“unidades”). Supomos também que cada dardo percorre uma unidade espacial a cada unidade
temporal. Consideremos um instante em que as pontas dos dardos ainda não se sobrepuseram,
mas ocupam unidades espaciais adjacentes. Isso pode ser representado ao encostarmos o dedo
indicador da mão esquerda no indicador da mão direita, com as unhas viradas para fora, de
forma que possamos ver a divisão de nossos indicadores em três falanges (Fig. II.2a). Escolhendo
Figura II.2: Paradoxo do Estádio.
um ponto de referência em algum objeto à nossa
frente, consideremos qual é a posição dos nossos
dedos/dardos no instante discreto (unidade
temporal) seguinte. Ora, o indicador direito se
moveu uma unidade para a esquerda, e o dedo
esquerdo uma para a direita. Assim, na nova
posição relativa dos dois dedos/dardos, há duas
unidades espaciais emparelhadas (Fig. II.2b). No
entanto, para eles terem chegado nesta situação de
emparelhamento de duas unidades, eles teriam
que ter passado pela situação intermediária em
que apenas uma unidade estivesse emparelhada.
Isso teria que acontecer em um instante que é
metade da unidade temporal tomada como
mínima. Portanto, tal unidade não é mínima, mas
é divisível! Além disso, nesta meia unidade,
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão
10
temporal, cada dardo voou, em relação ao estádio, uma distância que é a metade da unidade
espacial. Assim, a unidade espacial também seria divisível! Isso refutaria a hipótese (a).
Resta-nos a outra alternativa.
(b) Há limites para a divisão do espaço e do tempo mas esses não têm extensão ou
duração, são pontuais ou instantâneos. Neste caso, segundo a reconstrução de Owen, Zenão
invocaria o seguinte problema.
(4) Paradoxo da Flecha. Um arqueiro lança uma flecha. Em um certo instante, a
flecha ocupa um espaço que é igual ao seu volume, portanto, segundo Zenão, ela estaria
parada neste instante. Isso se aplica para todos os instantes, assim, a flecha está sempre parada
e não poderia estar se movendo. Poder-se-ia argumentar que a flecha voa um pouquinho
durante um instante, de forma que ela estaria em diferentes posições no início e no fim do
instante; mas neste caso o instante seria divisível, indo contra a hipótese (b). Aristóteles
criticou este paradoxo argumentando que o repouso no tempo é diferente do que ocorreria no
“agora”, já que neste não se define o movimento, e portanto nem o repouso (Física, 234a24).
Com isso, rejeitando-se ambas as opções (a) e (b), refuta-se a alternativa B, segundo a
qual haveria limites para a divisão do espaço e do tempo. Mas a alternativa A já tinha sido
rejeitada. Assim, refuta-se a tese de que o espaço e o tempo sejam compostos de uma
pluralidade de partes. A resposta para a questão inicial portanto é “NÃO”: o espaço e o tempo
são um todo sem partes reais, apenas partes imaginadas.
4. O Holismo Aristotélico
Eis então como Aristóteles utiliza o argumento de Zenão para defender sua visão
holista da matéria, de que o todo precede as partes. O espaço e o tempo não seriam compostos
de um agregado de partes. É verdade que se pode dividir um objeto em partes. Quando um
tijolo é dividido, temos uma divisão atual, em ato. Talvez se possa até dividir um tijolo o
quanto queiramos ou possamos, mas antes de realizar essas divisões atuais, elas só existem
em potência, como potencialidade. O fato de que podemos dividir um tijolo não significa que
ele seja feito de partes, pois essa possibilidade de dividi-lo é apenas uma potencialidade, não
uma atualização. O todo precede as partes.
Com esta conclusão, Aristóteles pôde resolver os paradoxos à sua maneira. Os
paradoxos da Dicotomia e de Aquiles não procedem porque, para Aristóteles, o contínuo da
pista de corrida é homogêneo.Pode-se dividi-lo sem limites, mas tal divisão não é natural, ela
pode ser feita de diferentes maneiras. A divisão é imposta por nós, ela não existe de fato: o
enunciado do problema concretiza de maneira indevida a potencialidade de divisão. Em
primeiro lugar, o corredor percorre o todo. É por percorrer o todo que ele percorre as partes, e
não o contrário, como os enunciado dos paradoxos parecem indicar.
Aristóteles defende que se possa potencialmente dividir o contínuo de maneira
ilimitada. Com isso, rejeitam-se os paradoxos do Estádio e da Flecha, que pressupõem um
limite para a divisão. Além disso, um ponto, para Aristóteles, não é formado por divisão, de
maneira que um ponto não seria parte de uma reta. Para ele, um ponto pode ser concebido
como uma fronteira entre duas regiões distintas adjacentes.
A visão holista de Aristóteles foi retomada no início do século XX por filósofos que
defendem que o espaço e/ou o tempo não são compostos de pontos ou instantes. Para esta
corrente, que inclui Henri Bergson, William James e Alfred Whitehead, esta seria a chave
para se entender o vir-a-ser temporal, ou seja, como o presente desabrocha do passado.12
12 Este comentário é feito por HUGGETT (2004), op. cit. (nota 8), p. 14. Ele cita BERGSON, H. (1907),
L’Évolution Créatice, Presses Universitaires de France, Paris; JAMES, W. (1911), Some Problems of Philosophy,
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão
11
5. Visão Moderna dos Paradoxos
Os paradoxos de Zenão são ainda tema de discussão hoje em dia. Uma atitude muito
natural, por exemplo em relação ao Aquiles, é dizer que a conclusão de Zenão é um absurdo,
pois não corresponde à realidade, e que portanto o paradoxo deve ser rejeitado. Seguindo esta
linha, Diógenes, o Cínico (413-323 a.C.), respondeu ao paradoxo simplesmente se levantando
e andando! Mas essa constatação não resolve os paradoxos. (i) Para o paradoxo do
movimento, o ponto de Zenão é que racionalmente não pode haver movimento, de forma que
a vivência que temos deste movimento teria que ser uma ilusão dos sentidos. (ii) Para o
paradoxo da pluralidade, conforme a reconstrução de Owen, concorda-se que o movimento
ocorre, porém nenhuma hipótese sobre a pluralidade, usada para explicar racionalmente o
movimento, é livre de problemas.
O problema por trás da Dicotomia, que é o mesmo que o do Aquiles, parece repousar
na intuição de que o corredor demora um tempo finito mínimo para percorrer cada intervalo
espacial sucessivo. Como há infinitos desses intervalos, o tempo de transcurso seria infinito.
Porém, sabemos que essa intuição é errônea: o tempo de percurso por cada intervalo é
proporcional ao comprimento do intervalo (supondo velocidade constante). Esse ponto foi
apontado por Aristóteles (Física VI, 233a25), mas em outro trecho ele se confundiu com
relação à presença de infinitos intervalos finitos de tempo (Física VIII, 263a15). Da mesma
maneira que os intervalos espaciais somam 1 na série convergente ½ + 41 + 81 + ... , os
intervalos temporais também o fazem. O corredor acaba completando o percurso!
A moderna análise matemática, inaugurada no séc. XIX com os trabalhos de Augustin
Cauchy, Karl Weierstrass e Richard Dedekind, esclareceu a natureza das séries convergentes
e do cálculo diferencial e integral, banindo a noção de “infinitesimal”, utilizada a partir de
Leibniz. Na seção I.7, vimos como Cantor mostrou que o infinito da seqüência de números
inteiros (que é igual ao infinito dos números racionais), o chamado “infinito contável”, tem
cardinalidade menor do que o “infinito não-contável” dos pontos da reta real entre 0 e 1. No
entanto, não parece que seja necessário supor que o espaço seja isomórfico aos números reais
para resolver os paradoxos da Dicotomia e do Aquiles: bastaria que o espaço tivesse a
estrutura dos números racionais (ver seção I.6).
No século XX, avanços na teoria da medida e da dimensão esclareceram ainda mais a
natureza do infinito na matemática. Em 1966, o matemático Abraham Robinson formulou a
análise “não-standard”, que reintroduziu de maneira rigorosa os infinitesimais na matemática.
A aplicação desta teoria para os paradoxos de Zenão foi feita por McLaughlin (1994).13
O paradoxo da Flecha levanta discussões a respeito da natureza do movimento e do
conceito de velocidade instantânea. O movimento deve ser visto como a ocupação sucessiva
de posições em diferentes instantes? Esta visão chegou a ser defendida por Bertrand Russell, e
é conhecida como a “teoria em-em de movimento” (at-at theory of motion). Se for verdade
que, em cada instante, a flecha estaria parada, não se segue que ela estaria parada ao
considerarmos todo o intervalo.
Longmans, Green & Co., Nova Iorque, caps. 10-11; e WHITEHEAD, A.N. (1929), Process and Reality,
Macmillan, Nova Iorque. Este ponto de vista tem sido retomado mais recentemente por Ilya Prigogine.
13 MCLAUGHLIN, W.I. (1994), “Resolving Zeno’s Paradoxes”, Scientific American 271 (5), pp. 84-9. Seguimos
nesta seção as pp. 20-6 de: SALMON, W.C. (1970), “Introduction”, in Salmon (org.), op. cit. (nota 8), pp. 5-44, e
alguns comentários de HUGGETT (2004), op. cit. (nota 8), pp. 15-6. Ver também: SALMON, W.C. (1980), “A
Contemporary Look at Zeno’s Paradoxes”, in Salmon, Space, Time, and Motion: A Philosophical Introduction.
2a ed., U. of Minnesota Press, Minneapolis, pp. 31-67.
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão
12
O esclarecimento matemático dos paradoxos da pluralidade e do movimento deixa
ainda em aberto a questão da natureza microscópica do espaço e do tempo no mundo físico.
Será que a continuidade do espaço e do tempo deve ser vista antes de tudo como uma
propriedade holística? Ou será que eles podem ser decompostos em partes menores? Estas
partes teriam a estrutura dos números reais? Dos números racionais? Haveria instantes
infinitesimais? Faz sentido dizer que existem velocidades instantâneas? O espaço poderia ter
uma estrutura fractal? A teoria quântica teria algo a acrescentar a esta problemática?
6. Espaço e Tempo Discretizado na Gravidade Quântica
Nesta seção, apresentaremos superficialmente uma visão recente proposta pelo físico
Lee Smolin e colaboradores, que sugere que o espaço e o tempo seriam na verdade discretos.
Esta teoria, a gravidade quântica em loop, é um dos programas de pesquisa que concorrem
com a teoria das cordas, visando unificar as quatro interações conhecidas na física.14
A idéia de que o espaço e o tempo não seriam contínuos surgiu na metade da década
de 1980 como resultado do fracasso de tentativas anteriores de juntar a teoria da relatividade
geral com a mecânica quântica. Smolin, juntamente com Abhay Astekar, Ted Jacobson e
Carlo Rovelli, perceberam que os problemas dessa tentativa de juntar as duas teorias
poderiam ser resolvidos supondo que haveria um quantum mínimo de volume, da ordem de
10–99 cm3. Este seria um volume mínimo de espaço, e qualquer volume maior seria uma soma
destas unidades discretas mínimas.
O espaço poderia ser concebido como consistindo de um número imenso de pequenos
poliedros encostados uns aos outros. A teoria da gravidade quântica em loop (ou seja, em
circuitos fechados) substitui essa representação de volume por outra na qual cada quantum de
volume é representado por um nó ou ponto ligado aos pontos dos outros volumes adjacentes
por segmentos de reta. A rede resultante é conhecida em matemática como um “grafo”, e os
físicos e matemáticosque trabalham nesta área formularam uma maneira de exprimir estados
quânticos em termos desses grafos. Tais grafos são também chamados de “redes de spin”, e o
uso de tais redes para descrever a gravitação havia sido sugerida na década de 1960 por Roger
Penrose.
“Tudo o que existe são as linhas e os nós; eles criam o espaço, e a forma como se
conectam define a geometria do espaço” (p. 61). As partículas elementares estariam
associadas a nós e os campos às linhas entre os nós; o movimento dessas partículas se daria
em passos discretos, de nó em nó. O movimento da matéria e energia, por sua vez, alteraria o
padrão de conectividade da rede, o que refletiria na estrutura do espaço. O espaço-tempo da
teoria da relatividade geral se comportaria microscopicamente como uma “espuma” de spin.
O tempo também é descrito como evoluindo de maneira discreta, a “tiques” quantizados que
teriam a duração mínima de 10–43 segundos.
14 SMOLIN, L. (2004), “Átomos de Espaço e Tempo”, Scientific American Brasil, fev. 2004, 56-65. Sobre a teoria
das cordas, ver: ABDALLA, E. & CASALI, A. (2003), “Cordas, Dimensões e Teoria M”, Scientific American
Brasil, março 2003. Outro texto sobre os “tijolos” que comporiam o espaço e o tempo é: AMBJØRN, J.;
JURKIEWICZ, J. & LOLL, R. (2008), “Universo Quântico Auto-Organizado”, Scientific American Brasil 75, ago.
2008, 28-35.
Filosofia da Física Clássica
Cap. III
13
Filosofia Mecânica
Questão: Como explicar a gravidade sem forças à distância?
Você realmente entende o que está acontecendo quando solta uma pedra e vê ela cair?
Por que ela cai? Porque ela é atraída. Mas por que ela é atraída? Porque todos os corpos se
atraem. Mas por que eles se atraem, ou melhor, qual é o mecanismo que está por trás disso?
Podemos ficar perguntando porquês para sempre? Ou uma hora temos que parar e
aceitar uma resposta dogmaticamente? E, mudando o foco da pergunta, por que queremos
obter respostas? E por que às vezes nos satisfazemos com uma resposta, sentimos uma
felicidade de termos compreendido uma questão, só para mais tarde descobrir que tínhamos
deixado de perceber uma ambigüidade, e que o prazer da compreensão era só uma ilusão?
Qual a diferença entre explicar e compreender?
As concepções tradicionais da matéria e da gravidade, antes do século XVII, eram
basicamente três: o hilemorfismo aristotélico, o atomismo greco-romano e o naturalismo
animista.
1. Hilemorfismo e a Física Aristotélica
O hilemorfismo é a filosofia desenvolvida por Aristóteles de que todas as coisas
consistem de matéria (hile) e forma (morfe). Por “matéria” entende-se um substrato (matéria
prima) que só existe potencialmente, e que só existe em ato junto com uma forma (sobre
potência e ato, ver seção II.4). A mudança das coisas é explicada por quatro tipos de causas: o
fator material, a forma, a causa eficiente e a causa final (ou propósito). Haveria quatro
elementos básicos, terra, água, ar e fogo, cada qual tendo um par de qualidades distintivas:
terra é fria e seca; água é fria e úmida; ar é quente e úmido; fogo é quente e seco. Os
elementos tendem a se ordenar em torno do centro do mundo, cada qual em seu “lugar
natural”. Se um elemento é removido de seu lugar natural, seu “movimento natural” é retornar
de maneira retilínea: terra e água tendem a descer, ar e fogo tendem a subir. O “movimento
violento” envolve a remoção de um corpo de seu lugar natural, ou é o resultado do exercício
de uma força por um agente.
Para Aristóteles, todo movimento tem um agente (um motor) e um paciente (o
movido). A fonte do movimento é uma força (dunamin ou ísquis). No movimento natural a
força é interna, e no movimento violento ela é externa, tendo que haver contato contínuo entre
o motor e o movido. Assim, para explicar porque uma pedra arremessada continua se
movendo na horizontal, Aristóteles tinha que postular a “antiperistasis”, ou seja, o ar deslo-
cado pela frente da pedra retornaria para a parte traseira da pedra e nela exerceria uma força!
O paradigma de movimento violento é uma pessoa empurrando um objeto, como um
barco, em uma superfície, como na areia. A distância (S) percorrida em um intervalo de tempo
(T) é proporcional à força exercida (F) dividida pelo peso do corpo (P), sendo que este peso
inclui também a resistência do meio: F/P = S/T. Aristóteles tinha uma noção clara de que,
abaixo de uma certa força exercida, o movimento pode cessar (devido ao atrito estático)
(Física VII.5, 249b30-250a28).
O paradigma do movimento natural é a queda de um corpo na água. Neste caso (Física
IV.8, 215a24-b10), a força é o peso do corpo (P), e a resistência (R) exprime a densidade do
meio: P/R = S/T. Aristóteles também descreveu o movimento para cima de uma porção de
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
14
fogo com a mesma lei, indicando que a velocidade seria proporcional ao volume do objeto
(De Caelo, 309b11-15). O filósofo da ciência Stephen Toulmin (1961) salientou que esta lei é
correta no domínio de observação restrito em que o corpo atinge uma velocidade terminal de
queda, sendo uma versão simplificada da lei de Navier-Stokes. Há dois trechos em que
Aristóteles indica ter noção de que, na queda dos corpos, há alteração de velocidade (Física,
230b24-28; De Caelo, 277b4-5).
Em sua Física (IV.8, 215b12-22), Aristóteles trata da possibilidade do vazio. Como
este não oferece resistência, o movimento de queda seria infinitamente rápido, o que é
inadmissível. Assim, o vazio não existiria. Porém, em outros trechos, menciona que a
velocidade de queda dos corpos depende do peso. Na Física (VIII, 216-220), considera que se
não houvesse um meio a ser vencido (ou seja, se a queda fosse no vazio), as velocidades
seriam as mesmas!
Esse resumo indica que “Aristóteles não era um idiota”15, que fundou suas teorias em
observações, e que tinha uma noção confusa de que a queda dos corpos poderia envolver
variação de velocidade. O aristotélico Estráton de Lâmpsaco (c. 340-268 a.C.) argumentaria
que a queda dos corpos graves no ar não se dá com velocidade uniforme, pois o barulho que
um corpo faz ao cair de uma altura pequena é bem menor do que quando cai de uma altura
maior.
2. Atomismo Greco-Romano
O atomismo grego surgiu com Leucipo de Mileto (início do séc. V a.C.) e foi
desenvolvido por seu discípulo Demócrito de Abdera (c. 460-370 a.C.). Posteriormente ele se
estabeleceu como escola em Atenas no “Jardim” de Epicuro (341-270 a.C.), e foi difundido
no mundo romano por Lucrécio (c. 99-55 a.C.), em seu famoso poema Da Natureza das
Coisas.
Segundo esta visão, só teriam realidade os átomos e o espaço vazio. Cada átomo,
imperceptível para os nossos sentidos, teria uma forma e um tamanho imutável, e seria
indivisível. Haveria um número infinito de átomos espalhados no vazio infinito. Eles estariam
em movimento contínuo, chocando-se freqüentemente uns com os outros. Nas colisões, os
átomos poderiam rebater ou então se ligar através de ganchos ou formas complementares. As
propriedades primárias dos átomos, para Demócrito, seriam três: a forma de cada átomo (o
que inclui o tamanho), sua posição (o que inclui sua orientação em relação a outros átomos), e
o arranjo de um conjunto de átomos. Epicuro adicionou o peso a esta lista.
Epicuro incumbiu-se da tarefa de responder às críticas de Aristóteles ao atomismo.
Dentre essas, estava a crítica à concepção de como os mundos teriam se originado. Segundo
Demócrito, os átomos originariamente estariam “caindo” no vazio, todos na mesma direção
paralela. Átomos maiores cairiam com maior velocidade, se chocariam com os mais lentos e,
assim, se iniciariam movimentos em todas as direções,que acabariam formando os mundos,
num dos quais nós viveríamos (os outros mundos estariam espalhados pelo espaço infinito).
Vimos que Aristóteles mencionou que, se houvesse o vazio, os átomos deveriam cair com a
mesma velocidade, e assim não poderiam se chocar uns com os outros, para formar os
mundos. Epicuro (ou Lucrécio, segundo alguns autores) resolveu o problema da formação dos
mundos introduzindo um pequeno movimento aleatório lateral (“clinamen”), um movimento
15 Comentário de CASPER, B.M. (1977), “Galileo and the Fall of Aristotle: A Case of Historical Injustice?”,
American Journal of Physics 45, 325-30. Ver também KATZ, J. (1943), “Aristotle on Velocity in the Void”,
American Journal of Philology 64, 432-5, e TOULMIN, S. (1961), Foresight and Understanding, Harper & Row,
Nova Iorque, p. 50.
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
15
sem causa, para explicar a progressiva agregação dos átomos. Esse movimento sem causa de
“átomos espirituais” seria também usado para explicar a liberdade da alma.
Os atomistas eram materialistas, pois consideravam que, na morte, os átomos
espirituais se desagregariam, ou seja, a alma seria fruto da matéria. No séc. XVII, o atomismo
seria discutido especialmente por Pierre Gassendi, dentro da visão de mundo do catolicismo.16
3. Naturalismo Animista
Outra corrente que foi importante nos primórdios da ciência pode ser chamada de
naturalismo animista. Esta posição considera que a natureza tem uma espécie de alma ou
vida. Na Antigüidade, ela pode ser associada aos pitagóricos, ao taoísmo na China e ao
estoicismo, entre outros. No Renascimento, o naturalismo animista ressurgiu com vigor, e
considerava que a natureza seria imbuída de uma espécie de alma, que fazia as partes
separadas (como as de um imã) desejarem se unir novamente, regidos por forças de simpatia e
antipatia. Para a escolástica aristotélica, havia uma ordem racional da natureza que o intelecto
poderia penetrar. Por contraste, o naturalismo renascentista salientava o mistério de uma
natureza opaca à razão, só cognoscível através da experiência.
Os representantes típicos desta corrente eram os alquimistas, como o suíço Paracelso
(1493-1541) e o alemão Andreas Libavius (1560-1616). A finalidade da alquimia era
conseguir a transmutação dos metais em ouro e descobrir um elixir da vida eterna e cura de
todas as doenças. Introduziram a idéia de utilizar agentes químicos na medicina, além das
ervas medicinais. A concepção alquímica da matéria baseava-se em três princípios: sal,
enxofre e mercúrio. O naturalismo renascentista foi também influenciado pelo hermetismo,
uma tradição semi-religiosa e mágica vinda da Antigüidade, que ensinava que o homem é
capaz de descobrir elementos divinos dentro de si, defendendo uma afinidade mística entre o
mundo e a humanidade, entre o macrocosmo e o microcosmo. Essa afinidade seria também a
base teórica da astrologia.
Uma das mais importantes obras dentro da tradição do naturalismo renascentista foi o
De Magnete, escrito em 1600 pelo inglês William Gilbert (1544-1603). O magnetismo seria
uma “matéria telúrica”, seria a chave para se compreender a natureza. Ele seria um poder não-
corpóreo, a “alma da Terra”, já que a intervenção de objetos entre dois imãs não afeta a
atração. Contrastou eletricidade e magnetismo da seguinte maneira: a primeira envolveria
uma ação da matéria, com força e coesão; a segunda seria uma ação da forma, com união e
concordância. Johannes Kepler (1571-1630) foi influenciado por esta tradição, ao conceber
que o Sol seria a anima motrix (alma motiva) que exerceria uma força nos planetas, fazendo-
os orbitar em torno de si. Imaginou que essa atração seria de natureza magnética.17
Em suma, para o naturalismo animista a gravidade é explicada por uma atração entre
os corpos, que possuem uma espécie de alma, e que é semelhante ao amor entre os seres
vivos. Da mesma maneira que um filho separado da mãe é por ela atraído, e que um imã
16 Um relato detalhado dos atomistas está em LANGE, F.A. (1974), The History of Materialism, trad. E.C.
Thomas, Arno Press, Nova Iorque (1a ed. em alemão: 1866; 2a ed.: 1875). E dele a hipótese discutível de que
Epicuro teria introduzido o clinamen para responder a Aristóteles (p. 26). Uma boa fonte da história da ciência
grega é: LLOYD, G.E.R. (1970), Early Greek Science: Thales to Aristotle, e LLOYD (1973), Greek Science after
Aristotle, ambos da Norton, Nova Iorque.
17 Sobre o naturalismo renascentista, ver WESTFALL, R.S. (1971), The Construction of Modern Science,
Cambridge U. Press, pp. 25-31, e também RONAN (1987), História Ilustrada da Ciência da Universidade de
Cambridge, 4 vols., J. Zahar, Rio de Janeiro; Círculo do Livro, São Paulo (orig. em inglês: 1983), vol. III, pp.
11-15, 28-36.
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
16
separado em dois deseja se unir novamente, assim também os princípios de simpatia e
antipatia regeriam o comportamento dos corpos celestes.
4. A Filosofia Mecânica
Os trabalhos de Copérnico e Galileu abriram o caminho para o ressurgimento da
antiga tradição “materialista”, representada pelos atomistas, resultando no que viria a ser
chamado de filosofia mecânica (termo usado por Boyle), em que os princípios explicativos
envolvem apenas matéria e movimento. Curiosamente, esta visão de mundo surgiu no seio do
cristianismo, como uma reação contra o naturalismo animista, a partir do padre Marin
Mersenne (1623)18. Para ele, a ameaça das doutrinas naturalistas estava na concepção de que a
matéria seria “ativa”, o que retiraria de Deus e dos próprios seres humanos a responsabilidade
pelas questões humanas. Se não houvesse atividade alguma na matéria, como queria
Mersenne, Deus teria que ser invocado para explicar essa atividade.
Na filosofia mecânica, portanto, matéria e espírito estavam separados. A matéria seria
regida apenas por causas eficientes externas, provenientes de choques, e seria “inerte”, sem
atividade ou potência internas, o que seria expresso no “princípio de inércia” da mecânica
clássica. Acabava-se com o “mistério do mundo” do naturalismo animista, e salientava-se a
transparência do mundo à razão. Deus teria criado o Universo de uma só vez, pondo a matéria
em movimento de uma vez por todas. Este movimento se conservaria, seria indestrutível. O
mundo material mover-se-ia apenas em conseqüência dos choques entre os corpos, como o
mecanismo de um relógio, seguindo a necessidade das leis da física.
Na física, a concepção mecanicista tornou-se hegemônica durante uns oitenta anos a
partir de 1644, sendo compartilhada por cientistas (Descartes, Huygens, Hooke, Boyle, o
jovem Newton) e filósofos (Gassendi, Mersenne, Hobbes). Esta visão de mundo seria
lentamente destruída pela ascensão da física de Newton e da astronomia de Kepler no
continente europeu, a partir de 1720. Com isso, a noção de força gravitacional passou a ser
aceita sem que se postulasse um mecanismo subjacente.
5. A Física e Cosmologia de Descartes
René Descartes (1596-1650) ganhou fama com seu Discurso do Método (1637), que
continha um apêndice, A Geometria, no qual mostrou como escrever curvas geométricas em
termos de equações algébricas, e vice-versa (Pierre de Fermat também estava desenvolvendo
isso, de maneira independente). Em 1644 publicou o Princípios de Filosofia, que buscou
explicar todos os fenômenos físicos (incluindo químicos, geológicos e astronômicos) em
termos de matéria em movimento.19
A matemática tinha um papel central na concepção cartesiana. A geometria,que lidava
com formas no espaço, podia ser deduzida a partir das idéias claras e distintas do intelecto. A
física tratava de matéria em movimento. Um engenhoso passo de Descartes foi identificar a
matéria com a extensão, de tal maneira que a física passaria a ser uma geometria de figuras
em movimento (“extensão” significa espaço, volume). Identificando matéria e extensão,
18 Ver GAUKROGER, S. (1999), Descartes – Uma Biografia Intelectual, Contraponto, Rio, pp. 191-8.
19 DESCARTES, R. (2005), Princípios de Filosofia, trad. Heloísa Burati, Rideel, São Paulo, pp. 189-93 (orig. em
latim: 1644). As Figs. III.1 e 2 são retiradas deste livro. Sobre a filosofia mecânica em Descartes, pode-se
também consultar DIJKSTERHUIS, E.J. (1986), The Mechanization of the World Picture, trad. C. Dikshoorn,
Princeton U. Press, pp. 403-18 (orig. em holandês: 1950), e WESTFALL (1971), op. cit. (nota 17), pp. 30-42.
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
17
quatro conseqüências eram imediatamente tiradas: i) Como o espaço é infinito, também o
seria a matéria. ii) Como o espaço é homogêneo, haveria a mesma matéria por toda parte. iii)
Como o espaço é infinitamente divisível, assim também seria a matéria, o que negava o
atomismo. iv) Como não faria sentido pensar num espaço sem extensão, não haveria espaço
sem matéria: o vácuo seria impossível.
Descartes partiu de um princípio a priori (anterior à experiência) para derivar as leis
gerais da física, a perfeição de Deus, e sua conseqüente invariabilidade. Porém, observamos
mudança no mundo, significando que Deus quis que o mundo estivesse em movimento. Há
portanto variação, mas tal variabilidade deve ser a mais simples possível, a mais “invariável”
possível. Isso equivaleria a um ato contínuo de conservação da quantidade de movimento
(quantitas motus) total do Universo. Tal quantidade, segundo Descartes, seria medida pelo
produto da quantidade de matéria (massa) do corpo pela velocidade do mesmo corpo: m·v. O
princípio de conservação de quantidade de movimento diz então que a soma da quantidade de
movimento (m·v) de todos os corpos do Universo é sempre a mesma. É um princípio que
ainda se aceita hoje em dia, e quem o formulou pela primeira vez foi Descartes, a partir da
idéia clara e distinta de Deus. Na verdade, o princípio hoje aceito tem uma diferença
importante, que é que a velocidade precisa ser tomada como um “vetor” (com direção), e não
simplesmente como um “escalar” (um número simples, sem direção).
Com isso, passa a enunciar três leis da natureza. A primeira é uma lei de inércia geral:
cada coisa permanece no estado em que está, enquanto não encontra outras causas exteriores.
Assim, um objeto tem a tendência natural de manter sua forma, por exemplo. A segunda lei é
a da inércia linear: todo corpo que se move tende a continuar seu movimento em linha reta,
com a mesma velocidade. Essa idéia surgiu com Galileu, mas para o cientista italiano o
movimento inercial acabava sendo um movimento circular em torno da Terra. Para Descartes,
em contrapartida, o movimento inercial (livre de causas) é sempre linear. Assim, um corpo
que gira em uma corda (uma funda, Fig. III.1), se for liberado durante o movimento, escapará
em linha reta. E essa tendência é permanente, conforme podemos sentir pela força com a qual
a pedra girante puxa, tensiona, a corda. A terceira lei envolve um conjunto de sete regras para
descrever o choque entre os corpos, mas os filósofos naturais da época mostrariam que essas
leis estavam erradas, levando Huygens, Wallis e Wren a formularem independentemente as
leis corretas, em torno da década de 1660.
A cosmologia de Descartes baseava-se na noção de que cada estrela tinha em torno de
si um grande vórtice, que giraria da maneira como faz o nosso sistema solar (Fig. III.2). Ou
seja, o Sol é uma dentre as várias estrelas, e os planetas orbitam à sua volta porque são
carregados por uma espécie de redemoinho de matéria. Descartes fez observações de
redemoinhos em tonéis de vinho, e pode-se observar que objetos flutuantes giram em torno de
si mesmos no mesmo sentido que a rotação do líquido: ora, é exatamente isso que acontece
com os planetas do Sistema Solar!
Haveria três tipos de matéria. O 1o elemento, chamado também de “matéria sutil”,
seria constituído de lascas minúsculas que teriam se separado do choque entre a matéria dos
outros tipos. Elas teriam um movimento muito rápido, seriam luminosas e formariam a
matéria do Sol e das outras estrelas. Teriam migrado para o centro do vórtice por causa da
tendência da matéria mais grossa de se afastar do centro. O 2o elemento seria constituído por
partículas arredondadas que preencheriam os céus. Seria a matéria transparente que carregaria
os planetas em órbita circular. O 3o elemento seria a matéria mais grossa que constitui a Terra,
os planetas e os cometas. Ela seria opaca, apesar de o ar ser tão fino que aparece transparente.
A “matéria celeste”, que a tudo permeia, seria constituída principalmente do 2o elemento, mas
também conteria a matéria sutil e fragmentos do 3o elemento, incluindo ar (Princípios de
Filosofia, IV, § 25).
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
18
O 3o tipo de matéria, que nos cerca, é cheio de interstícios, como uma esponja, e essas
fendas estão sempre preenchidas pela matéria celeste, já que o vácuo é impossível. Da mesma
maneira que uma esponja aumenta de tamanho quando ela é embebida em água, a matéria
terciária expande quando é aquecida e preenchida pela matéria celeste.
A quantidade de matéria (o que viria a ser chamada “massa”) é dada pelo volume
ocupado pela matéria terciária. Sendo assim, por que dois objetos de igual volume (digamos
1 litro), um de chumbo e outro de cera, têm pesos diferentes? A explicação de Descartes é que
o chumbo tem poucos interstícios, ao passo que a cera tem muitos. Assim, o volume
efetivamente ocupado pela matéria celeste é bem maior na cera do que no chumbo.
Figura III.1. Pedra em movimento
circular que é solta de uma funda
segue a trajetória retilínea ACG.
Figura III.2. Vórtices
associados a diferentes
estrelas. O Sol (S) está
cercado pelas trajetórias
circulares de seus planetas.
Vê-se também a trajetória de
um cometa por entre as
células de cada vórtice.
6. Explicação da Gravidade segundo a Filosofia Mecânica
Por que sentimos que o chumbo é mais pesado do que a cera? Qual a origem da
gravidade? Descartes considerava que a Terra gira em torno de seu eixo movido pelo vórtice
de matéria celeste. Na superfície da Terra, tal matéria se move mais rapidamente do que os
corpos grossos, como se fosse um vento. Sua tendência para sair para fora (em movimento
“centrífugo”, assim como a funda mencionada acima) seria maior do que os corpos de matéria
terciária, mais lentos. Essa saída da matéria celeste (que se daria inclusive por entre os
interstícios dos corpos mais grossos) tende a criar um vácuo em baixo da matéria terciária, de
forma que esta tem uma tendência a preencher este (quase) vácuo, descendo verticalmente (a
mesma explicação era também dada em termos de diferenças de pressão da matéria celeste).
Assim, os corpos caem, devido à rotação da matéria celeste em torno da Terra, para preencher
o espaço deixado por essa matéria celeste. A explicação para a órbita da Lua em torno da
Terra é a mesma: matéria celeste se afasta da Terra, devido ao movimento do vórtice em torno
de nosso planeta, e a Lua é obrigada a preencher o vácuo que se formaria, desviando assim de
seu trajeto retilíneo natural.
Mas por que um corpo mais pesado que caiem nossa mão gera uma sensação mais
intensa de força? Ora, os corpos caem com a mesma velocidade, como demonstrara Galileu
(desprezando-se, é claro, o efeito retardador do ar). Pelas leis do choque, um corpo com mais
matéria terciária (como o litro de chumbo) transmite mais quantidade de movimento
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
19
(velocidade) para a nossa mão do que o corpo com menos matéria terciária (como o litro de
cera). Assim, o chumbo que cai em nossa mão é mais difícil de segurar.
E se os dois corpos estiverem parados em nossa mão? Neste caso, por que o litro de
chumbo é mais difícil de segurar do que o de cera? Aí eu não sei, pergunte ao René!
A teoria da gravitação de Descartes tinha um problema sério, que era o fato de que a
tendência centrífuga da matéria celeste de se afastar do centro de rotação, digamos da Terra,
se dava apenas no plano perpendicular ao eixo da Terra. Por que então os corpos caem em
direção ao centro da Terra, mesmo fora do Equador?
Christiaan Huygens (1629-95) buscou resolver este problema em seu Discurso sobre a
Causa do Peso, redigido em 1669 mas só publicado em 1690.20 Substituiu o vórtice
cilíndrico de Descartes por um vórtice esférico, imaginando que as partículas da matéria
etérea giram em torno da Terra em todas as direções. A velocidade v dessas partículas
obedeceria à relação v2/r = g, onde r é o raio da Terra e g a aceleração dos corpos em queda
livre. Uma pedra que fosse solta no ar seria atingida em sua parte superior por matéria celeste
de velocidade maior, e assim, segundo ele, tenderia para o centro da Terra. Para sustentar sua
teoria, Huygens realizou experimentos em uma mesa giratória com um recipiente cilíndrico de
água, com seu centro no eixo de rotação da mesa. Pedaços de cera levemente mais pesados do
que a água, que se encontravam no fundo do recipiente, tendiam para o centro do recipiente
(isto é, para o eixo de rotação) a partir de uma certa velocidade de rotação, já que não
conseguiam acompanhar o movimento da água (devido ao atrito com o fundo do recipiente).
A teoria mecânica dos vórtices planetários explicava bem o fato de os planetas se
moverem no mesmo plano em torno do Sol, em movimento aparentemente circular, e de suas
rotações e revoluções se darem no mesmo sentido. Nas palavras de Huygens (1686): “Os
planetas nadam em matéria. Pois, se não o fizessem, o que impediria os planetas de se
afastarem, o que os moveria? Kepler quer, erroneamente, que seja o Sol.”
A teoria da gravitação de Newton (1687) foi a primeira a explicar as leis de Kepler, e a
evidência experimental a favor de órbitas elípticas levou tanto Huygens quanto Leibniz a tentar
formular uma explicação mecânica para elas, em 1690 (até Newton tentou fazer isso, como
aparece na Questão 21 de seu livro Opticks). O primeiro efeito da obra de Newton foi então o
fortalecimento da teoria mecânica dos vórtices planetários. Mas a partir de 1720, a nova geração
de físicos no Continente Europeu se convenceu da superioridade do programa newtoniano.21
7. Teoria Cinética da Gravitação
Em 1782, muito tempo depois da queda da filosofia mecânica, George Louis Le Sage,
em Genebra, encontrou uma maneira elegante de explicar a lei da gravitação de Newton por
meio de princípios mecânicos (ou seja, envolvendo apenas forças de contato). Sua teoria pode
ser chamada uma “teoria cinética da gravitação”, inspirada na idéia formulada por Daniel
Bernoulli para gases, em 1738. Na verdade, sua teoria é semelhante a uma proposta feita por
um matemático suiço, amigo de Newton, Nicolas Fatio de Duillier, em torno de 1693.
A ontologia de Le Sage envolve “corpúsculos ultramundanos”, bastante leves, que
bombardeariam todos os corpos pesados de todos os lados. Um corpo perdido no espaço
receberia um número de impactos mais ou menos igual de todos os lados, permanecendo
20 DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 461-3. Ver também MARTINS, R.A. (1989), “Huygens e a
Gravitação Newtoniana”, Cadernos de História e Filosofia da Ciência (série 2) 1, 151-84.
21 BAIGREE, B.S. (1988), “The Vortex Theory of Motion, 1687-1713: Empirical Difficulties and Guiding
Assumptions”, em Donovan, A.; Laudan, L. & Laudan, R. (orgs.), Scrutinizing Science, (Synthese Library 193).
Kluwer, Dordrecht, pp. 85-102.
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica
20
assim em um estado inercial. Mas quando dois corpos estão próximos, como a Terra e a Lua,
um deles bloquearia parte dos corpúsculos ultramundanos que atingiria o outro, como na
formação de uma sombra. Desta forma, os corpos se atrairiam. Le Sage ajustou seus
parâmetros de forma a obter a lei da gravitação de Newton. Para explicar porque corpos mais
densos exercem maior força gravitacional, Le Sage teve que adotar a teoria cartesiana da
matéria, e supor que um corpo menos denso tem mais espaço vazio em seu interior.
A teoria cinética da gravitação é uma idéia que periodicamente volta à cena, ora
defendida por detratores da física “oficial”, ora incorporada em teorias cosmológicas
sofisticadas.22
22 BRUSH, S.G. (1976): The Kind of Motion We Call Heat, North-Holland, Amsterdã, vol. 1, pp. 21-2. Este
menciona alguns autores do século XX que retomam esta idéia. Ver também: GOUGH, J.B. (1970), “Lesage,
George-Louis”, em Dictionary of Scientific Biography, Scribners, Nova Iorque, vol. 8, pp. 259-60.
Filosofia da Física Clássica
Cap. IV
21
Concepções Realista e Instrumentalista de “Força”
Questão: A ciência deve apenas descrever o que é observável ou deve lançar
hipóteses sobre a realidade que estaria por trás dos fenômenos?
1. Mecanicismo com Forças à Distância
O trabalho de Isaac Newton (1642-1727) pode ser visto, por um lado, como a
culminação da tradição de pesquisa da filosofia mecânica, ao enunciar suas três leis da
mecânica (princípio de inércia, definição de força e princípio de ação e reação). No entanto,
especialmente em seu estudo da lei de atração gravitacional, introduziu a concepção de uma
força que age à distância. Ao fazer isso, injetou no programa mecanicista um elemento da
tradição do naturalismo animista (de Kepler), e foi bastante criticado por isso. No entanto, não
seguiu explicitamente a concepção de realidade desse naturalismo renascentista, mas adotou
uma postura “instrumentalista” de renunciar à busca de uma explicação mecânica para esta
atração.
Em sua juventude, Newton era partidário da concepção mecânica de Descartes e
Huygens, adotando a visão atomista divulgada principalmente por Pierre Gassendi. No
período 1664-66, estudou a mecânica de Descartes e assimilou o princípio de inércia e as leis
do choque entre corpos23. A noção de “força”, “a potência de uma causa”, era concebida
como uma pressão de um corpo sobre outro, estando restrita a choques entre corpos. Desses
autores, herdou a noção de que a força exercida por um corpo em outro, durante um choque, é
igual à força recebida. Passou a estudar os movimentos circulares, imaginando uma bola que
está presa em uma arena circular, e se move chocando-se constantemente com as paredes da
arena. Derivou uma expressão para a força “centrífuga” (também estudada por Huygens), que
descreve o movimento de fuga em relação ao centro (e não uma atração): F = mv2/r. Juntou
este resultado com a 3a lei de Kepler (que relaciona os períodos e os raios médios das órbitas
dos planetas: T 2/r3 = cte.), e encontrou uma força que decresce com a distância de acordo com
1/r2 (faça como exercício, lembrando que v=2πr/T). Ao aplicar esta fórmula para a “queda”da
Lua (usando a lei de Galileu, d = ½ at2 ), encontrou uma discrepância de uns 15%, e deixou a
questão de lado. Além disso, Newton não tinha ainda a noção de uma força de atração.
Ao finalizar esses estudos, em 1666, Newton abandonou a mecânica e foi trabalhar com
matemática e com óptica. Em 1675, após realizar importantes pesquisas em óptica, esboçou uma
visão de mundo que seguia Descartes em sua concepção de que a gravidade podia ser explicada a
partir do movimento das partículas do éter, que ocupariam todo o espaço. No entanto, adotava um
princípio secreto de “sociabilidade” para explicar algumas reações químicas. Neste ano, ficou
sabendo de uma correção para o valor de um grau de latitude, medida pelo astrônomo francês
Jean Picard em 69,1 milhas inglesas, ao invés do valor de 60 milhas que Newton usara em seu
cálculo da queda da Lua em 1666. Com essa correção, a lei da força gravitacional que ele havia
encontrado passou a explicar bem o movimento da Lua.
Em 1679, recebeu um convite de Robert Hooke (1635-1703) para reexaminar o
problema dos movimentos planetários. Após algumas dificuldades iniciais, Hooke lhe sugeriu
usar uma lei de atração com uma força proporcional a 1/r2. Deu alguns passos adiante, mas
teve uma crise nervosa e acabou abandonando as pesquisas, recuperando-se ao longo de cinco
anos. Finalmente, em 1684, o astrônomo Edmund Halley visitou Newton, perguntando ao
exímio matemático qual seria a trajetória de um corpo orbitando com uma força de atração
23 Seguimos WESTFALL (1971), op. cit. (nota 17), pp. 120-59, e DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 463-91.
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
22
proporcional a 1/r2, ao que Newton respondeu que seria uma elipse, conforme tinha calculado
cinco anos antes para o problema de Hooke. As peças então se encaixaram, e Newton retomou
seu trabalho em mecânica, recebendo estímulo e auxílio financeiro de Halley. Disso resultou a
publicação da grandiosa obra Philosophiae naturalis principia mathematica (Princípios
naturais da filosofia natural, 1687).
Outra obra importante de Newton foi seu Opticks (1704). Nesta, estendeu sua
concepção – de que existem forças que atuam à distância entre todos os corpos – para todas as
partículas, inclusive átomos e partículas de luz. Tais forças poderiam ser de atração, o que
explica a coesão dos corpos e a capilaridade, e também de repulsão, como na expansão dos
gases. O magnetismo seria outro exemplo importante de forças atuando à distância. Reações
químicas também poderiam ser explicadas por meio da atração e repulsão no nível
microscópico. Ao final do séc. XVIII, essa concepção tornar-se-ia o paradigma dominante
(especialmente para o grupo que trabalhava em torno de Laplace), no que às vezes é chamado
a visão “astronômica” da natureza: partículas imponderáveis (sem peso) sujeitas a forças de
atração e repulsão.
2. Definições e Leis no Principia
O Livro I do Principia não falou em gravitação, mas apresentou os princípios gerais
da mecânica, com definições básicas e as suas três leis. Com estas leis e a noção de força
centrípeta (força central), Newton derivou as três leis de Kepler. No Livro II, considerou
sistemas com fluidos, e criticou a concepção cartesiana de vórtices para o sistema solar. No
Livro III, aplicou sua teoria para a descrição detalhada do sistema solar, mostrando que a lei
da gravitação é a mesma para as luas de Júpiter, para os planetas em torno do Sol e para um
corpo caindo na superfície da Terra. Enunciou então a lei da gravitação universal.
É interessante enfocarmos os conceitos fundamentais apresentados por Newton24,
buscando entender se esses fundamentos são extraídos da observação ou formulados
teoricamente.
Seguindo o método axiomático de Euclides, como era costume no séc. XVII, Newton
parte de oito definições. A primeira é do conceito de massa, que chamava “quantidade de
matéria”, e define como o produto da densidade e do volume. Tal definição passou a ser
considerada problemática, já que ele não define o que seria “densidade”. Com o
desenvolvimento do texto, certas propriedades de “massa” deixaram claro que ela se distingue
da noção de “peso”, conceitos esses que antes de Newton não eram distinguidos claramente
(salvo em Kepler).25
A segunda definição é de “quantidade de movimento”, hoje em dia às vezes chamada
de “momento linear”, que seria o produto da massa e da velocidade. As definições 3, 4 e 5
apresentam uma lista de três tipos de “força”. O que chama de “força inata da matéria” (vis
insita) é o que chamamos de inércia, uma tendência do corpo de resistir à ação de forças
externas, e de permanecer em seu “estado”, seja ele de repouso ou movimento retilíneo
uniforme. A “força imprimida é uma ação exercida sobre um corpo para modificar seu
estado”. É o nosso conceito atual de força, e é exemplificado pela percussão ou pela pressão
(como era costume na filosofia mecânica) e também pela força centrípeta (o que era uma
novidade). A força centrípeta, descrita na sexta definição, é aquela dirigida para um ponto, e
24 Trechos relevantes de Newton se encontram na excelente coletânea de COHEN, I.B. & WESTFALL, R.S. (orgs.)
(2002), Newton: Textos, Antecedentes, Comentários, trad. Vera Ribeiro, Contraponto/Ed. UERJ, Rio de Janeiro,
pp. 152-7, 278-91. (Original em inglês: 1995).
25 Ver JAMMER, M. (1964), Concepts of Mass in Classical and Modern Physics, Harper & Row, Nova Iorque.
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
23
exemplificada pela gravidade (atuando sobre projéteis e sobre a Lua), pelo magnetismo, pela
força dos planetas (neste momento ainda não identificado com a gravidade) e pela força de
uma funda (ou seja, a força elástica ou a tensão em uma corda).
Nas definições seguintes, caracteriza três tipos de “quantidades” de uma força
centrípeta. A primeira é a “quantidade absoluta”, que no caso de uma força elétrica estaria
relacionada com a carga de um corpo. Ele não apresenta este exemplo, mas sim o da força
magnética, cuja “carga” estaria relacionada ao tamanho do imã e à sua intensidade. No caso
de uma força gravitacional, a quantidade absoluta seria a massa do corpo que gera a força (o
que poderíamos chamar a “carga gravitacional”).
A “quantidade aceleradora” de uma força centrípeta seria simplesmente sua
aceleração, a “velocidade que ela gera em um determinado tempo”. Na superfície da Terra, a
quantidade aceleradora é igual para dois corpos, “retirando ou descontando a resistência do
ar”. Já em montanhas elevadas, ela é menor.
Na definição 8, apresenta a “força motriz”, que equivale à nossa noção atual de força,
e é exemplificado pelo peso. O enunciado exprime claramente a noção de uma força contínua,
que em um “determinado intervalo de tempo” gera um movimento, ou seja, gera uma variação
na quantidade de movimento. Esta definição se aproxima bem da nossa concepção atual da
expressão F = ma, ao contrário da 2a lei, como veremos a seguir.
Newton pôde assim afirmar (p. 282) que “a força de aceleração está para a força
motriz assim como está a celeridade para o movimento”, ou seja, a/F = v/p, já que a
quantidade de movimento é p = mv e a força motriz é F = ma.
No escólio que se segue, diz que não irá definir tempo, espaço, lugar e movimento,
pois esse conceitos “são bem conhecidos de todos”. Com referência ao tempo, distingue entre
o tempo absoluto, real, matemático, que “flui uniformemente, sem relação com qualquer coisa
externa”, e o tempo relativo, que seria “uma medida sensível e externa”. Analogamente,
haveria o espaço absoluto, sem relação com coisas externas,e o espaço relativo, que seria
uma medida do espaço absoluto. Analogamente, haveria um “lugar” (volume) absoluto e um
relativo, e também um movimento absoluto e um movimento relativo. No Cap. V
discutiremos mais a fundo esta distinção.
Mais adiante no Livro 1, Newton apresenta suas famosas três leis. A 1a lei é o
princípio de inércia, que afirma que um corpo permanece em seu estado de movimento
uniforme (velocidade constante) “a menos que seja compelido a modificar esse estado por
forças imprimidas sobre ele”.
A 2a lei afirma que “a variação do movimento é proporcional à força motriz
imprimida, e ocorre na direção da linha reta em que essa força é imprimida”. Por
“movimento” entende-se a quantidade de movimento p = mv (introduzimos o negrito para
designar grandezas vetoriais). A interpretação mais natural para o leitor moderno é supor que
Newton está afirmando que a força motriz é a derivada temporal do momento linear, ou seja,
F = d/dt (mv), que seria equivalente a F = ma.
Dijksterhuis (1986, pp. 470-4), porém, observa que a noção de força usada por
Newton em seus cálculos é de uma força impulsiva I, como em um choque entre corpos, que
resulta em uma variação finita de momento: I = ∆(mv). Para sustentar esta interpretação, o
historiador holandês refere-se ao Corolário 1 que se segue às leis, cujo enunciado é o
seguinte:
“Um corpo que sofre a ação de duas forças simultâneas descreve a diagonal de um
paralelogramo no mesmo tempo em que descreveria os lados do paralelogramo por essas
forças, separadamente” (ver Fig. IV. 1).
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
24
Figura IV.1: Paralelogramo descrevendo os
movimentos resultantes de forças impulsivas
exercidas em A.
Newton salienta que o movimento de A para B, etc., é uniforme, de forma que está
claro, neste caso, que a força exercida em A é impulsiva. A 2a lei garante que as duas forças
agindo em A agem de maneira independente, resultando no movimento de A para D. Este é
um bom exemplo de uma soma linear de causas.
É verdade que Newton parecia ter a noção de uma força que age de maneira contínua,
como exprimiu em sua Definição 8 (e também em seu Corolário 2, que não mencionamos),
mas a utilização da 2a lei em seus cálculos envolve sempre uma força impulsiva. Quem
consolidou a concepção moderna de F = ma, para forças de todos os tipos, foi Leonhard Euler
(1707-83), em 175026.
A 3ª lei de Newton é a lei de ação e reação: “para cada ação existe sempre uma reação
igual e contrária”. Se um corpo A exerce uma força FAB sobre um corpo B, então
necessariamente haverá uma força –FAB sendo exercida em A.
O Corolário 3 mostra como o princípio de conservação da quantidade de movimento
segue das 2a e 3a leis. O Corolário 4 mostra que o “centro de gravidade” de corpos
interagentes permanece em seu estado de movimento inercial.
3. A Natureza da Força
Qual é a natureza da “força”? Seria ela uma vera causa, um processo real que resulta
nos movimentos observados? Ou seria ela apenas uma construção matemática obtida a partir
dos movimentos observados?27 Newton oscila entre essas duas concepções.
Em seu famoso “Escólio Geral”, escrito em 1713, na 2a edição do Principia, Newton
afirma: “Até hoje, entretanto, não pude descobrir a causa dessas propriedades da gravidade
dos fenômenos, e não invento hipóteses; pois o que quer que não seja deduzido dos
fenômenos deve ser chamado de hipótese, e as hipóteses, sejam elas metafísicas ou físicas, de
qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental” (in COHEN &
WESTFALL, 2002, pp. 154-5).
Para entender o que Newton quis dizer com isso, é preciso distinguir duas acepções do
termo “hipótese”. (i) No sentido mais usual hoje em dia, uma hipótese é qualquer tese que
conjeturamos sem que ela ainda tenha sido submetida a teste. (ii) No sentido usado por
Newton, é uma conjectura a respeito da natureza não-observável que estaria por trás dos
fenômenos observáveis.
Na verdade, antes de escrever o Principia, Newton trabalhou em uma teoria
“mecanicista” da gravitação (ou seja, só com forças de contato, como em Descartes, ver cap.
II). Isso aparece em uma carta a Boyle em 1678, e reaparece na Questão 21 do Opticks. Tendo
fracassado em sua tentativa, declarou então que “não invento hipóteses” (hypotheses non
26 TRUESDELL, C. ([1960] 1968), “A Program toward Rediscovering the Rational Mechanics of the Age of
Reason”, in Essays in the History of Mechanics, Springer, Berlim, pp. 84-137. Ver pp. 112-7.
27 Essa maneira de apresentar a distinção é feita na seguinte interessante bibliografia sobre os problemas
filosóficos da mecânica clássica: HESSE, MARY (1964), “Resource Letter PhM-1 on Philosophical Foundations
of Classical Mechanics”, American Journal of Physics 32, 905-11.
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
25
fingo), ou seja, que não há necessidade de estipular causas ou mecanismos ocultos, já que a
expressão matemática da lei de atração universal é suficiente para que se explique o
movimento dos corpos celestes. Tal atitude pode ser chamada “instrumentalista”, em oposição
ao “realismo” da filosofia mecânica.
4. Realismo, Instrumentalismo, Descritivismo
A discussão envolvendo o realismo científico e seus opositores é conhecida como a
questão do “estatuto cognitivo das teorias científicas”.28
Segundo o realismo, uma teoria bem confirmada deve ser considerada literalmente
verdadeira ou falsa, no mesmo sentido em que um enunciado particular é considerado
verdadeiro ou falso. Assim, (i) as entidades postuladas pela teoria teriam realidade, no mesmo
sentido em que objetos cotidianos são reais, mesmo que elas não sejam observáveis (como
“quarks” ou “partículas virtuais”); (ii) as leis teóricas e princípios gerais seriam verdadeiros
ou falsos, exprimindo a estrutura da realidade. Porém, como as teorias científicas geralmente
envolvem aproximações ou simplificações, deve-se entender a verdade através da noção de
“verdade aproximada” ou do conceito de “verossemelhança”.
Na Antigüidade, a física era vista como uma ciência que buscava explicações
verdadeiras sobre o mundo, lançando hipóteses sobre as verdadeiras causas dos fenômenos.
Na astronomia, porém, com o desenvolvimento da técnica de epiciclos para prever as posições
dos astros, passou-se a considerar que a tarefa da astronomia seria apenas “salvar os
fenômenos”, ou seja, descrever com precisão as observações, fazendo previsões precisas, sem
se preocupar com a verdade. Segundo esta versão forte do instrumentalismo, uma teoria
científica seria apenas um instrumento para se fazerem previsões, e não havia a pretensão de
que os epiciclos correspondessem à realidade por detrás dos fenômenos astronômicos. Um
exemplo clássico de discurso instrumentalista foi o prefácio escrito por Andréas Osiander29 ao
livro de Nicolau Copérnico, salientando que não seu sistema astronômico não tinha a
prestensão de ser verdadeiro, salvar os fenômenos, fornecendo “um cálculo coerente com as
observações”, e não um retrato real do Universo.
O descritivismo é uma forma de anti-realismo que busca traduzir ou reduzir os
enunciados teóricos de uma teoria em termos dos enunciados de observação. Uma teoria é
vista como uma formulação “econômica” (ou seja, a mais simples possível) das relações de
dependência entre eventos ou entre propriedades observáveis. Termos teóricos como
“partículas virtuais” seriam uma descrição abreviada de um complexo de eventos e de
propriedades observáveis, e não faria sentido dizer que se referem a uma realidade física
inacessível para a observação (Fig. IV.2). Mesmo assim,o descritivismo aceita que um
enunciado teórico seja considerado verdadeiro ou falso, na medida em que for tradutível em
enunciados de observação verdadeiros.
A distinção entre instrumentalismo e descritivismo é sutil, e hoje em dia há uma
tendência de englobar ambos sob o nome “instrumentalismo” (em sentido lato) ou
simplesmente “anti-realismo”. O primeiro autor a quem se costuma atribuir o termo
“descritivista” é Ernst Mach (por exemplo, em Niiniluoto, 1999, p. 110), com sua
preocupação em reduzir a linguagem teórica à linguagem de observação (como veremos na
28 Uma apresentação clássica, mas um pouco desatualizada, é feita por NAGEL, E. (1961), The Structure of
Science, Harcourt, Brace & World, Nova Iorque, pp. 117-52. Uma discussão mais completa e atualizada é dada
por NIINILUOTO, I. (1999), Critical Scientific Realism, Oxford U. Press, cap. 5.
29 OSIANDER, A. ([1543] 1980), “Prefácio ao De Revolutionibus Orbium Coelestium, de Copérnico”, trad. e notas
de Z. Loparić, Cadernos de História e Filosofia da Ciência 1, pp. 44-61.
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
26
seção VII.2), mas foram os positivistas lógicos (Carnap, Schlick, Reichenbach, etc., entre as
décadas de 1920 e 60) que mais trabalharam nesta concepção, com sua preocupação com a
linguagem da ciência. Pode-se talvez associar o positivismo a uma visão descritivista, apesar
de se também poder associá-lo ao instrumentalismo. Além do descritivismo, outras teses que
comporiam o positivismo seriam o nominalismo (seção I.4), o critério de demarcação entre
ciência e metafísica, a separação entre fato e valor, e a tese da unidade da ciência.30
Ao contrário do descritivismo, que está ligado a uma preocupação com a linguagem da
ciência e na redução do significado dos enunciados teóricos ao significado dos enunciados de
observação, o instrumentalismo não vê uma teoria científica necessariamente como uma
linguagem, mas sim como um instrumento lógico ou matemático para organizar as
observações e as leis experimentais. Uma teoria é vista não como um conjunto de enunciados
que tenham valor de verdade, mas sim regras de acordo com as quais as observações são
analisadas e inferências (previsões) são obtidas. Seria incorreto dizer que a teoria é “uma
descrição abreviada de observações” (como no descritivismo), da mesma maneira que um
martelo não é uma descrição abreviada de seus produtos. O instrumentalismo tem facilidade
em lidar com idealizações e modelos simplificados em uma teoria científica, não tendo
necessidade de definir uma noção de “verdade aproximada”.
Uma idealização, ou seja, uma teoria simplificada, fornece um bom exemplo de como
uma teoria pode funcionar como instrumento, sem ter referência (sem ser verdadeira ou falsa).
Além disso, o instrumentalismo não vê problemas em se utilizar, em diferentes momentos,
teorias contraditórias.
Figura IV.2: Esquema da relação entre teoria e realidade, segundo a “visão recebida”.31
30 Para um estudo das teses que compõem o positivismo, ver o cap. I de: KOLAKOWSKI, L. (1981), La Filosofía
Positivista, trad. G. Ruiz-Ramón, Ediciones Cátedra, Madri (original em alemão publicado em Varsóvia em 1966).
31 A “visão recebida” foi desenvolvida entre 1920 e 1960, e caracteriza uma teoria como sendo uma linguagem
logicamente estruturada. Uma boa referência, na qual a figura se baseia, é: FEIGL, H. ([1970] 2004) “A Visão
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”
27
A distinção entre realismo e anti-realismo leva a uma distinção entre dois tipos de
teorias científicas (seguindo nomenclatura de Rankine, 1855, citado por Nagel, 1961). Teorias
hipotéticas (transcendentes, microscópicas) enunciam relações entre entidades hipotéticas que
não são observáveis, como os mecanismos ocultos da filosofia mecânica ou os átomos da
teoria cinética dos gases. Já as teorias abstrativas (fenomenológicas, macroscópicas)
formulam apenas relações entre propriedades observáveis, como foi feito por Fourier, em sua
teoria do calor, e pela termodinâmica. A afirmação de Newton de que não inventaria hipóteses
a respeito da natureza da lei da gravitação é própria de uma teoria abstrativa.
5. Realismo e Anti-Realismo em Newton
Newton era realista, instrumentalista ou descritivista?
A tradição mecanicista de Descartes e Huygens era realista (assim como o atomismo
grego), já que concebiam mecanismos envolvendo partículas invisíveis que dariam conta dos
fenômenos macroscópicos observados. Newton foi formado nesta tradição (recebendo
influências também do naturalismo animista, uma visão também realista), e assim ele tinha
uma atitude basicamente realista. Um exemplo claro de uma tese realista é sua defesa do
espaço absoluto, que veremos no próximo capítulo. Outro exemplo é sua tese de que a luz
consiste de partículas emitidas com diferentes velocidades.
No entanto, ao anunciar que não se preocuparia em inventar hipóteses a respeito das
causas da força gravitacional, adotou uma postura anti-realista. Seria esta uma postura
descritivista ou instrumentalista? Não se costuma chamar sua atitude de “descritivista”
porque ele não tinha preocupação em reduzir o significado de enunciados teóricos a
enunciados de observação, como Mach faria mais tarde. Por outro lado, ele não seria um
“instrumentalista” no sentido forte da tradição astronômica, conforme expresso no prefácio de
Osiander, que mencionamos na seção anterior.
Uma solução é dizer que adotou um “instrumentalismo metodológico”, ou seja, já que
não conseguiu imaginar um mecanismo para a gravitação, absteve-se de postular uma
hipótese, não por um princípio filosófico, mas apenas pelas circunstâncias do problema.
No entanto, a partir do séc. XIX, sua afirmação seria interpretada por muitos como a
afirmação de que a Física não precisa se preocupar com mecanismos ocultos, que basta
conhecer o estado inicial e as condições de contorno observáveis, para daí fazer previsões
utilizando as leis de movimento da Física. No séc. XIX, o trabalho que lançaria esse projeto
anti-realista seria a Teoria Analítica do Calor (1822), de Joseph Fourier, que descrevia
situações de equilíbrio e condução térmica de maneira matemática, sem se comprometer com
a natureza última do calor, com o debate de se o calor era uma forma de movimento de
partículas ou uma substância, um fluido sem peso (“calórico”). Este trabalho foi uma das
fontes de inspiração para o positivismo do séc. XIX, que se inicia com Auguste Comte
(Kolakowski, porém, cita Hume como o primeiro positivista completo).
Apesar de sua atitude metodologicamente instrumentalista com relação às causas da
força gravitacional, Newton considerava que as forças existiam de fato, ou seja, era um
realista com relação à entidade “força”. No séc. XIX, Mach desenvolveria um positivismo
radical no qual o próprio conceito de força seria visto como uma mera construção mental, um
termo teórico (não observável), que buscaria definir em termos de grandezas observáveis,
como posições e acelerações (ver adiante).
‘Ortodoxa’ de Teorias: Comentários para Defesa assim como para Crítica”, Scientiae Studia 2(2), pp. 265-77.
Devido a dificuldades de incorporar modelos e analogias, essa visão “sintática” tem sido hoje preterida em favor
da chamada “visão semântica de teorias”.
Filosofia da Física Clássica
Cap. V
28
Experimento do Balde e Espaço Absoluto
Questão: O espaço e o tempo são absolutos ou relativos?1. Há Juízos Sintéticos A Priori?
Será que apenas através do raciocínio (antes da observação) a gente consegue chegar a
alguma verdade sobre o mundo real? Vimos que Descartes considerou que sim (seção III.5):
partiu de princípios a priori, atingíveis pela razão pura (sem experiência ou observação), de
que o “eu” existe, de que Deus existe, de que ele é perfeito e invariável, e teria deduzido a lei
de conservação da quantidade do movimento. Como esta lei descreve o movimento dos
corpos do mundo, diz-se que é um enunciado sintético ou factual.
Os empiristas britânicos rejeitaram essa pretensão dos metafísicos (como Descartes e
Leibniz) de que se pudesse conhecer o mundo apenas através da razão, sem observação.
David Hume (1711-76) foi o mais importante crítico desta concepção, salientando que
existem “verdades analíticas a priori”, mas não sintéticas a priori. Uma verdade analítica é ou
uma verdade lógica, como ‘Dentro de uma hora choverá aqui ou não choverá aqui’, ou uma
verdade por definição, como ‘Nenhum casado é solteiro’. A negação de uma verdade analítica
é uma contradição lógica, mas a negação de uma verdade sintética é uma possibilidade lógica
(por exemplo, que a grandeza m·e–v se conserva, ao invés de mv).
Em suma, para o empirismo não há verdades sintéticas a priori. No entanto,
influenciado por Hume, o alemão Immanuel Kant (1724-1804) buscou fazer uma síntese do
racionalismo dos metafísicos e do empirismo britânico (que ganhara adeptos na França),
salientando que o nosso conhecimento do mundo envolve uma construção mental, e que a
estrutura comum a tudo o que observamos (como o espaço euclidiano, a relação de
causalidade, etc.) é algo que nosso intelecto constrói, e não algo que possamos dizer que
existe na realidade. Para Kant, a geometria euclidiana exprime como o mundo é de fato, mas
tal geometria pode ser conhecida de maneira a priori! Assim, para Kant, haveria verdades
sintéticas a priori. A diferença com Descartes é que tais verdades não se refeririam a algo “lá
fora”, no mundo real, pois para Kant tal mundo das coisas-em-si é inatingível pela razão pura,
pela a ciência. Para o filósofo de Königsburg, as verdades mais gerais de nosso conhecimento
exprimem a maneira como nós (ou qualquer ser inteligente que tenha experiência do mundo)
inevitavelmente organizamos nossa experiência. E estas verdades podem, para Kant, serem
conhecidas de maneira a priori.
No final de sua vida, Kant procurou mostrar que as próprias três leis da mecânica
newtoniana são sintéticas a priori, ou seja, deriváveis teoricamente, sem necessidade de
observar o mundo. Esse projeto deixa claro a certeza que se tinha da veracidade da mecânica
clássica, a noção de que a ciência atinge verdades definitivas.
No séc. XX, o positivismo lógico herdou a concepção empirista de que não há
verdades sintéticas a priori, mas a partir da década de 1950, críticos como Quine
argumentaram que a própria distinção entre enunciados analíticos e sintéticos é mal
formulada.
Hoje em dia, a questão se coloca em um contexto “naturalizado”, ou seja, levando em
conta que nossa mente é fruto de um cérebro que evoluiu biologicamente, de maneira a se
adaptar de forma muito fina com o ambiente. Será que o fato de termos evoluído por seleção
natural, dentro de um mundo físico-químico-biológico, permite que possamos conhecer
verdades a respeito de nós mesmos e do mundo (do qual fazemos parte) sem termos que
observar o mundo exterior?
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto
29
2. Referenciais Inerciais e Não-Inerciais
Um dos conceitos que surgem da mecânica de Newton é o de referencial inercial.
Trata-se de um referencial (sistema de referência) em movimento retilíneo uniforme (i.e., com
velocidade constante) em relação ao referencial do espaço absoluto. As leis da mecânica
clássica são invariantes ante mudanças de referenciais inerciais: eis o princípio de relatividade
“galileano”.
Se o referencial não for inercial, a sua aceleração gerará forças “fictícias” nos objetos
do sistema. Por exemplo, quando um carro faz uma curva para a esquerda, o passageiro “cai”
para a direita, não porque exista uma força real atraindo ele para a direita, mas porque, por
inércia, sua tendência natural é permanecer em movimento retilíneo uniforme, e quando o
carro vira para a esquerda, o passageiro tende a permanecer em linha reta, o que resulta num
movimento aparente para a direita, aparente em relação ao carro. No referencial do carro, a
força para a direita é fictícia, pois não há fontes que ocasionam esta força, e porque há um
referencial inercial externo que explica esta força fictícia a partir da aceleração do carro.
Mas como podemos descobrir se um certo referencial é ou não inercial? Uma proposta
inicial seria a seguinte. Analisam-se todas as acelerações dos corpos que compõem o sistema
de estudo, e buscam-se as forças responsáveis por essas acelerações, ou seja, as fontes das
forças, como massas (que geram forças gravitacionais), cargas elétricas, imãs, molas, mesas
(fonte da força “normal”), pressões, atritos, etc. Se ao final deste estudo, houver alguma
aceleração que não pode ser atribuída a uma interação física, então o referencial é considerado
não inercial. Ao se soltar uma pedra para o fundo de um poço, observa-se uma pequena
aceleração para leste. Como essa aceleração não pode ser atribuída à força gravitacional ou a
um movimento do ar, conclui-se que vivemos num referencial não inercial. De fato, a
aceleração para leste é devida à força fictícia de Coriolis, que se origina da rotação da Terra.
Tal receita apresenta alguns problemas, pois ela depende de quais interações (que
geram as forças) a teoria física aceita. Poder-se-ia talvez, a princípio, postular uma nova
interação para explicar a origem da força considerada fictícia. Como saber com certeza?
3. O Experimento do Balde
Newton apresentou o seguinte argumento em favor da existência de um referencial
inercial absoluto, que constituiria um “espaço absoluto”. Não seguiremos à risca seu
argumento, mas o ampliaremos a partir das análises feitas por outros autores.32
Considere um balde parcialmente cheio de água, que repousa a mil quilômetros acima
do pólo Sul. Consideremos quatros estágios do experimento-de-pensamento, ilustrados pela
Fig. V.1. (a) Inicialmente o balde está em repouso, e a água também. (b) A seguir, o balde é
girado a uma velocidade angular constante, mas neste primeiro instante a água permanece
parada, no seu estado inicial (apenas a camada em contato com a parede do balde se
movimenta, mas esse movimento é desprezado). (c) Após algum tempo, a água passa a girar
com a mesma velocidade angular que o balde, e sua superfície deixa de ser plana, e passa a ter
a forma de um parabolóide de revolução. (d) Por fim, o balde é parado, mas a água, num
primeiro instante, continua girando, com sua superfície em forma de parabolóide.
32 NEWTON, I. (1990), Princípios Matemáticos de Filosofia Natural, v. 1, trad. T.S.F. Ricci, L.G. Brunet, S.T.
Gherin & M.H.C. Celia, Nova Stella/Edusp, São Paulo, pp. 11-12 (orig. em latim: 1687). MACH, E. (1960), The
Science of Mechanics, Open Court, La Salle (EUA), pp. 271-97, 336-41 (orig. em alemão: 1883). Ver também o
relato geral de NAGEL (1961), op. cit. (nota 28), pp. 203-14, e o relato mais pungente de ASSIS, A.K.T. (1998),
Mecânica Relacional, Coleção CLE 22, CLE-Unicamp, pp. 45-54, 68-9, 134-43.
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto
30
Figura V.1: (a) Balde e água parados. (b) Balde girando e água ainda parada. (c) Balde girando e
água girando junto. (d) Balde é parado, maságua continua girando.
A tendência da água de subir as paredes do balde é um fenômeno real, conseqüência
de uma aceleração radial da água. Haveria uma força (com fonte bem definida) associada a
esta aceleração, ou ela seria o efeito de uma força fictícia (ver seção V.2)? Claramente trata-
se de um efeito que surge do movimento do balde (nenhum outro corpo do Universo foi
alterado, ou seja, assume-se uma cláusula de “ceteris paribus”). Assim, o efeito é resultante
de uma força fictícia no referencial girante do balde; ou seja, da perspectiva de um referencial
inercial, o efeito é resultado de uma aceleração.
A questão agora é: em relação a que referencial (inercial) se dá esta aceleração? Pois
para medirmos uma aceleração (constituindo uma aceleração “relativa”, segundo as definições
de espaço e tempo relativos de Newton, ver seção IV.2), devemos fazê-lo em relação a algum
sistema de referência. Podemos imaginar diferentes candidatos: o balde, a Terra, as estrelas,
um espaço absoluto.
Será que o movimento da água em relação ao balde é o responsável pela forma
parabolóide de sua superfície? Não, argumentou Newton, pois na Fig. IV.1 temos duas
situações em que o movimento relativo de ambos é diferente (c e d), mas a forma da água é
idêntica; ou uma situação em que o movimento relativo é igual (a e c), mas a forma é
diferente.
Talvez então o responsável pela água subir a parede seja o movimento da água em
relação à Terra. Mas segundo a teoria da gravitação de Newton, se a Terra subitamente
parasse de girar, isso não teria efeito algum sobre a água. Portanto, não é a aceleração em
relação à Terra que seria responsável pela aceleração da água.
Será talvez que o referencial em questão seria fixado pelas estrelas, que formam
aproximadamente uma casca esférica de matéria, no centro da qual se encontraria o balde?
Não, pois se pudéssemos girar a casca das estrelas, nenhum efeito surgiria no seu interior,
segundo a teoria de Newton.
Portanto, nenhum corpo material pode fixar o referencial em relação ao qual o efeito
na água é medido. Assim, Newton concluiu que haveria um referencial espacial imaterial,
absoluto, em relação ao qual se dão todas as acelerações. Seria um referencial inercial, mas
não poderíamos determinar sua velocidade em relação a outros referenciais inerciais. De uma
perspectiva anti-realista, não teria sentido estipular uma velocidade para este referencial.
Newton completa sua discussão com outro experimento-de-pensamento, a de dois
globos ligados por uma corda. Quando o sistema gira, surge uma tensão na corda. No entanto,
se as estrelas fixas girassem em torno dos globos e estes ficassem parados, não haveria tensão
na corda, segundo a física de Newton. Assim, a tensão na corda só poderia ser explicada pela
rotação dos globos em relação ao espaço absoluto.
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto
31
4. A Defesa do Espaço Relativo
A primeira defesa do espaço relativo, após o trabalho de Newton, foi feita por
Gottfried Wilhelm von Leibniz (1646-1716). Ela apareceu em uma troca de cartas com o
teólogo inglês Samuel Clarke, amigo de Newton, em 1715-6. O ponto de vista do alemão se
baseia no princípio de razão suficiente, que em sua segunda carta é expresso da seguinte
maneira: “nada acontece sem uma razão pela qual ela deva ser de uma maneira ao invés de
outra”. Em sua terceira carta, Leibniz argumenta que um espaço absoluto violaria o princípio
de razão suficiente. Pois o espaço é uniforme, e se ele não contiver coisas materiais, um ponto
do espaço não irá diferir de outro ponto. Ora, se houver um espaço absoluto, quando Deus
resolveu colocar as coisas no espaço, ele não teria razão nenhuma para colocar as coisas aqui
ou acolá, ou orientadas num sentido e não em outro (mesmo mantendo a situação relativa
entre elas). Não haveria razão suficiente para a criação das coisas no mundo, mas elas de fato
foram criadas. Assim, o espaço absoluto não poderia existir. O espaço seria a ordem das
coexistências, ou seja, seria a própria relação entre as coisas materiais.33
O problema do balde não foi satisfatoriamente resolvido por Leibniz. Na verdade, foi
Clarke quem vislumbrou a possibilidade de que “se um corpo existisse sozinho, seria incapaz
de movimento, ou [...] as partes de um corpo que circula (ao redor do Sol, p. ex.) perderiam a
força centrífuga que nasce de seu movimento circular, se toda a matéria exterior que as cerca
fosse aniquilada” (in ASSIS, p. 113). Note-se também que Leibniz não percebeu que sua teoria
relacional do espaço e tempo deveria entrar em contradição com sua noção de que a energia
cinética (vis viva) teria um valor absoluto.
Outro filósofo que defendeu o espaço relativo foi o bispo irlandês George Berkeley
(1685-1753), que na sua obra De Motu (1721) afirmou que “seria suficiente, para determinar
o movimento e o repouso verdadeiros [...], considerar o espaço relativo, ao invés do espaço
absoluto, enquanto confinado pelo céu das estrelas fixas, que se considera estar em
repouso”.34 No entanto, ao analisar o experimento do balde girante, não invocou de maneira
clara esta possibilidade.
Essas questões foram discutidas nas décadas seguintes, mas foi só com Ernst Mach
(1838-1916) que as teses relacionais receberam uma sustentação mais forte, em sua obra A
Ciência da Mecânica (1883). Sua idéia básica foi considerar que “todo o universo” ou “as
estrelas fixas” é que estabelecem o referencial a partir do qual as velocidades têm significado,
assim como a lei de inércia. De fato, havia um estudo experimental do astrônomo Hugo von
Seeliger que indicava que o sistema inercial que se estabelece na Terra coincide com o
sistema empírico obtido a partir da observação das estrelas. Em termos newtonianos, o
conjunto das galáxias não gira em relação ao espaço absoluto.
Para Mach, “todas as massas e todas as velocidades e, conseqüentemente, todas as
forças, são relativas [...] a visão ptolomaica [ou melhor, a de Tycho Brahe] ou copernicana é
nossa interpretação, mas ambas são igualmente verdadeiras. Tente fixar o balde de Newton e
girar o céu das estrelas fixas e então prove a ausência de forças centrífugas. [...] Os princípios
da mecânica podem, de fato, ser concebidos tal que mesmo para rotações relativas surgem as
forças centrífugas” (in ASSIS, 1998, pp. 132-3).
33 A correspondência Leibniz-Clarke aparece em: ALEXANDER, H.G. (org.) (1956), The Leibniz-Clarke
Correspondence, Manchester U. Press. Seguimos aqui o relato e análise de ASSIS (1998), op. cit. (nota 32), pp.
105-43, que contém várias citações.
34 BERKELEY, G. (2006), “De Motu (Sobre o movimento ou sobre o princípio, a natureza e a causa da
comunicação dos movimentos)”, trad. Marcos R. da Silva, Scientiae Studia 4(1), 115-37, disponível na internet.
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto
32
A tese de que o espaço, tempo e velocidades são relativos passou a ser conhecido
como “princípio de Mach”. Em outros termos, é a tese de que as forças fictícias são reais e
geradas pelo movimento em relação à matéria.
Uma conseqüência do princípio de Mach, incorporado na abordagem conhecida como
“mecânica relacional”, é a tese de que a massa inercial de um corpo é devido à interação
gravitacional com os outros corpos do Universo. Ou seja, se quase toda a matéria do
Universo, fora da Terra, desaparecesse, você poderia parar um caminhão que estivesse se
movendo em ponto morto na horizontal com suas próprias mãos (desde que seus pés
estivessem em contato com o chão, sofrendo atrito estático)! Isso ocorreria porque a massa
inercial do caminhão ficaria reduzida, já que a quantidadede matéria no Universo se reduziu.
A “mecânica relacional” redescoberta por André Assis, da Unicamp, pode ser
considerada uma teoria mais completa que a mecânica newtoniana, e implementa o princípio
de Mach utilizando-se de uma expressão para o potencial gravitacional que depende não só
das posições relativas mas também da velocidade relativa entre os corpos. Tal expressão para
a força foi derivada pela primeira vez por Wilhelm Weber em 1848, no contexto do
eletromagnetismo. Na gravitação, foi introduzida na década de 1870. A idéia de que a massa
inercial surge da interação com a matéria do resto do Universo apareceu no final do séc. XIX.
Essa idéia também se aplica para a origem da energia cinética dos corpos em movimento. Em
1925, Erwin Schrödinger desenvolveu a mecânica relacional de forma independente,
considerado-a “como sendo pelo menos um estágio intermediário permissível e útil [em direção
à teoria da relatividade geral], que torna possível compreender, de maneira simples mas ao
mesmo tempo sensata, uma situação empírica simples através de concepções que são familiares
a todos.”35
5. Princípio de Mach e a Teoria da Relatividade Geral
Albert Einstein formulou sua teoria da relatividade geral de 1916 tendo sido
influenciado pelas idéias relacionais de Mach. Desde 1912 Einstein utilizava o princípio,
quando calculou o aumento da massa inercial de um corpo no interior de uma casca esférica e
sua aceleração induzida pela rotação da casca.
Com a teoria da relatividade geral, Einstein generalizou sua teoria da relatividade
restrita impondo que “as leis da física devem ter uma estrutura tal que a sua validade
permaneça em sistemas de referência animados de qualquer movimento”, e não apenas para
referenciais inerciais. Ou seja, ele impôs a igualdade na forma das equações em todos os
sistemas de referência. Esta invariância na forma das equações não tinha sido sugerida por
Mach.
Einstein36 considerava que quatro conseqüências têm de ser obtidas em qualquer teoria
que implemente o princípio de Mach:
1) A inércia de um corpo deve aumentar se se acumulam na sua vizinhança massas
ponderáveis.
2) Um corpo deve sofrer uma força aceleradora quando massas vizinhas são
aceleradas; a força estaria no mesmo sentido que a aceleração.
35 ASSIS, A.K.T. & PESSOA JR., O. (2001), “Erwin Schrödinger e o Princípio de Mach”, Cadernos de História e
Filosofia da Ciência (série 3) 11, 131-52. Ver p. 145. Sobra a história da mecânica relacional, ver ASSIS (1998),
op. cit. (nota 32), pp. 297-319.
36 EINSTEIN, A. (1958), O Significado da Relatividade, trad. de M. Silva, Arménio Amado, Coimbra, p. 123
(orig. em alemão: 1922).
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto
33
3) Um corpo oco animado de um movimento de rotação deve produzir no seu interior
um “campo de Coriolis” que faz com que corpos em movimento sejam desviados no sentido
da rotação; deve ainda produzir um campo de forças centrífugas radial.
4) Um corpo em um universo vazio não deve ter inércia; ou, toda inércia de qualquer
corpo tem que vir de sua interação com outras massas no universo.
Inicialmente, em 1916-18, Einstein pensava que estas quatro conseqüências estavam
contidas na relatividade geral, e que portanto seria possível implementar o princípio de Mach
em sua teoria. Em meados de 1918, porém, foi obrigado a abandonar a quarta conseqüência, e
assim, aos poucos, foi abandonando o princípio de Mach. O que ocorreu foi o seguinte. As
primeiras soluções obtidas para sua equação de campo gravitacional (como a de Schwarzschild)
supunham como condição de contorno que a métrica no infinito era “minkowskiana”, ou seja,
idêntica à da relatividade restrita. Isso ia contra o princípio de Mach, pois (i) a métrica local não
seria determinada apenas pela distribuição de matéria, mas também por uma condição de
contorno, e (ii) se o universo fosse vazio, sua métrica seria toda minkowskiana, mas com isso
ter-se-ia um espaço absoluto no qual um corpo de prova teria inércia (mesmo na ausência de
outras massas). Para manter o princípio de Mach, Einstein propôs em 1917 o seu famoso
modelo cosmológico no qual o universo é fechado (como a superfície de uma esfera), de forma
que não há contorno: a métrica (que descreve as propriedades inerciais dos corpos) seria
determinada apenas pela distribuição de matéria, e não por condições de contorno. Nota-se que,
para conseguir um universo fechado estático (a expansão do universo não era ainda conhecida),
Einstein teve que modificar suas equações, introduzindo uma constante cosmológica. Concluiu
assim ter conseguido implementar o princípio de Mach. No entanto, ainda em 1917 o astrônomo
holandês Willem de Sitter mostrou que as equações modificadas admitiam uma solução para
um universo vazio, que correspondia a um universo em expansão! Após passar um ano tentando
mostrar que a solução de de Sitter era fisicamente inaceitável (devido a alguma singularidade),
Einstein abandonou suas tentativas de implementar rigorosamente o princípio de Mach. Em
1951, A.H. Taub mostrou também que as equações de Einstein sem a constante cosmológica
podem gerar um espaço curvo na ausência de matéria.37
O fato de a Teoria da Relatividade Geral permitir soluções que violem o princípio de
Mach não significa que o princípio não seja verdadeiro. Com efeito, há propostas como a de
John Wheeler (1964) de se utilizar o princípio de Mach na Relatividade Geral para selecionar
condições iniciais, de contorno ou de simetria apropriadas para o Universo. Mesmo aceitando
a validade da Relatividade Geral, é um problema em aberto a questão da validade do princípio
de Mach. Ou seja, a questão de se o espaço é absoluto ou relativo ainda está aberta!
37 ASSIS & PESSOA (2001), op. cit. (nota 35), pp. 135-9. Uma referência não citada neste artigo é: GRÜNBAUM, A.
(1964), “The Philosophical Retention of Absolute Space in Einstein’s General Theory of Relativity”, in Smart,
J.C.C. (org.), Problems of Space and Time, Macmillan, Nova Iorque, pp. 313-7.
Filosofia da Física Clássica
Cap. VI
34
Determinismo e Probabilidade (versão preliminar)
Questão: A natureza é determinista ou há eventos sem causa?
1. Determinismo e Previsibilidade
O determinismo estrito é a tese de que o estado presente do Universo fixa de maneira
unívoca o estado do Universo em qualquer instante do futuro. Esta tese é sugerida pela
mecânica clássica, para a qual, dados as condições iniciais e de contorno de um sistema, e
dadas as equações diferenciais que regem a evolução do sistema, o estado em qualquer
instante futuro poderia em princípio ser calculado.
Segundo a mecânica clássica, o determinismo estrito vale também para um sistema
completamente isolado do resto do Universo, ou para um sistema cuja evolução não é afetada
de maneira significativa pelo ambiente. Se a evolução de um sistema for previsível para todos
os estado iniciais, isso indica que o sistema é determinista, mas o contrário não é válido. Ou
seja, se constatarmos que um sistema é imprevisível, isso não implica que ele seja
indeterminista, pois pode acontecer que não tenhamos acesso a todas as variáveis que
influenciam a evolução do sistema. Esta situação em que há um determinismo escondido é às
vezes chamada de “criptodeterminismo”. Notemos que o termo “determinismo” é uma
designação ontológica, pois se refere à natureza do mundo, ao passo que “previsibilidade” é
um termo epistemológico, relativo à capacidade que temos de conhecer o futuro.
Um exemplo de sistema imprevisível é fornecido pela Física Quântica, teoria
desenvolvida em 1926. Após a consolidação desta teoria, achava-se que elatinha mostrado
que o mundo é essencialmente indeterminista, mas em 1951 David Bohm forneceu uma
interpretação determinista da Física Quântica. Como resultado disso, a questão de se a
natureza é determinista ou não permanece como um problema aberto.
Apesar da imprevisibilidade para resultados de medições individuais, a Física
Quântica permite que se façam previsões precisas sobre as freqüências estatísticas com as
quais diferentes resultados ocorrem. Pode-se assim falar de um determinismo estatístico.
Se o Universo não for estritamente determinista, tem-se uma situação de
indeterminismo, probabilismo ou “tiquismo” (termo usado pelo filósofo norte-americano
Charles Peirce, a partir do termo grego tyche, que é acaso). Pode-se também falar em
“estocasticidade”, mas geralmente um sistema estocástico (como um grão de pólen em
movimento browniano) é consistente com um determinismo em uma escala inferior (por
exemplo, entre os átomos que fazem o grão de pólen flutuar). Outros termos usados são
“aleatório” ou “caótico”, que são mencionados nas seções VI.4 e 5.
Outra maneira de caracterizar um sistema indeterminista é falar em “perda de
causalidade”, ou afirmar que ocorrem eventos sem causa, que ocorrem espontaneamente. Isso
iria contra o “princípio de razão suficiente” de Leibniz, para o qual tudo tem que ter uma
razão (uma causa) para acontecer.
2. O Demônio de Laplace
Ao definirmos um sistema determinista, escrevemos que seria “em princípio” possível
prever com exatidão o futuro desse sistema. Uma maneira de exprimir isso de maneira um
pouco diferente foi feita por Pierre-Simon Laplace (1749-1827), em sua famosa defesa do
determinismo:
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos
35
Podemos considerar o estado atual do universo como o efeito de seu passado e a causa
de seu futuro. Uma inteligência que, em um instante determinado, deveria conhecer
todas as forças que põem em movimento a natureza, e todas as posições de todos os
objetos dos quais a natureza é composta, se esta inteligência fosse ampla o suficiente
para submeter esses dados à análise, ela englobaria em uma única fórmula os
movimentos dos maiores corpos do universo e dos menores átomos; para tal inteligência
nada seria incerto e o próprio futuro, assim como o passado, estariam evidentes a seus
olhos.38
Essa “inteligência” imaginada por Laplace foi posteriormente chamada de “demônio
de Laplace”, onde “demônio” deve ser entendido no sentido original grego, como um semi-
deus (daimon) ou super-herói, sem ser necessariamente do mal.
O demônio de Laplace teria que ter pelo menos quatro propriedades para funcionar: (i)
Onisciência instantânea: Conheceria o estado de todo o Universo em um instante do tempo,
com resolução e acurácia perfeitas. (ii) Erudição nomológica: Conheceria com exatidão todas
as leis que regem o Universo. (iii) Super-computação: Seria capaz de realizar o cálculo mais
complicado em um intervalo de tempo insignificante. (iv) Não distúrbio: A atuação do
demônio não afetaria em nada o funcionamento do Universo.
Com essas quatro propriedades, pode-se definir o determinismo estrito da seguinte
maneira. Se o demônio de Laplace partir do conhecimento do estado atual do Universo, e fizer
uma previsão sobre qual será o estado exato do Universo depois de um certo tempo t, então se
ele acertar 100% de suas previsões, o Universo será determinista, se não, será indeterminista.
3. Probabilidade
A discussão sobre se a física quântica é (cripto-)determinista ou indeterminista pode
ser reformulada com relação a se a noção de “probabilidade” é epistêmica ou ontológica. Se
afirmo que a probabilidade de obter um resultado em um experimento quântico é ½, isso é
uma expressão da minha ignorância a respeito de todos os fatores causais envolvidos –
situação típica da mecânica estatística clássica – ou exprime uma indefinição essencial da
realidade? No primeiro caso, quando atribuímos uma probabilidade apenas por falta de
informação, fala-se em uma noção epistêmica de probabilidade, ao passo que em um Universo
tiquista ou indeterminista tem-se uma probabilidade ontológica (neste caso, nem o demônio
de Laplace conseguiria prever com certeza).
Um exemplo disso pode ser tirado da biologia. Uma mulher grávida pode perguntar ao
médico qual é a probabilidade de seu filho ter olhos claros, e ele poderá responder que é ½.
Esta é uma probabilidade epistêmica, pois a cor dos olhos já está definida no cromossomo do
feto, e a probabilidade é atribuída devido à ignorância que se tem a respeito do gene, que na
realidade já está definido. Por outro lado, esta mesma mulher poderia perguntar qual é a
probabilidade de um segundo filho, ainda não concebido, ter olhos claros. Se supusermos que
o futuro é “aberto” (ou seja, a evolução do Universo é indeterminista), então a resposta do
médico, de que tal chance é ½, seria uma probabilidade ontológica. E se o Universo segue o
determinismo estrito?
38 LAPLACE, P.-S. (1814), Essai philosophique sur les probabilités, introdução. Traduzido de citação em francês
obtida na internet.
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos
36
A noção de probabilidade é fundamental na ciência, mas é curioso que haja diferentes
interpretações a respeito do que seja probabilidade. Vejamos algumas delas39:
1) Interpretação clássica. Esta é a visão tradicional, defendida por Laplace (1814), que
define a probabilidade como a razão entre os casos favoráveis e o total de casos igualmente
possíveis. O que define os casos igualmente possíveis é um “princípio de indiferença”, que
afirma que dois casos são igualmente prováveis se não há razão para preferir um em relação ao
outro. Assim, um dado simétrico teria seis casos equiprováveis. Porém, como caracterizar as
probabilidades em um dado enviesado?
2) Interpretação freqüentista. No caso de um dado enviesado, a abordagem freqüentista
sugere jogá-lo um grande número de vezes e anotar as freqüências relativas em que cada lado
cai. No limite para um número infinito de jogadas, ter-se-iam as probabilidades de cada caso.
Este é o procedimento costumeiramente usado nas ciências empíricas, mas em termos rigorosos
há um problema envolvendo a passagem de uma seqüência finita de observações para um
seqüência infinita. Desenvolvida primeiramente por John Venn (1866), foi aprofundada por
Richard von Mises (1928) e Hans Reichenbach (1935).
3) Interpretação das propensões. Um problema com a interpretação freqüentista é que a
probabilidade parece não se aplicar para um evento único, mas para uma classe (seqüência) de
eventos (uma abordagem instrumentalista). Karl Popper (1957) buscou corrigir isso,
introduzindo a noção de “propensão”, que seria a probabilidade de um evento único (uma visão
realista). A obtenção da freqüência relativa seria um procedimento para medirmos a propensão,
cujo valor seria pré-existente às medições.
4) Interpretação logicista. Segundo esta visão, a probabilidade de uma crença mede o
grau de confiança que se pode racionalmente ter a respeito dela com base na evidência
disponível. A probabilidade p(h/e) seria assim uma relação lógica entre proposições: entre uma
hipótese h e as evidências disponíveis e. Em outras palavras, a probabilidade mede o grau com
que e implica logicamente h (se a probabilidade for 1, tem-se uma dedução lógica). Essa visão
foi desenvolvida por John Maynard Keynes (1921) e Rudolf Carnap (1950), entre outros. Seu
maior problema é a dificuldade de ser aplicado, já que não estipula critérios para determinar
probabilidades iniciais.
5) Interpretação subjetivista. Para contornareste último problema, a interpretação
desenvolvida por Frank Ramsey (1926), Bruno de Finetti (1937) e Leonard Savage (1954) parte
da admissão de que as probabilidades iniciais, com as quais abordamos problemas reais, são
sempre subjetivas ou “chutadas”. Mesmo admitindo isso, porém, é possível ir melhorando nossa
avaliação subjetiva com base em novas evidências, e da aplicação do teorema de Bayes: p(h/e)
= p(h)·p(e/h)/p(e). A avaliação do grau inicial de crença que uma pessoa possui é geralmente
traduzida em termos das apostas (com dinheiro) que tal pessoa faria.
6) Interpretação bayesiana objetivista. Inspirado na abordagem subjetivista, o físico
Edwin Jaynes (1957) iniciou uma abordagem que procura atribuir o grau inicial de crença com
base em critérios objetivos, relacionados com a noção de entropia. Deixaremos para discutir
esta abordagem mais para frente.
4. Definições de Aleatoricidade
Como caracterizar o que é genuinamente aleatório? A definição tradicional, provinda da
física, atribui este termo a processos: por exemplo, lançar uma moeda seria um processo
39 SALMON, W.C. (1966), The Foundations of Scientific Inference, U. Pittsburgh Press, pp. 65-96. Uma versão
mais resumida aparece em HOME, D. & WHITAKER, M.A.B. (1992), “Ensemble Interpretation of Quantum
Mechanics: A Modern Perspecive”, Physics Reports 210, 223-317, ver pp. 233-41.
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos
37
aleatório, independentemente do resultado da seqüência (ou seja, mesmo que o resultado fosse
“0101010101”).
Na década de 1960, alguns matemáticos40 passaram a buscar um critério que
caracterizasse uma seqüência aleatória, independentemente de como ela tenha sido gerada na
prática (ou seja, um critério que distinguisse “0100101101” de “1111111111”). Isso foi
conseguido com a noção de complexidade algorítmica, que é o tamanho do menor programa de
computador que gera a seqüência. Para uniformizar este critério, este programa deve ser escrito
na linguagem de um computador abstrato conhecido como “máquina de Turing”. Uma
seqüência não aleatória, como “1111111111”, seria programada da seguinte maneira: “repita o
digito ‘1’ até o final da seqüência”, o que tem um tamanho fixo, qualquer que seja o tamanho da
seqüência. Por outro lado, não há um programa simples para gerar a seqüência de dígitos do
número π: o menor programa é simplesmente aquele que escreve os dígitos da própria
seqüência. Em outras palavras, o valor máximo da complexidade algorítmica de uma seqüência
binária gira em torno do seu próprio tamanho. E é esta a definição de uma seqüência binária
aleatória: aquela cuja complexidade algorítmica não é menor do que seu comprimento.
Outra questão é a de gerar seqüências aleatórias para serem usadas em métodos
estatísticos de modelagem computacional, métodos esses que são conhecidos genericamente
como simulações de “Monte Carlo”, em alusão ao famoso cassino. Geralmente, tais seqüências
são geradas a partir de uma computação determinística, e por isso são chamadas “pseudo-
aleatórias”. Uma maneira simples de efetuar uma computação genuinamente aleatória (no
sentido físico, mencionado no início desta seção) é introduzir no cálculo o horário exato (por
exemplo, em milissegundos) em que a computação está sendo realizada.
5. Caos Determinístico e Sensibilidade a Condições Iniciais
No início da década de 1970, com o uso disseminado de computadores na ciência,
tornou-se claro uma grande classe de comportamentos que foram denominados “caos
determinístico”, pois envolvem a não-previsibilidade em sistemas deterministas. Esta situação
surge para sistemas regidos por equações não-lineares, como as da atração gravitacional entre
planetas. Henri Poincaré mostrou, em 1890, que o problema gravitacional dos três corpos
apresenta soluções não-periódicas que apresentam extrema sensibilidade às condições iniciais.
Em suas palavras:
Uma causa muito pequena que escapa de nossa observação determina um efeito
considerável que não podemos deixar de ver; dizemos então que o efeito é devido ao
acaso. Se soubéssemos exatamente as leis da natureza e a situação do universo no
instante inicial, poderíamos prever exatamente a situação do mesmo universo em um
momento posterior. Mas, mesmo que fosse o caso de as leis da natureza não serem
segredo para nós, poderíamos ainda conhecer as condições iniciais somente
“aproximadamente”. Se isto nos permitisse prever a situação posterior “com a mesma
aproximação”, isso seria tudo o que queríamos e diríamos que o fenômeno foi previsto,
isto é, é governado por leis. Mas não é sempre assim: pode acontecer que pequenas
diferenças nas condições iniciais venham a produzir um erro enorme nos
acontecimentos posteriores. A previsão se torna impossível e temos um fenômeno
fortuito.
40 Estes matemáticos foram Ray Solomonoff (1964), Andrey Kolmogorov (1965), Gregory Chaitin (1966) e Per
Martin-Löf (1966). Algumas referências são: CHAITIN, G.J. (1975), “Randomness and Mthematical Proof”,
Scientific American 232(5), pp. 47-52; FORD, J. (1983), “How Random is a Coin Toss?”, Physics Today 36(4),
abril, pp. 40-7. Sobre a comparação com métodos práticos de geração de números pseudo-aleatórios, ver
COMPAGNER, A. (1991), “Definitions of Randomness”, American Journal of Physics 59, 700-5.
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos
38
Essa sensibilidade às condições iniciais for redescoberta em 1963 pelo meteorologista
norte-americano Edward Lorenz, ao utilizar um computador para gerar trajetórias para o
sistema de equações não-lineares que propôs para descrever o movimento da atmosfera. O
termo “efeito borboleta” foi cunhado para esta sensibilidade, a partir do título de uma palestra
sua: “O bater de asas de uma borboleta no Brasil pode provocar um tornado no Texas?”.
(Texto ainda em construção)
Filosofia da Física Clássica
Cap. VII
39
Princípios de Mínima Ação
Questão: Qual é o lugar das causas finais na física (e na ciência)?
(Nota: Esta aula não foi ministrada em 2008)
1. Paradigmas e Programas de Pesquisa
Os princípios da mecânica de Newton, e sua teoria gravitacional, foram aos poucos
sendo aceitos pela grande maioria dos físicos e passou a constituir o que Thomas Kuhn
chamou de paradigma. Um paradigma – ou “matriz disciplinar”, como Kuhn passaria a
nomeá-lo – é constituído não só das leis gerais da teoria, mas também de estratégias
heurísticas (ou seja, de resolução de problemas), métodos de justificação, “exemplares” (ou
seja, modelos ou exercícios prototípicos, ensinados na formação do cientista), valores
cognitivos (ou seja, quais as características desejáveis de uma boa teoria científica), teses
metafísicas e mesmo conhecimento tácito (aquele que não conseguimos exprimir
lingüisticamente). Dentro de um paradigma, desenvolve-se uma ciência “normal” de
resolução de charadas, sem que haja, segundo Kuhn, uma busca por novos princípios. Ele
estudou como um paradigma é substituído por outro – por exemplo, como a física de Newton
foi substituída pelas teorias da relatividade –, ao que ele denominou revolução científica. Esta
seria uma transição entre duas maneiras diferentes de ver o mundo, o que faz com que os
cientistas da velha geração não consigam entender o novo paradigma, fato este que refletiria a
“incomensurabilidade” entre paradigmas diferentes (Kuhn, Feyerabend). A transição entre
paradigmas, segundo Kuhn, seria precedida por uma “crise”, em que inúmeras “anomalias”
(isto é, discrepâncias entre fatos observados e previsões teóricas) nãoseriam resolvidas pelo
paradigma anterior.41
A “metateoria” de Kuhn (ou seja, sua teoria de como teorias científicas se
transformam) não deu ênfase adequada ao fato de que, mesmo em ciências maduras,
paradigmas diferentes podem coexistir e competir. Este aspecto foi levado em conta por Imre
Lakatos42, em sua metodologia dos programas de pesquisa científica. Para ele, a unidade do
desenvolvimento científico não seria uma teoria científica isolada, mas sim uma seqüência de
teorias, formando um programa de pesquisa. As teorias que se sucedem em um programa
manteriam, sem modificação, um conjunto de teses centrais que Lakatos chamou de “núcleo
duro”. Sempre que alguma nova previsão teórica é falseada pela experiência, modificações
são introduzidas em teses periféricas, que constituem o “cinto de proteção” do núcleo. A
maneira de empreender esses ajustes ao cinto de proteção, e de fazer novas previsões, é ditada
pela “heurística” do programa. Um programa de pesquisa pode ser progressivo, caso em que é
racional para o cientista continuar trabalhando nele. Para ser progressivo, segundo Lakatos, o
programa tem que fazer novas previsões, mas essas previsões não precisam ser sempre
corroboradas (confirmadas) pela experiência – basta que o sejam apenas de vez em quando,
de maneira “intermitente”. No calor da hora, nunca podemos ter certeza que um programa de
pesquisa foi refutado; só podemos dizer que houve um “experimento crucial” muito tempo
depois: a racionalidade científica não é instantânea.
41 KUHN, T. (1975), A Estrutura das Revoluções Científicas, trad. B.V. Boeira & N. Boeira, Perspectiva, São
Paulo (orig. 1962). FEYERABEND, P. (1977), Contra o Método, Francisco Alves, São Paulo (orig. 1975).
42 LAKATOS, I. (1979), “O Falseamento e a Metodologia dos Programas de Pesquisa Científica”, in LAKATOS, I.
& MUSGRAVE, A. (orgs.), A Crítica e o Desenvolvimento do Conhecimento, Cultrix, São Paulo, pp. 109-243
(orig. 1970).
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação
40
Larry Laudan levou adiante a noção de programa de pesquisa, mas salientou que teses
do núcleo duro podem ser abandonadas sem que se abandone a tradição do programa. Preferiu
o termo “tradição de pesquisa”, que envolve uma seqüência de teorias que se assemelham e se
sucedem, de tal forma que os cientistas participantes tenham um compromisso com pelo
menos uma parte das teses centrais de um subconjunto das teorias anteriores de sua tradição.
Um exemplo seriam as tradições de pesquisa sobre a natureza da luz: os programas
corpuscular e o ondulatório competiram desde a época de Huygens e Newton até meados do
séc. XIX, quando o ondulatório se viu vencedor, mas depois, com a física quântica, houve
uma espécie de síntese entre os dois.
A relação multifacetada entre teoria, métodos e valores foi analisada por Laudan em
seu “modelo reticulado” de racionalidade científica. Segundo esta abordagem, cada um desses
três aspectos da pesquisa científica pode afetar a evolução histórica do outro, dentro de uma
tradição de pesquisa.43
2. Programas de Pesquisa Rivais na Mecânica Clássica
Em 1687, Isaac Newton formulou a abordagem à mecânica baseado em suas três leis
(inércia, força e ação & reação) e, supondo sua lei da gravitação universal, a aplicou com
muito sucesso para a descrição dos movimentos dos planetas do sistema solar.
A partir dessa mesma época, e culminando com seu Specimen dynamicum (1695),
Gottfried Leibniz estava definido a “força viva” (energia cinética, mv2) e a “força morta”
(energia potencial, na queda livre proporcional à altura da queda). Em processos mecânicos
em que se despreza a resistência do meio e não há obstáculos inelásticos, como um pêndulo,
haveria uma conservação da soma das forças viva e morta (esta noção já fora enunciada por
Huygens, em 1673). Num choque inelástico, vislumbrou que a força viva se transforma em
uma força morta ligada à deformação dos corpos.
Leibniz argumentou que o princípio de conservação de quantidade de movimento, de
Descartes, era errôneo. Depois da morte de Leibniz, seguiu-se um longo debate a respeito da
sua teoria das forças vivas. Em 1728, Jean-Jacques de Mairan corrigiu o enunciado do
princípio cartesiano, levando em conta as direções das velocidades (ou seja, o caráter vetorial
da velocidade). A aceitação geral do princípio de força viva só viria a partir de 1743, com o
Traité de Dynamique do francês Jean d’Alembert, mas já antes disso os suiços Johann
Bernoulli e seu filho Daniel estavam resolvendo diversos problemas de mecânica utilizando
os dois princípios de conservação.44
Quanto à abordagem newtoniana, sua sistematização foi empreendida pelo grande
matemático suiço Leonhard Euler, a partir de 1726. Em 1736, com sua Mechanica, introduz
massas pontuais, acelerações contínuas e considerações vetoriais, demonstrando de maneira
rigorosa vários resultados e resolvendo diversos problemas.
Configurava-se, a esta altura, o ramo da matemática aplicada conhecido como
mecânica racional, vista como uma geometria de corpos em movimento. Posteriormente,
discutir-se-ia se as leis da mecânica seriam necessárias ou “contingentes” (ou seja, não-
necessárias). Euler e d’Alembert defenderiam sua necessidade, ao passo que Lazare Carnot
(1783) defenderia seu caráter empírico (portanto contingente).
43 LAUDAN, L. (1977), Progress and its Problems, Berkeley U. Press (tradução em preparação pela Discurso
Editorial, São Paulo). O modelo reticulado está exposto em: LAUDAN, L. (1984), Science and Values, U.
California Press, Berkeley.
44 Seguimos TRUESDELL (1968), op. cit. (nota 26), e DUGAS, R. (1988), A History of Mechanics, Dover, Nova
Iorque (orig. em francês, 1955), pp. 219-53.
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação
41
Paralelamente a essas linhas de pesquisa, há o desenvolvimento da dinâmica dos
corpos rígidos. Em seu Horologium oscillatorium (1673), Christiaan Huygens havia mostrado
como calcular o “centro de oscilação” de um pêndulo físico, ou seja, o pêndulo simples com o
mesmo período de oscilação. Houve muita discussão sobre esse trabalho, o que levou Jakob
Bernoulli, irmão mais velho de Johann, a publicar em 1703 um trabalho em que refaz a
demonstração de Huygens a partir das propriedades da alavanca. Isso seria uma antecipação
do princípio de trabalho virtual, de d’Alembert.
Jakob Bernoulli também inaugurou a teoria dos corpos elásticos (1705). A teoria das
vibrações se inicia com Taylor (1713) e é desenvolvida por Euler, Johann e Daniel Bernoulli.
Este último desenvolve também a hidrodinâmica (1733-38).
O Traité de Dynamique (1743) de d’Alembert trata do problema dos corpos rígidos
sem utilizar o conceito de força newtoniano, mas sim o “princípio de trabalho virtual”, que é
uma lei de equilíbrio. Tal princípio está intimamente relacionado com o de conservação de
força viva, mas d’Alembert toma o princípio de trabalho virtual como fundamental (não o de
força viva), juntamente com o princípio de inércia e o princípio de composição de
movimentos (que permite decompor um movimento de maneira conveniente para a aplicação
do trabalho virtual).
Para entender o princípio de trabalho virtual, pode-se consultar a exposição didática de
Feynman45. Considere a situação de equilíbrio de dois corpos ligados, como o da Fig. VII.1a.
Numa situação de reversibilidade (sem atrito), o equilíbrio pode ser estabelecido como na Fig.
VII.1b. Nesta transição, o corpo B subiu uma altura de ∆hB = 3 m, ao passo que a descida de
A é expressa pela variação ∆hA = – 5 m. Assim, a massa desconhecida mA pode sercalculada
pela conservação de energia potencial gravitacional (a energia cinética não se altera), o que
corresponde a uma igualdade nos trabalhos realizados (a menos do sinal): mA·∆hA + mB·∆hB =
0. Numa situação mais complicada, como a da Fig. VII.2, o valor do peso W que equilibra o
conjunto pode ser calculado considerando-se um pequeno deslocamento vertical neste peso, o
que alterará as alturas das outras massas para valores facilmente calculáveis. Aplica-se então a
conservação dos trabalhos e encontra-se o valor de W. Como esse trabalho não ocorre de fato,
mas é apenas um artifício para o cálculo, recebe o nome de “trabalho virtual”.
Figura VII.1: Pesos em equilíbrio,
sem atrito, em um plano inclinado.
Figura VII.2: Situação de equilíbrio para
aplicação do princípio de trabalho virtual.
D’Alembert fez questão de não exprimir as “causas motivas” dos movimentos, ou seja,
as forças, que considerava “obscuras e metafísicas” (ver DUGAS, p. 247). A partir de seu
princípio, aplicado a sistemas com restrições entre as partes, derivou a conservação de força
viva. Esta estratégia foi posteriormente generalizada com sucesso pelo italiano de
45 FEYNMAN, R.P.; LEIGHTON, R.B. & SANDS, M. (1963), The Feynman Lectures on Physics, vol. I, Addison-
Wesley, Reading, pp. 4-1 a 4-5. As Figs. VII.1 e VII.2 são retiradas desta referência.
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação
42
descendência francesa Louis de Lagrange, em sua Mécanique Analytique (1788), onde
também não se fala em forças (no sentido de Newton e especialmente Euler).
Euler, por seu turno, foi bem sucedido na extensão dos princípios newtonianos para
diversos sistemas, inclusive corpos rígidos, que envolve um princípio adicional, a lei do
torque, derivada em 1776. Argumenta-se que este princípio é independente das três leis de
Newton, para casos gerais.
Delineam-se, assim, diferentes programas de pesquisa na mecânica no séc. XVIII, e
uma tendência de unificação entre eles. O programa cartesiano acabou sendo mesclado com o
leibniziano, e ambos foram incorporados ao programa d’alembertiano, que resultou na
mecânica lagrangiana. Paralelamente a isso, o programa de Newton e Euler acabou se
firmando como mais geral, aplicável em maior número de casos, fundamentado na noção de
força. A controvérsia a respeito do estatuto do conceito de força adentraria o séc. XIX, como
veremos no próximo capítulo, mas as abordagens rivais de Euler e d’Alembert acabaram
sendo vistas como duas abordagens diferentes para uma mesma ciência da mecânica.
3. Princípio de Mínima Ação
No esboço histórico da mecânica apresentada acima, deixamos de lado uma
abordagem adicional, inaugurada por Pierre de Maupertuis em 1744, o princípio de mínima
ação, e que seria posteriormente assimilado na mecânica analítica de Lagrange. Este princípio
é de interesse pois ele pretende implementar a tese filosófica de que a natureza age de maneira
a minimizar uma certa grandeza, como se ela tivesse um objetivo ou uma meta – um telos, em
grego. Nas palavras de Maupertuis: “a Natureza, na produção de seus efeitos, sempre age das
maneiras mais simples”.46 Tal tese levou a uma grande discussão porque ela sugere que a
física pode ser construída de maneira “teleológica”, ou seja, envolvendo causas finais (que
estariam no futuro ou estariam indicando um estado no futuro), e não apenas causas eficientes
(que vêm sempre antes dos efeitos).
A física de Aristóteles é um exemplo de teleologia. Para ele, os corpos graves têm um
“lugar natural”, que é o centro do Universo, e por isso eles caem quando soltos (ver seção
III.1). É como se eles tivessem uma meta (telos), um propósito. As explicações do
naturalismo animista (seção III.3) também são teleológicas.
A idéia de que a natureza segue caminhos simples tem vários precursores, mas na
física o primeiro exemplo mais detalhado é dado por Héron de Alexandria, em 125 a.C. Ele
argumentou que na reflexão da luz por um espelho, o caminho percorrido é o de menor
comprimento. Considere a Fig. VII.3, no qual a luz sai de uma vela em A, reflete no espelho
em C, e ruma para o olho em B. Este é o caminho mais curto saindo de A, refletindo no
espelho e incidindo em B. Para mostrar isso, considere um outro ponto de reflexão, D.
Ligando o ponto E, que é a imagem de A, aos pontos C e D, temos que os seguintes
segmentos têm o mesmo comprimento: AC = EC, e AD = ED. Ora, mas está claro que a linha
reta ECB é mais curta do que o caminho EDB (desigualdade do triângulo). Portanto, o
caminho ACB é mais curto do que qualquer outro caminho ADB.
Em 1662, Pierre de Fermat adaptou a estratégia de Héron para o caso da refração da
luz, só que agora considerando que a luz toma o caminho que leva menos tempo. Ele queria
mostrar que a fórmula da refração (lei de Snell) derivada por Descartes era falsa, e para isso
supôs que a luz se propaga com uma velocidade menor em meios mais densos (o que é
verdade, mas ia contra ao que achavam Descartes e Newton). Ao fazer suas contas, descobriu
que o caminho de menor tempo era justamente aquele que satisfazia a lei de Snell-Descartes!
46 DUGAS (1988), op. cit. (nota 44), pp. 254-75. Ver também YOURGRAU, W. & MANDELSTAM, S. (1968),
Variational Principles in Dynamics and Quantum Theory, Dover, Nova Iorque.
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação
43
Obteve assim uma “lei de mínimo” para a propagação da luz, mas seu resultado só seria aceito
após a metade do séc. XIX.
Figura VII.3. Diagrama ilustrando a
demonstração de Héron de que a luz, na
reflexão, percorre o caminho de menor
distância.
Em 1744, Maupertuis buscou corrigir o trabalho de Fermat, e chegou à conclusão que
o que seria minimizado na propagação da luz não seria o tempo, mas a ação S, que é o
produto da distância r percorrida e do momento linear mv: S = ∫ m v(r) dr . Já em 1740
Maupertuis havia usado um princípio de máximo ou de mínimo para uma situação de
equilíbrio
Em 1747, mostrou que é possível aplicar este resultado para o choque de dois corpos,
quer no caso de colisões elásticas quanto inelásticas, o que tornaria o princípio mais geral do
que a conservação de força viva (que só valeria no caso de choques elásticos). A partir daí,
generalizou o princípio de mínima ação para toda a mecânica: “Quando alguma mudança
ocorre na natureza, a quantidade de ação necessária para essa mudança é a menor possível”
(DUGAS, p. 265). Maupertuis via em seu princípio uma expressão da perfeição de Deus, que
agiria por meio de leis simples e com um gasto mínimo de ação.
Em 1751, o holandês Samuel Koenig apresentou uma carta em que Leibniz teria
anunciado em 1707 que “nas variações dos movimentos, [a ação] usualmente se torna mínima
ou máxima”. Ele usou o termo “ação”, definindo-o também como o produto do tempo e da
força viva (energia cinética). Iniciou-se então uma grande polêmica sobre a prioridade e os
méritos de Maupertuis, mas a tal carta de Leibniz nunca foi encontrada (DUGAS, pp. 270-3).
Independentemente de Maupertuis, seu amigo Euler publicou em 1744 uma versão
mais particular, porém matematicamente mais precisa, do princípio de mínima ação. Segundo
seu teorema, quando uma partícula viaja entre dois pontos fixos, ela toma o caminho para o
qual ∫ v(r) dr é mínimo. Seu resultado é baseado no cálculo de variações, e na verdade o que
ele demonstra é que a integral da ação é um mínimo, um máximo ou mesmo um ponto
intermediário de derivada nula. A rigor, então, o princípio de Euler é um enunciado relativoàs
trajetórias “virtuais” (que não satisfazem as leis de Newton) que são vizinhas à trajetória real
da partícula. “A diferença entre as integrais ∫ v dr tomadas ao longo da trajetória real e dos
caminhos virtuais vizinhos, entre os dois pontos, é uma grandeza infinitesimal de segunda
ordem; os caminhos virtuais considerados são aqueles com velocidades que resultem na
mesma energia que aquela suposta para a partícula” (YOURGRAU & MANDELSTAM, p. 25).
O princípio variacional foi derivado de maneira mais geral por Lagrange, em 1760,
para n partículas, mostrando que as leis de Newton são equivalentes ao princípio de mínima
ação em conjunção com a lei de conservação de energia. A conservação de energia entra ao se
considerarem caminhos virtuais de mesma energia.
Com o princípio de trabalhos virtuais, Lagrange abriu caminho para sua Mécanique
Analytique (1788), que forneceu um método prático para calcular os movimentos de corpos
rígidos sujeitos a vínculos, problema cuja resolução pelos métodos de Newton e Euler em
geral se torna onerosa. Ele introduziu coordenadas generalizadas e obteve equações cuja
forma é invariante ante troca de coordenadas. Definindo a “lagrangiana” como a diferença
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação
44
entre a energia cinética T e potencial V, escrita em função das coordenadas generalizadas qi e
q& := dqi/dt, sua equação é:
0=∂
∂−
∂
∂
ii q
L
q
L
dt
d
& .
As formulações do princípio variacional de Euler e Lagrange estão restringidas a
caminhos virtuais de mesma energia. Essa restrição foi removida em 1834 pelo irlandês
William Hamilton, que considerou, porém, caminhos virtuais que terminam no mesmo ponto
e no mesmo tempo. Chegou assim ao chamado “princípio de Hamilton”: δ ∫ L dt = 0. “Um
sistema muda de uma configuração para outra de tal maneira que a variação da integral ∫ Ldt
entre o caminho real e um vizinho, terminando no mesmo ponto do espaço e do tempo, é
nula” (YOURGRAU & MANDELSTAM, p. 47). A partir deste princípio variacional, obtêm-se as
equações de Lagrange.
Uma formulação em que o tempo é eliminando, resultando em uma “geometrização”
do princípio de extremo, foi feita pelo alemão Carl Jacobi em 1843. Anunciou então que “em
sua forma verdadeira [é difícil] atribuir uma causa metafísica a este princípio” (DUGAS, pp.
407-8).
Princípios variacionais foram usados na velha teoria quântica e na derivação da
equação de Schrödinger, da mecânica quântica, e nos trabalhos de Schwinger e Feynman47 na
teoria quântica de campos relativísticos.
4. Causas Finais na Física
O princípio de mínima ação foi visto, por Maupertuis e Euler, como um princípio
metafísico exprimindo a perfeição de Deus ou uma tendência da natureza de escolher
caminhos mais simples. Essa noção teleológica passou a ser atacada posteriormente, por
exemplo por d’Alembert (1758), que criticou “o princípio das causas finais” (DUGAS, p. 269),
e foi abandonada pela maioria dos físicos, que costuma não interpretar os princípios de
extremo de maneira teleológica.
Mesmo assim, a linguagem teleológica está presente em algumas explicações físicas
corriqueiras. Um sistema tende para o estado que minimiza sua energia, ou para um que
maximiza sua entropia. Explicações mecânicas buscam dar conta desses enunciados
teleológicos por meio apenas de causas eficientes, como será exemplificado mais à frente com
relação à entropia.
A questão da teleologia na biologia é bem mais controversa. Pode-se interpretar o
mecanismo da seleção natural como uma explicação causal-eficiente para evolução dos seres
vivos, mas autores como Ernst Mayr defendem que uma “teleonomia” estaria associada ao
código genético.
Na cosmologia, o “princípio antrópico” pode ser interpretado como uma tese finalista,
ao afirmar que o nosso Universo contém as condições ideais para o surgimento da vida. No
entanto, em sua versão mais fraca, tal princípio é perfeitamente consistente com a causação
eficiente.
47 Uma discussão interessante sobre o princípio de Fermat é feito por FEYNMAN et al. (1962), op. cit. (nota 45),
pp. 26-7 a 26-8, em que ele apresenta de maneira didática sua visão conhecida como “soma sobre histórias”.
Filosofia da Física Clássica
Cap. VIII
45
Axiomatização da Mecânica Clássica
Questão: Por que e como axiomatizar as teorias físicas ?
(Nota: Esta aula não foi ministrada em 2008)
1. Contexto da Descoberta e Contexto da Justificação
Ao se discutir a metodologia da ciência, é importante traçar uma distinção entre dois
contextos: o da descoberta e o da justificação.48 A maneira como uma descoberta científica é
feita envolve diversos fatores, incluindo aspectos psicológicos, sociais e culturais. O químico
alemão August Kekulé (1865), por exemplo, chegou à idéia de que o benzeno é um anel de
átomos de carbono após ter sonhado com uma cobra mordendo o rabo. No entanto, ele não
incluiria esta informação ao escrever seu artigo para publicação. No contexto da justificação
de uma teoria, procura-se partir de bases firmes e deduzir conseqüências de maneira rigorosa
e de acordo com os cânones da metodologia científica. No contexto da descoberta, por outro
lado, os caminhos para se adquirir conhecimento são os mais variados.
Ao se discutir uma questão de filosofia da ciência, é preciso especificar em qual
contexto se está trabalhando. Por exemplo, qual a importância da indução na ciência? A
“indução por enumeração” consiste de se observar uma regularidade em um número finito de
casos, e daí generalizar para todos os casos, em uma “lei empírica”. No contexto da
descoberta, tal método é muitas vezes usado, especialmente nos estágios iniciais de uma área
científica. Os positivistas tendem a considerar que a indução também é uma maneira de
justificar a aceitação de uma lei empírica. No entanto, autores como Karl Popper discordam
que a indução possa servir de justificação, sem negar, porém, que ela possa ter um papel na
geração de hipóteses (contexto da descoberta). Para Popper, o método privilegiado para se
justificar uma teoria é o método hipotético-dedutivo, que consiste em formular uma hipótese e
deduzir suas conseqüências empíricas (observacionais): se houver concordância entre a
previsão e o que é de fato observado, a hipótese é “corroborada” (verificada); se não, ela é
“falseada” (ou seja, a hipótese ou alguma outra suposição usada na dedução deve ser
abandonada).
Neste capítulo, examinaremos as tentativas de fundamentar teorias científicas em
bases rigorosas, por meio de sua axiomatização. Tais tentativas estão claramente no contexto
da justificação. No cap. X, estudaremos o contexto da descoberta da teoria do
eletromagnetismo por Maxwell, onde as analogias desempenham papel importante.
2. Discussão dos Princípios Newtonianos no Séc. XIX
Em meados do séc. XIX, concomitantemente com a ascensão da Termodinâmica e do
princípio de conservação de energia, vários físicos começaram a questionar os fundamentos
da mecânica newtoniana. Na França, Barré de Saint-Vernant (1797-1886), em 1851, adotou
uma perspectiva atomista para fundar a mecânica apenas nas velocidades e acelerações entre
pontos, derivando definições de “massa” e “força”. Considerava que as forças eram “agências
de uma natureza oculta ou metafísica”, e não as relacionou com as causas eficientes dos
48 Os termos “contexto da descoberta” e “contexto da justificação” foram cunhados por Hans Reichenbach
(1938), mas a distinção é mais antiga. Immanuel Kant (1781), por exemplo, se referia a “questões de fato” (quid
facti) e “questões de direito” (quid juris). John Herschel(1830) também é citado como um autor que distinguiu
claramente entre “como alcançamos conhecimento” e “a verificação das induções”.
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
46
movimentos.49 Por contraste, outro francês, Frédéric Reech (1852), seguiu a abordagem de
Euler ao colocar a força como ponto de partida da mecânica. Comparou uma força a um fio
tensionado que estaria ligado à partícula sofrendo a ação da força. A força poderia ser
avaliada cortando-se o fio e observando o movimento subseqüente da partícula. Trabalhando
com diferenças de acelerações, buscou eliminar a descrição em termos de um referencial
privilegiado. Sua “escola do fio” foi levada adiante por Jules Andrade (1898).
Um quarto de século após essas primeiras formulações, em 1876, o alemão Gustav
Kirchhoff (1824-87) se propôs a construir a mecânica de maneira lógica, a partir das noções de
espaço, tempo e matéria, e derivando destas os conceitos de força e massa. Uma abordagem
semelhante foi publicada independentemente, em 1883, pelo austríaco Ernst Mach (de quem já
falamos na seção V.4), em seu livro A Ciência da Mecânica. Mach considerou que os princípios
da mecânica precisariam ser fundados na experiência, e não na especulação teórica: seu livro
seria “um trabalho de explicação crítica animado por um espírito anti-metafísico”.
Fez uso de um “princípio de simetria” para definir operacionalmente (por meio de
operações experimentais) o conceito de massa (inercial). Para isso, considerou que dois
corpos idênticos A e B comunicam acelerações iguais e contrárias, aA, aB, ao longo da linha
que os une (por exemplo, por meio de uma mola). Tomando A como tendo massa unitária
mA=1, a massa de B seria tal que mB·aB = –mA·aA. Eliminou assim o apelo de Newton à noção
intuitiva de “quantidade de matéria” (ver seção IV.2), e declarou que “nesta concepção de
massa não há teoria”. Tendo assim definido “massa” em termos operacionais, pôde
caracterizar a 2a lei de Newton como sendo uma definição50 de força: F := ma , derivada a
partir de termos observacionais. Sua estratégia foi apoiada por positivistas como Karl Pearson
(1892).
Heinrich Hertz (1857-1894) também se dedicou ao problema, logo antes de sua morte
prematura, publicando Os Princípios da Mecânica apresentados em uma Nova Forma (1894).
Seguindo seu professor Kirchhoff, buscou construir a Mecânica a partir dos conceitos de
tempo, espaço e massa. Comentou a abordagem tradicional, baseada nos conceitos de espaço,
massa, força e movimento, que estão ligadas às leis de Newton e ao princípio de d’Alembert
(seção VII.2), argumentando que ela teria imprecisões lógicas. Uma dessas imprecisões seria
que a noção de força em geral é tomada como a causa do movimento, mas, no caso de forças
fictícias como a força centrífuga, ela surge como efeito do movimento. Criticou também a
profusão do uso do conceito de força, por exemplo na Mecânica Celeste, sem que isso
correspondesse a algo observável: só observamos as posições dos astros em diferentes
instantes (comparou o uso de forças ao uso de epiciclos na Astronomia antiga).
Parte então da abordagem de Kirchhoff, mas faz a seguinte constatação, característica de
uma atitude realista. “Se quisermos obter um quadro do mundo que é fechado em si mesmo, no
que tange a leis, devemos conjeturar a existência de outros seres invisíveis por trás das coisas
que vemos, e buscar os atores escondidos por detrás das barreiras de nossos sentidos”. Os
conceitos de força e de energia seriam idealizações desse tipo, mas Hertz preferiu postular a
existência de “variáveis ocultas” que nada mais seriam do que massas em movimento, que se
chocariam com os corpos visíveis de maneira a dar conta do que observamos. Teríamos assim
um retrato mecanicista, semelhante ao de Descartes ou Le Sage (seções III.6 e 7). Hertz, porém,
não estava preocupado em fornecer modelos particulares para diferentes fenômenos, como a
gravitação, mas em formular uma descrição geral que fosse consistente com os princípios da
Mecânica Clássica. A lei fundamental da Mecânica seria uma lei de mínimo (seção VII.3): para
sistemas isolados, o sistema segue a trajetória de curvatura mínima, com uma velocidade
49 Nesta seção, seguimos DUGAS (1988), op. cit. (nota 44), pp. 436-51.
50 Adotamos a convenção de “dois-pontos-igualdade”, adotada por alguns lógicos, para exprimir uma definição:
“:=”. Outras signos usados para “definição” são: “≡” ou “=df.”.
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
47
constante. Tal lei se reduziria para as leis conhecidas da Mecânica, como o princípio de mínima
restrição de Gauss, que era uma formulação alternativa do princípio de d’Alembert.
O último autor que consideraremos neste resumo é o francês Henri Poincaré (1854-
1912), que em sua Ciência e Hipótese (1902) levou adiante o projeto de mostrar em que
medida as teorias físicas envolvem convenções. Uma convenção seria uma tese, a respeito do
mundo, que poderia ser diferente, mas que é adotada porque permite a construção de uma
teoria econômica (simples) e eficiente em suas previsões. Nossa tendência é supor que o
princípio de inércia (1a lei de Newton), por exemplo, reflete um fato fundamental do mundo
ou espelha diretamente a uma realidade. No entanto, argumenta Poincaré, não é possível
verificar experimentalmente este princípio. Podemos tentar fazê-lo lançando um corpo em
uma região na qual não há forças resultantes, mas, neste caso, como sabemos que não há
forças atuando? Um critério é verificar se um corpo de prova não sofre acelerações, mas neste
caso estaríamos usando implicitamente o princípio de inércia para constatar que numa região
não há forças, de modo a testar o próprio princípio de inércia! Seria um círculo vicioso!51
Poincaré considerava que vários outros princípios seriam convencionais: a
simultaneidade do tempo, o espaço absoluto, a suposição que o espaço seria euclidiano, a lei
de ação e reação, e o princípio de conservação de energia. (Em um capítulo posterior
examinaremos o argumento de Poincaré a respeito deste último princípio.) A 2a lei de Newton
seria uma convenção, mas mesmo assim Poincaré associava ao conceito de força um conteúdo
intuitivo (associado à noção de esforço), ao contrário do que fizera Kirchhoff. Considerava
assim que a abordagem de Kirchhoff era apenas uma convenção possível, assim como a
adotada pela “escola do fio” que mencionamos anteriormente. Quanto ao papel da
experimentação, considerava que ela poderia verificar a teoria física de maneira apenas
aproximada (dado que não existiria um sistema perfeitamente isolado); ou seja, as convenções
da física seriam parcialmente justificadas pela experimentação.
3. Críticas ao Método de Mach
Críticas à proposta de Mach começaram a surgir de maneira mais detalhada a partir do
trabalho de dois matemáticos ingleses, L.N.G. Filon e C.G. Pendse, na década de 1930. Filon
publicou em 1926 um estudo sobre as bases da mecânica racional em que tinha simpatia pela
abordagem de Mach. Em torno de 1932, porém, passou a questionar a abordagem machiana
por razões semelhantes às consideradas por Poincaré (a quem não cita): nunca podemos ter
certeza que um corpo não está sob o efeito de uma força externa, nem que dois corpos
interagentes (segundo a receita de Mach) também não estejam. As três leis de Newton não
seriam leis experimentais, pois não podem ser provadas nem refutadas experimentalmente.
Filon concluiu que a única maneira correta de definir a massa de um corpo seria através de
seu peso, método este proposto pelo próprio Newton.52
Em 1937, C.G. Pendse53 mostrou que o método operacional de Mach, de observar as
aceleraçõesentre dois corpos para inferir os valores das massas, falhava para muitos corpos.
Sem levar em conta a 3a lei de Newton, se as acelerações fossem medidas apenas uma vez, o
51 Esta e outras discussões são tratadas em CHIBENI, S.S. (1999), “A Fundamentação Empírica das Leis
Dinâmicas de Newton”, Revista Brasileira de Ensino de Física 21, 1-13.
52 FILON, L.N.G. (1938), “Mass and Force in Newtonian Mechanics”, Mathematical Gazette 22, 9-16.
53 PENDSE, C.G. (1937), “A Note on the Definition and Determination of Mass in Newtonian Physics”,
Philosophical Magazine 24, 1012-22. PENDSE, C.G. (1939), “A Further Note on the Definition and
Determination of Mass in Newtonian Mechanics”, Philosophical Magazine 27, 51-61. PENDSE, C.G. (1940), “On
Mass and Force in Newtonian Mechanics”, Philosophical Magazine 29, 477-84.
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
48
método falhava para mais do que 4 corpos, pois o número de incógnitas (forças entre pares de
partículas, mais as massas) tornava-se maior do que o número de equações. Mesmo levando
em conta a 3a lei de Newton, uma única observação de aceleração, para corpos não
coplanares, não consegue determinar as massas relativas, de maneira exata, para mais do que
5 corpos.
Pendse calculou também o que aconteceria se se pudesse medir as acelerações em
vários instantes diferentes. Inicialmente, concluiu que para acima de 7 corpos o método
falharia, mas em um artigo posterior concluiu que seria possível derivar as massas relativas
em alguns casos, com um número suficientemente grande de medições, mas não as forças!
O método de Mach funcionaria, naturalmente, se se pudesse pegar cada corpo
individualmente, e comparar sua aceleração com a de um corpo de referência, e pô-lo de volta
no sistema, supondo que sua massa não varia neste procedimento.
Na prática, é claro, tal procedimento não é necessário para corpos de nosso cotidiano,
pois confiamos em balanças. Para se determinar as massas dos planetas, não podemos retirar
os corpos para pesagem, mas o fato de o Sol ser muito mais massivo do que os planetas
facilita os cálculos a partir das acelerações. Já no caso de partículas elementares, as massas
são medidas por diversos procedimentos, muitos dos quais dependem da aceitação de uma
teoria física.
Concluindo esta seção, podemos dizer que métodos operacionais parecem viáveis na
física, mas na prática científica utilizam-se de bom grado métodos nos quais conceitos
teóricos são introduzidos de maneira primitiva.
4. Axiomatização de Teorias Matemáticas
Uma axiomatização consiste em uma formulação de uma teoria que se inspira na
sistematização que Euclides deu para a geometria (ver seção I.3). Partem-se de axiomas,
demonstram-se teoremas e resolvem-se problemas de construção.
No séc. XIX, o quinto postulado de Euclides – que diz que dados uma reta e um ponto
fora dela, em um plano, então pelo ponto passa apenas uma paralela à reta – passou a ser
modificado, resultando nas geometrias não-euclidianas. Com isso, começou a ficar claro que o
importante em uma axiomatização na matemática não é nossa opinião sobre a veracidade dos
axiomas, mas a consistência interna do sistema axiomático. Essa concepção foi bastante
divulgada no começo do séc. XX pelo alemão David Hilbert, que sublinhou que uma
axiomatização deve deixar claro quais são as noções primitivas (não-definidas) do sistema.
No caso da Geometria Euclidiana, as noções de “ponto” e “reta” são primitivas: não devem
ser definidas a partir de outros conceitos e nem precisam satisfazer nossa intuição a seu
respeito. O significado dessas noções é parcialmente estabelecido pelos cinco axiomas de
Euclides. No entanto, diferentes “interpretações” podem satisfazer o sistema axiomático,
sendo chamadas de “modelos”. Por exemplo, o modelo representado pictoricamente na Fig.
VIII.1 satisfaz o seguinte conjunto de axiomas, usados por Hilbert54:
A1: Para quaisquer duas retas, há no máximo um ponto pertencente às duas.
A2: Para quaisquer dois pontos, há exatamente uma reta que as contém.
A3: Em cada reta há pelo menos dois pontos.
A figura pode causar estranheza, porque a reta BDF não se parece com as outras.
Mesmo assim, representa um modelo do sistema de axiomas {A1,A2,A3}.
54 Exemplo apresentado por VAN FRAASSEN, B. (2007), A Imagem Científica, trad. L.H.A. Dutra, Ed. Unesp/
Discurso, São Paulo, pp. 84-6 (orig. em inglês: 1980).
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
49
Figura VIII.1: Geometria dos sete pontos e sete retas, que é um modelo dos axiomas A1, A2 e A3.
5. Axiomatização Dedutivista da Mecânica Clássica
A formulação que Newton deu para a Mecânica pode ser considerada uma
“axiomatização informal”, pois partiu de algumas definições e das três leis fundamentais da
Mecânica, além da lei de atração gravitacional, e deduziu diversos teoremas. No entanto, a
sua axiomatização não satisfaz os critérios de rigor da lógica moderna, sendo por isso
considerada “informal”.
Em 1953, J.C.C. McKinsey, A.C. Sugar & Patrick Suppes publicaram uma
axiomatização da mecânica clássica de partículas que se propunha a cumprir os padrões de
rigor estipulados por Hilbert. Em especial, tomaram cuidado em deixar claro quais são as
noções primitivas da teoria mecânica. Escolheram não introduzir um axioma de
impenetrabilidade entre partículas, e pressupuseram também diversos resultados da
matemática clássica.
As noções primitivas introduzidas foram P, T, m, s e f. O que seria P? Não
diretamente uma entidade física, mas um conjunto! P e T são conjuntos, m uma função unária,
s uma função binária e f uma função ternária. A axiomatização de McKinsey et al. é uma
teoria matemática, baseada em conjuntos e em funções, que por sua vez são redutíveis a
conjuntos. Assim, Suppes cunhou o slogan que “axiomatizar uma teoria é definir um
predicado conjuntista”.55 Essa abordagem não foi bem recebida pelos físicos, como pode ser
visto pelo comentário de Clifford Truesdell, em nota na primeira página do artigo de
McKinsey et al., que se inicia assim: “O comunicador está em completo desacordo com a
visão da mecânica clássica expressa neste artigo”.
Naturalmente, McKinsey et al. tinham em mente uma interpretação física para esses
conceitos matemáticos. P poderia ser interpretado como um conjunto de partículas p, mas
também poderia ser interpretado de maneira não física, como um conjunto de números, por
exemplo. T é interpretado como um conjunto de números reais que medem o tempo
transcorrido. A função m(p) interpreta-se fisicamente como a massa da partícula p, s(p,t) é seu
vetor posição num instante de tempo t, e f(p,t,i) é o vetor de força i atuando em p no instante t.
Apresentam então seis axiomas, de tal forma que o conjunto ordenado 〈P,T,m,s,f〉 define um
sistema de mecânica de partículas. Os axiomas P1 e P2 apenas estipulam que P não é vazio e
55 MCKINSEY, J.C.C.; SUGAR, A.C. & SUPPES, P. (1953), “Axiomatic Foundations of Classical Particle
Mechanics”, Journal of Classical Mechanics and Analysis 2, 253-72. O slogan de Suppes aparece em um texto
não publicado de 1967, e é citado na revisão feita por SANT’ANNA, A.S. & GARCIA, C. (1998), “É Possível
Eliminar o Conceito de Força da Mecânica Clássica”, Revista Brasileira de Ensino de Física 20, 346-53, que
axiomatiza a mecânica de Hertz.
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
50
que T é um intervalo de números reais. Oterceiro axioma cinemático determina que o vetor
s(p,t) é duplamente diferenciável em t. O axioma P4 apenas estipula que m(p) é um número
real positivo, e P5 que a soma em i das forças f(p,t,i) converge em uma força resultante de
valor finito. O último dos três axiomas dinâmicos, P6, corresponde à 2a lei de Newton.
Notamos a importância que os autores atribuem à especificação matemática precisa dos
conceitos envolvidos.
A 1a lei de Newton é derivada de P3, P4 e P6, como o teorema de que se a força
resultante sobre um corpo é nula, o vetor velocidade é constante. Quanto à 3a lei de Newton
(ação e reação), McKinsey et al. preferem não impô-la como axioma, para permitir aplicações
em que ela não é usada, como no disparo de uma bala de canhão (em que a força de reação na
Terra é desprezada). Vemos assim uma característica pragmática de sua axiomatização,
próxima de um instrumentalismo (seção IV.4), pois na formulação dos axiomas não importa
tanto qual é a “verdade”, mas sim o quão prático é a aplicação do formalismo. De fato, no
início do artigo eles advertem:
Deve-se notar que a mecânica de partículas, como quase qualquer outra ciência em
forma dedutiva, envolve uma idealização do conhecimento empírico factual [actual
empirical knowledge] – e é assim melhor concebida como um instrumento para lidar
com o mundo [a tool for dealing with the world], do que como um retrato que o
representa. (MCKINSEY et al., 1953, p. 254.)
Apesar de não adotarem a 3a lei de Newton, provam um teorema segundo o qual qualquer
modelo de seu sistema axiomático pode ser inserido como parte de um modelo mais amplo
que satisfaz a 3a lei.
Um resultado bastante citado do trabalho de McKinsey et al. é a demonstração de que
m, s e f são noções primitivas independentes, sendo que P e T, por seu turno, poderiam ser
definidos em termos dos outros primitivos. Utilizam para isso um método lógico devido a
Alessandro Padoa (1900), que consiste essencialmente em fixar os valores dos outros
primitivos, e mostrar que o primitivo em questão pode assumir diferentes valores (ou seja, seu
valor não é fixado univocamente pelos valores dos outros primitivos). No caso da força,
mostram, em um exemplo simples, que as acelerações de um conjunto de corpos colineares
podem ser devidas a distintos conjuntos de forças (ver Fig. VIII.2).
O exemplo é trivial porque os dois conjuntos de forças, α={ f 0}, β={ f 1, f 2}, fornecem
as mesmas forças resultantes em cada corpo. Isso revela a diferença entre a abordagem de
McKinsey et al. e os de Kirchhoff e Mach (seção VIII.2). Kirchhoff define a força a partir da
massa e da aceleração. Assim, no exemplo da Fig. VIII.2, as duas situações correspondem à
mesma força em cada partícula, que no caso é a força resultante. Na abordagem descritivista
de Kirchhoff, não faria sentido nesse exemplo distinguir os casos (α) e (β), a não ser que
houvesse alguma outra maneira empírica de distinguir essas situações. Já McKinsey et al.
partem do princípio que existem os dois conjuntos distintos de forças, e que cada uma das
forças indicadas é real, mesmo que empiricamente os conjuntos de forças sejam
indistinguíveis. Apesar de termos citado um parágrafo em que apresentam um discurso
instrumentalista, neste momento eles adotam uma postura mais realista que a de Kirchhoff,
com relação ao conceito de força.
Com relação a Mach, consideram plausível que se pegue cada partícula, e que cada
uma seja submetida (individualmente) ao procedimento operacional para se determinar sua
massa, em relação a uma massa de referência. No entanto, tal procedimento envolve um
cientista experimental, e McKinsey et al. não vêem como seria possível incorporar tal
cientista em um sistema clássico de mecânica de partículas!
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
51
Figura VIII.2: Exemplo de McKinsey et al. de dois conjuntos de forças
(indicadas por flechas) que geram as mesmas acelerações.
6. O Debate entre Axiomatizações Empiristas e Dedutivistas
Vimos até aqui duas estratégias para se fundar a mecânica clássica de partículas. Na
axiomatização informal de Newton, cada axioma pretende exprimir uma lei fundamental do
Universo, ou seja, pretende ter um importante conteúdo físico, mesmo que haja redundâncias
(a 1a lei é um caso particular da 2a). A maioria das revisões formuladas no séc. XIX (que
vimos na seção VIII.2) envolviam a questão de se os postulados de Newton exprimiam
diretamente fatos observados na natureza, ou se eles envolviam conceitos teóricos (não
diretamente observáveis), como “força”. A tentativa de axiomatizar uma teoria física com
base em postulados próximos à observação pode ser chamada de abordagem empirista ou
operacional (ou mesmo “indutivista”) à axiomatização de teorias científicas.
Já a abordagem de McKinsey, Sugar & Suppes encara o conceito de força de maneira
realista (mesmo adotando um tom geral instrumentalista), aceitando que se possa definir esse
conceito de modo independente das observações. Tal abordagem pode ser chamada de
dedutivista ou realista.
Outros autores propuseram axiomatizações mais empiristas do que as de McKinsey et
al. Herbert Simon, pensador multifacetado, expoente da inteligência artificial e ganhador do
Prêmio Nobel de Economia, escreveu vários trabalhos formulando uma axiomatização de
sabor mais empirista56. Ele contorna as dificuldades que o método de Mach enfrenta para
definir operacionalmente massa, ao incluir a lei da atração gravitacional como um axioma.
Dentre as conclusões que obteve, está a de que se se quiser definir força a partir da 2a lei de
Newton, então a lei da gravitação se torna uma lei empírica. Mas se, de maneira alternativa, se
quiser definir força a partir do axioma correspondente à lei da gravitação, então F=ma se
56 SIMON, H.A. (1946), “The Axioms of Newtonian Mechanics”, Philosophical Magazine (series 7) 38, 888-905.
SIMON, H.A. (1954), “The Axiomatization of Classical Mechanics”, Philosophy of Science 21, 340-3. SIMON,
H.A. (1970), “The Axiomatization of Physical Theories”, Philosophy of Science 37, 16-26.
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica
52
torna uma lei empírica da Física. Ou seja, a questão de qual é a convenção (definição) e qual é
a lei empírica depende da perspectiva que se adota.
Um interessante balanço geral deste debate é fornecido pelo filósofo da física inglês
Jon Dorling57:
Este resultado [de Suppes e colegas] é normalmente tomado como mostrando que, ao
contrário das visões positivistas de Mach, massas e forças são termos teóricos que não
podem ser eliminados em favor de termos de observação. À primeira vista, essa
conclusão parece também fornecer um forte apoio para o hipotético-dedutivismo, contra
o indutivismo.
Porém, é difícil aceitar os resultados facilmente provados de Suppes da maneira em que
são vendidos filosoficamente. Por um lado (ao contrário do que a maioria dos filósofos
parece supor), os físicos matemáticos parecem, em geral, ter tido sucesso em eliminar
termos teóricos em favor de termos mais diretamente observáveis [...] (DORLING, 1977,
p. 55.)
Dorling cita as axiomatizações operacionais da Termodinâmica e da Mecânica
Quântica feitas por Robin Giles, e se detém numa axiomatização da Mecânica Clássica feita
por G.W. Mackey (1963), que fornece uma generalização do método de Mach para se
determinarem operacionalmente as massas. Conclui que o resultado de independência de
McKinsey et al. é decorrente da “escolha idiossincrática” de primitivos feita por eles, e que
seu resultado não é geral, não afetando a plausibilidade de axiomatizações operacionais oupositivistas.
57 DORLING, J. (1977), “The Eliminability of Masses and Forces in Newtonian Particle Mechanics: Suppes
Reconsidered”, British Journal for the Philosophy of Science 28, 55-7.
Filosofia da Física Clássica
Cap. IX
53
A Ontologia do Eletromagnetismo
Questão: Quais conceitos do eletromagnetismo correspondem a entidades
reais ?
1. Critérios para estabelecer o que é Real
A teoria do eletromagnetismo de Maxwell postulou a existência de diversos “campos”
(definiremos este conceito na seção IX.4), como o elétrico E, o de indução magnética B, o
potencial φ e o potencial vetor A. Quais deles correspondem a entidades reais? Em nosso
ensino de física, E e B são considerados reais, e a luz é costumeiramente representada como
ondas E e B. Já o potencial vetor é considerado irreal, apenas uma representação matemática.
Qual o critério usado para se estabelecer que um termo teórico corresponde ou não a uma
entidade real? Iniciaremos este capítulo examinando esta questão filosófica, e depois
discutiremos visões alternativas, uma que defende que o campo magnético não é real, e outra
que o potencial vetor também é real.
O que é real? O protótipo de um objeto real é uma pedra. Ela é dura, colorida, tem até
gosto, continua igual mesmo que eu a jogue, tem uma forma tridimensional que é consistente
com todas as imagens formadas de diferentes perspectivas, é facilmente concebida e
representada pela minha mente, posso lhe dar um nome, se alguém a atirar em mim eu sentirei
dor, e se eu jogá-la contra uma vidraça terei o poder de causar a quebra desta.
Podemos extrair desta caracterização quatro critérios para decidir se um objeto é real
ou não. Tais critérios não são necessariamente exaustivos, e podem não ser independentes,
mas servirão como um ponto de partida para discutir se determinado objeto, como um arco-
íris, uma sombra, um quark ou uma partícula virtual, é real. Quando consideramos um objeto
real, ele costuma ser:53
1) Observável. Se observamos algo, temos boa confiança de que ele existe. Há porém
ilusões, como lampejos de luz quando batemos a cabeça, e há objetos visíveis que
interpretamos como sendo distintos do que são, como as aparições de discos voadores nos
céus. O sentido do tato parece ter mais importância na determinação de que algo é real.
Vemos um arco-íris mas não conseguimos pegá-lo: será que ele é real? Quando todo mundo
observa o mesmo objeto, há mais razões para considerarmos que o objeto é real, mas mesmo
observações privadas, como o lampejo ilusório ou uma dor no calcanhar, são indício de um
evento real em nosso corpo.
2) Invariante. Ao tratar de entidades inobserváveis, o critério de invariância adquire
muita importância. Aquilo que permanece constante ante transformações de coordenadas ou
de perspectivas costuma ser considerado real. Na teoria da relatividade restrita, comprimentos
e durações temporais variam com o referencial, mas há um “intervalo espaço-temporal” que
permanece invariante, sugerindo que seja mais real do que o espaço e o tempo separados,
apesar de estes serem observados. Na teoria quântica, a função de onda ψ(r) é invariante ante
mudanças no aparelho de medição, ou seja, ante mudanças no observável sendo medido. Isso
faz alguns autores admitirem que a “onda de probabilidade” ψ(r) seja real, mas os críticos
desta opinião argumentam que ela não é diretamente observável e nem satisfaz o critério
seguinte, não sendo por isso real.
3) Concebível. Outro critério importante para aceitarmos que um conceito corresponda
a algo real é que ele possa ser representado de maneira não-problemática em uma teoria. A
53 Uma discussão semelhante, sobre o que é “fisicamente real”, é apresentada em NAGEL (1961), op. cit. (nota
28), pp. 146 ff.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
54
função de onda mencionada no parágrafo anterior estaria sujeita a “colapsos não-locais”
(falaremos sobre a localidade na seção VIII.4), e para duas partículas correlacionadas ψ(r1,r2)
seria definida em seis dimensões, o que é problemática teoricamente. A maioria dos cientistas
não acredita em fantasmas porque (entre outras razões) estes não são explicáveis pela teoria
física atual. Na física, podemos aceitar que a energia cinética de uma bala seja real porque
esse termo teórico está presente em leis científicas bem confirmadas e aceitas. NAGEL
salienta também que se um termo teórico aparecer em diferentes leis experimentais, aumenta
nossa confiança em sua realidade.
4) Causalmente potente. Se um objeto apresenta “poderes causais”, isso aumenta
nossa crença em sua realidade. Se uma bruxa consegue lançar um encantamento e quebrar
uma vidraça, passamos a levar seriamente que seu encantamento é real. Em discussões sobre a
realidade do mental (como sendo distinto do corporal ou cerebral), às vezes utiliza-se o
argumento de que seriam os estados mentais (e não prioritariamente os correspondentes
estados cerebrais) que causariam nossas ações, de forma que tais estados seriam reais (e não
meros “epifenômenos” do cerebral). Em filosofia da biologia, discute-se qual é o “nível de
seleção” que tem realidade (o gene, o indivíduo ou o grupo) a partir de seu poder causal.
Na presente discussão, enfocamos objetos individuais, mas há também uma longa
discussão sobre a realidade de entidades envolvendo mais de um indivíduo, como conjuntos
de indivíduos (um conjunto existe ou é apenas uma representação), ou propriedades universais
e entidades matemáticas, que examinamos na seção I.4.
2. Ampère e o Magnetismo como Epifenômeno
Em julho de 1820, o dinamarquês Hans Christian Ørsted descobriu que, ao colocar um
fio de platina, condutor de corrente galvânica, próximo e paralelamente a uma bússola, esta
tendia a girar para uma posição quase perpendicular ao fio (o efeito não era completo devido
ao campo magnético da Terra). Com isso, enunciou sua lei fundamental do eletromagnetismo:
“o efeito magnético da corrente elétrica tem um movimento circular em torno dela”.54
Figura IX.1: Forças entre imãs e entre espiras de corrente equivalentes.
54 MARTINS, R.A. (1986), “Ørsted e a Descoberta do Eletromagnetismo”, Cadernos de História e Filosofia da
Ciência 10, pp. 89-114. Este artigo é seguido pela tradução do texto original de Ørsted”.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
55
Em Paris, em setembro, André-Marie Ampère construiu o primeiro galvanômetro e
mostrou que dois fios paralelos, carregando corrente no mesmo sentido, se atraem. Em
outubro, François Arago construiu os primeiros solenóides e Jean Baptiste Biot & Félix
Savart anunciaram a lei de força entre uma corrente e um imã. Em 1821, em Londres, Michael
Faraday conseguiu produzir um movimento circular constante de um imã em torno de uma
corrente (e vice-versa).
A maioria dos cientistas dava igual importância aos efeitos elétricos, de um lado, e aos
efeitos magnéticos, de outro. Podemos dizer que eletricidade e magnetismo tinham o mesmo
“estatuto ontológico”, ou seja, considerava-se que ambos existiam na realidade. Ampère,
porém, impressionou-se com a equivalência da ação de um imã e de uma espira de corrente
elétrica. A Fig. IX.1 apresenta as forças que surgem entre dois imãs, em diferentes disposi-
ções, e as análogas forças entre duas espiras de corrente. Ampère, então, lançou a hipótese de
que a ação magnética nada mais é do que a ação de espiras elétricas de dimensões atômicas!
Em outras palavras, os efeitos magnéticos seriam apenas“epifenômenos” dos elétricos, ou
seja, no fundo nada mais seriam do que conseqüências de correntes elétricas fechadas.
Como explicar, porém, o fato de que uma agulha de ferro pode não estar imantada, mas
que ao entrar em contato com um imã, torna-se magnética? Ampère postulou que cada átomo de
ferro, nas condições normais em que não está magnetizado, teria correntes dispostas de acordo
com a superfície de uma maçã (Fig. IX.2a). O resultando desta disposição seria um campo
magnético interno ao átomo (na forma de um círculo passando por dentro das espiras), mas um
campo nulo no exterior do átomo. No entanto, se o ferro fosse aproximado de um imã e se
magnetizasse, o que ocorreria, segundo Ampère, seria uma deformação como a da Fig. IX.2b,
gerando um campo magnético fora do átomo, perpendicular ao plano do desenho.55
Figura IX.2: Modelo pictórico de um
átomo de ferro, segundo Ampère. As
linhas referem-se a correntes elétricas nos
átomos. O caso (a) representa a situação
sem magnetização, e o caso (b) o átomo
magnetizado. Neste último caso o campo
magnético é perpendicular ao plano do
desenho.
Hoje em dia, a tese de que o magnetismo dos materiais é devido a correntes atômicas
pode ser sustentada, mas a explicação é estatística. A circulação de elétrons em um átomo de
ferro pode ser visto como gerando um campo magnético, mas se tais átomos estiverem
orientados ao acaso, o efeito magnético global será nulo. Com a aproximação de um imã, o que
ocorre é um alinhamento dos átomos, de tal forma que seus campos magnéticos apontam mais
ou menos na mesma direção e sentido, gerando uma magnetização do material como um todo.
Um problema para a tese de Ampère é o fenômeno do momento magnético intrínseco
de elétrons, chamado de “spin”. É como se um elétron fosse um minúsculo imã. Para tentar
55 As Figs. IX.2 e IX.3 foram adaptadas de TRICKER, R.A.R. (1965), Early Electrodynamics, Pergamon, Oxford,
pp. 29-30 e 43.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
56
explicar esse magnetismo a partir do movimento de cargas elétricas, pensou-se no elétron
como uma esfera elétrica em rotação, mas os cálculos mostraram que a velocidade de rotação
necessária para gerar o spin do elétron violaria a teoria da relatividade restrita. É possível,
porém, elaborar outros modelos para o spin do elétron56, de maneira a salvar a tese de Ampère
do primado ontológico da eletricidade.
Recentemente, André Assis apresentou um argumento contra a realidade do campo
magnético57, baseado no princípio de razão suficiente de Leibniz (ver seção V.4). Se
considerarmos uma espira circular em um plano, qualquer força gerada por este sistema em
alguma carga localizada no plano estará direcionada paralela ao plano (nunca para fora do
plano). Que razão teríamos, então, para postular a existência de um vetor de indução
magnética apontada para fora do plano? Que razão teríamos para estipular que este vetor está
apontado “para cima” do plano e não “para baixo”? Não haveria razão para quebrar essa
simetria. Logo, o campo magnético não existiria.
3. Forças Magnéticas violam o Princípio de Ação e Reação?
Ampère buscou construir uma teoria eletromagnética que satisfizesse os princípios da
mecânica de Newton, concebendo que os elementos infinitesimais de corrente se atrairiam ou
se repeliriam segundo uma força central, satisfazendo o princípio de ação e reação (3a lei de
Newton). Para exprimir a ação entre uma espira elétrica e um imã (ou entre dois imãs),
Ampère substituía o imã pela espira equivalente, aplicava sua lei de força para cada par de
elementos de corrente, fazia a integração ao longo de cada circuito fechado, e obtinha a força
resultante entre os dois sistemas.
Este, porém, era um método diferente daquele introduzido por Biot & Savart, que em
outubro de 1820 obtiveram uma lei de força entre um elemento de corrente e um imã. Para
este tipo de interação, a lei de Biot-Savart, ou sua reformulação por Grassmann (1845), foi
adotada pela maioria dos físicos, mas ela tinha a característica peculiar de nem sempre
satisfazer o princípio de ação e reação. A Fig. IX.3 ilustra esta violação para dois elementos
de corrente. Usando a regra da mão direita, vemos que o elemento 1 gera um campo
magnético 21B
r
no elemento 2, o que resulta na força 21F
r
indicada, que não é central. Por outro
lado, o campo magnético exercido por 2 em 1 é nulo, de forma que não haveria força
resultante em 2. Temos assim uma clara violação do princípio de ação e reação!
Figura IX.3: Forças entre elementos de corrente segundo Biot & Savart.
56 Ver referências em PESSOA JR., O. (2003), Conceitos de Física Quântica, vol. 1, Livraria da Física, São Paulo,
pp. 145-6.
57 ASSIS, A.K.T. (1999), “Arguments in favour of Action at a Distance”, in Chubykalo, A.E.; Pope, V. &
Smirnov-Rueda, R. (orgs.), Instantaneous Action at a Distance in Modern Physics – “Pro” and “Contra”, Nova
Science, Commack (Nova Iorque), pp. 45-56; ver p. 54.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
57
O curioso é que os dois métodos, o de Ampère e o de Biot-Savart, quando aplicados
para circuitos inteiros fechados (o que envolve a integração da contribuição de todos os
elementos), resultam sempre no mesmo resultado!
Após a descoberta da indução eletromagnética por Faraday e Joseph Henry, em 1831,
tornou-se necessário formular uma teoria mais abrangente para o eletromagnetismo. Isso foi
feito por Franz Neumann, em 1845, por Wilhelm Weber, a partir de 1846, e por James
Maxwell, a partir de 1856. Nesse período, a oposição entre as estratégias de Biot-Savart e
Ampère se manteve. Biot-Savart e Grassmann influenciaram a abordagem de Lorentz, de
1892, que é apresentada na maioria dos textos didáticos, juntamente com a teoria de Maxwell.
Já a abordagem de Ampère foi retomada por Weber, que manteve a 3a lei de Newton, e
acabou formulando uma teoria empiricamente equivalente à de Maxwell. Uma comparação da
lei de força de Lorentz, segundo a expansão aproximativa de Liénard-Schwarzschild, e a de
Weber, é apresentada por André Assis (que mencionamos na seção anterior), um seguidor
contemporâneo da tradição de Ampère e Weber. Ambas as leis de força fornecem os mesmos
resultados, quando integradas ao longo de circuitos, a menos de um termo proporcional ao
quadrado da velocidade. Tentativas para testar esta diferença não têm levado a resultados
conclusivos.58
4. Campos e a Ação por Contato, ou Localidade
Quando falamos em um “campo” na física, como o campo elétrico ou o campo
gravitacional, pensamos em uma função matemática geralmente definida em todos os pontos
do espaço e do tempo, como E(r,t). Atribuímos realidade para esse campo porque se no
instante t colocarmos uma carga q de massa m no ponto r, concebemos que este campo causa
uma aceleração a, cujo valor medido será tal que F = ma = q E(r,t). Notamos que a descrição
do movimento da carga depende só de uma entidade postulada (o campo) presente localmente
em torno do ponto r, no instante t. É verdade que tal campo é gerado por cargas presentes em
outras regiões, mas a “causa próxima” do movimento da carga seria o campo, e não as
entidades localizadas à distância.
Para testar esta última afirmação, pode-se imaginar o que aconteceria se um
“demônio” (ver seção VI.2) arrancasse o Sol de sua posição com a maior aceleração possível.
Segundo a teoria da relatividade geral, demoraria 8 minutos (mais 19 ± 8 s) para que a Terra
sentisse o baque. A ação ocorrida no Sol não afeta instantaneamente aTerra, mas se propaga a
uma velocidade finita igual à da luz. Vemos assim que a noção de campo está intimamente
ligada à noção de ação por contato (ou por contigüidade): os efeitos causais não se propagam
instantaneamente à distância, mas se propagam de vizinho em vizinho, a uma velocidade
finita. Se o arranque do Sol afetasse a Terra instantaneamente, poderíamos dizer que a causa
próxima do baque na Terra seria o afastamento do Sol. Neste caso, poderíamos trabalhar com
uma função potencial gravitacional definida em todo espaço, U(r,t), como fez Poisson em
1813, mas isso não seria um “campo”, no sentido estrito, pois envolve ação à distância.
Um campo (no sentido estrito) teria então três características:
(i) Seria definida em todos (ou quase todos) os pontos do espaço e do tempo de uma
determinada região, correspondendo assim a uma entidade “espalhada”, podendo ser
associada a uma energia.
(ii) Em geral, tem um caráter meio abstrato ou fantasmagórico, pois não é diretamente
observável (sua existência é inferida dos efeitos que causa), podendo ser caracterizado como
58 ASSIS, A.K.T. (1995), Eletrodinâmica de Weber, Unicamp, Campinas.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
58
uma “potencialidade” no sentido aristotélico (seção II.3), o que justifica o uso do termo
“potencial” na física matemática.
(iii) Os efeitos se propagam a uma velocidade finita, numa ação por contato. Isso é
também expresso pelo termo localidade.
Esta última noção de ação por contato ou localidade estava presente na filosofia
mecânica de Descartes e Huygens (seção III.4), e retornou à física a partir dos trabalhos de
Faraday no eletromagnetismo. A teoria da relatividade geral de Einstein é uma teoria da
gravitação com ação por contato. Assim, podemos dizer que em 1922 toda a física
hegemônica era local. Isso é razoável: como é que algo que acontece no Sol poderia chegar
até nós instantaneamente?
No entanto, com a teoria quântica, especialmente a partir do teorema de Bell (1964), a
não-localidade voltou a figurar nas discussões de física. É costume dizer que “Einstein estava
errado” (no seu trabalho com Podolsky e Rosen, de 1935) e que a não-localidade se manifesta
em pares de partículas “emaranhadas”. No entanto, a situação é mais sutil do que parece. A
questão envolve uma escolha entre uma postura instrumentalista (positivista) e uma realista
(seção IV.4). O teorema de Bell diz que se alguém adotar uma postura realista com relação à
teoria quântica, ele é obrigado a aceitar a não-localidade (ação à distância). Por exemplo, se
alguém atribui realidade à função de onda ψ(r) (que mencionamos na seção IX.1), então terá
que aceitar a existência de colapsos não-locais. Porém, numa visão instrumentalista (para a
qual ψ(r) é apenas um objeto matemático), o mundo se comporta de maneira local. Isso se
reflete na impossibilidade de transmitir “informação” (algo macroscópico e observável) a uma
velocidade maior do que a luz.
5. O Potencial Vetor é um Campo Real?
Em seu estudo das propriedades eletromagnéticas de um meio, Faraday concluiu que
os efeitos eletromagnéticos se propagam por contato a partir de deformações do “estado
eletrotônico” do meio. Maxwell matematizou esta noção (ver cap. X), levando ao conceito de
potencial vetor A. Este campo possui as seguintes propriedades:
(i) O rotacional de A é o campo magnético: ∇ × A = B.
(ii) Ele é um potencial para o campo elétrico, juntamente com o potencial escalar φ:
E = –∂A/∂t – ∇φ.
(iii) A seguinte transformação de calibre altera A e φ, mas mantém os valores de E e
B, para qualquer função escalar ψ : A → A + ∇ψ ; φ → φ – (1/c)∂ψ/∂t . Assim, tais
transformações não alteram as medições experimentais.
(iv) Fixando-se ∇·A = 0, pode-se calcular o valor de A a partir da densidade de
corrente j: ∇2·A = –j/(ε0 c2), de forma que A seja paralelo a j.
(v) A pode ser interpretado como um “momento reduzido”. Assim, em analogia com a
2a lei de Newton, F = ma = ∂p/∂t, onde p é o momento linear, tem-se para a força elétrica:
F = qE = ∂(–qA)/∂t, de forma que –qA age como um momento.
(vi) Do potencial vetor pode-se derivar a energia do campo: U = ∫ j·A dV.
(vii) Em alguns problemas complicados, as integrais envolvendo A são mais fáceis de
trabalhar do que aquelas envolvendo B.
(viii) Por fim, o potencial vetor reaparece da mecânica quântica, na teoria da
relatividade e no princípio de mínima ação.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
59
Richard Feynman59 escreveu uma instrutiva apresentação ao conceito de campo, em
que discute a questão de se o potencial vetor A do eletromagnetismo é um campo real ou não.
Na verdade, seu conceito de “real” é um tanto instrumentalista. Ele escreve: “devemos
dizer que a frase ‘um campo real’ não tem muito significado”, mas ele diz isso basicamente
por causa do critério de observação (da seção IX.1): “você não pode pôr sua mão e sentir o
campo magnético”. Para Feynman, “um campo ‘real’ é portanto um conjunto de números que
especificamos de tal maneira que o que acontece num ponto depende apenas dos números
naquele ponto.” A discussão do físico norte-americano é pertinente mesmo que adotemos
uma concepção mais realista de “real”.
O principal argumento utilizado contra a realidade do potencial vetor A é que seu valor
não é único (item iii acima), mas se levarmos em conta a teoria da relatividade (seção
seguinte), o mesmo se aplicaria para os campos elétricos e magnéticos usuais. Outro
argumento contra a realidade é que A não aparece explicitamente em expressões de força,
como F = q(E + v × B); se tivermos uma região em que B = 0, não haverá força magnética
mesmo se A ≠ 0.
No entanto, com a física quântica, descobriu-se um efeito que só pode ser explicado,
em termos locais, a partir do campo A! Este é o chamado efeito Aharonov-Bohm, formulado
explicitamente por esses dois autores em 1959, mas já previsto em trabalho anterior de
Ehrenberg & Siday (1949). Um feixe de elétrons passa em torno de um solenóide
praticamente infinito (em outro arranjo possível, o solenóide tem forma toroidal), tendo-se o
cuidado de blindar o solenóide para impedir a penetração de elétrons (Fig. IX.4). A física
quântica prevê que neste experimento os elétrons se comportam como ondas, formando-se um
padrão de interferência na tela, mesmo quando o solenóide está desligado. Neste arranjo, o
campo magnético externo ao solenóide é nulo, e classicamente não se esperaria nenhum efeito
sobre os elétrons propagando à volta do solenóide. Mas ao se ligar o solenóide, o que se
observa é um deslocamento uniforme da franja de interferência, explicado por uma variação
na fase relativa das amplitudes de onda que passam por um lado e por outro do solenóide.
Como se dá esta alteração na fase relativa?
Figura IX.4: Arranjo do experimento de Aharonov-Bohm.
Quando o solenóide é ligado, as franjas sofrem um deslocamento.
59 FEYNMAN, LEIGHTON & SANDS (1963), op. cit. (nota 40), vol. II, p. 15-7. Sobre o potencial vetor, ver também
p. 14-10.
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo
60
Ora, esta fase é teoricamente expressa como [ ]∫ ⋅drA)(exp hie/ . Assim, a teoria nos
diz que ela depende de uma integral em termos do valor do potencial vetor na região externa
ao solenóide, por onde passa a onda eletrônica. O efeito assim é “local”. Isso então sugere que
A tenha realidade, no sentindo usual atribuído a campos.
No entanto, nemtodos os físicos estão dispostos a atribuir realidade ao potencial vetor.
Assim, alguns preferem considerar que há um efeito não-local (ação à distância) do campo
magnético dentro do solenóide em uma região distante, fora do solenóide. No entanto, tal
ação não poderia ser instantânea.60
6. Invariantes da Teoria da Relatividade
Não cabe aqui fazer uma exposição da teoria da relatividade restrita, mas vale a pena
salientar uma discussão filosófica que surge com esta teoria, a respeito da realidade do espaço
e do tempo. O que ocorre, segundo esta teoria desenvolvida por Einstein em 1905, é que as
medições de comprimento ∆l que são realizadas em um certo objeto, ou as medições de
tempo ∆t entre dois eventos, terão valores diferentes conforme o referencial inercial R ou R’
em que se encontra o observador. No entanto, há uma grandeza conhecida como “intervalo
espaço-temporal” ∆I, que pode ser definido a partir de ∆I 2 := c2 ∆t 2 – ∆l 2, onde c é uma
constante que equivale à velocidade da luz. Este intervalo ∆I é invariante com relação ao
referencial do observador, o que, segundo os critérios de realidade propostos na seção VIII.1,
sugere que ele tenha realidade. O comprimento de um determinado objeto seria medido de
maneiras diferentes (conforme o referencial) porque cada referencial observa o objeto numa
perspectiva diferente (o mesmo valeria para medições temporais). Segundo os livros
didáticos, o espaço-tempo é absoluto (tem o mesmo valor quando calculado por diferentes
observadores inerciais, é um “invariante de Lorentz”), ao passo que o espaço e o tempo
(tomados individualmente) são relativos.61
A tese filosófica de que o que tem realidade é o intervalo espaço-temporal, e que
espaço e tempo são apenas visões em perspectiva do intervalo, não é aceita por todos, e há
uma discussão na literatura a este respeito.
Nossa intenção aqui, porém, é estender a “interpretação perpectivista” para as
entidades eletromagnéticas. O campo magnético B, gerado por um elétron em movimento
uniforme, terá valor nulo em um referencial que se move juntamente com o elétron. O campo
elétrico E medido também variará conforme o referencial do observador. O que se mostra na
teoria da relatividade é que há dois invariantes de Lorentz, que nomearemos I1 e I2 (não
confundir com o intervalo espaço-temporal I): I1 := E2 – c2B2 , e I2 := (E·B)2 . Seriam
apenas essas grandezas que teriam realidade, segundo a interpretação perspectivista.
60 Um relato do experimento de Aharonov-Bohm encontra-se em TONOMURA, A. (1993), Electron Holography,
Springer, Berlim, pp. 57-67. Ver também OLARIU, S. & POPESCU, I.I. (1985), “Quantum Effects of
Electromagnetic Fluxes”, Reviews of Modern Physics 57, 339.
61 Ver, por exemplo: GAZZINELLI, R. (2005), Teoria da Relatividade Especial, Blücher, São Paulo, p. 83. Sobre
os invariantes do eletromagnetismo, ver p. 113.