Logo Passei Direto
Buscar

Filosofia da Física Clássica

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

FLF0472 – Filosofia da Física 
 (2o sem. 2008) 
 
 
 
 
Filosofia da Física Clássica 
 
 
Osvaldo Pessoa Jr. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Curso ministrado pelo Depto. de Filosofia, FFLCH, USP 
para o 3o ano de Licenciatura de Física, IFUSP. 
 
FLF0472 Filosofia da Física (USP - 2008) 
 
 ii
 
Sumário 
 
 
Cap. I. FILOSOFIA DA MATEMÁTICA 
 Como explicar a importância da matemática nas ciências naturais? 
 1. A Desarrazoada Efetividade da Matemática 1 
 2. A Matemática na Grécia Antiga 1 
 3. Os Postulados de Euclides 2 
 4. Questão Ontológica: Existem Objetos Matemáticos? 3 
 5. Questão Epistemológica: Números Imaginários se aplicam à Realidade Física? 4 
 6. Noções de Continuidade 5 
 7. Existe o Infinito? 6 
 
Cap. II. PARADOXOS DE ZENÃO 
 O espaço e o tempo são contínuos ou discretos? 
 1. Pano de Fundo de Zenão 7 
 2. Paradoxos do Movimento 8 
 3. Paradoxos da Pluralidade 8 
 3. O Holismo Aristotélico 10 
 4. Visão Moderna dos Paradoxos 11 
 5. Espaço e Tempo Discretizado na Gravidade Quântica 12 
 
Cap. III. FILOSOFIA MECÂNICA 
 Como explicar a gravidade sem forças à distância? 
 1. Hilemorfismo e a Física Aristotélica 13 
 2. Atomismo Greco-Romano 14 
 3. Naturalismo Animista 15 
 4. A Filosofia Mecânica 16 
 5. A Física e Cosmologia de Descartes 16 
 6. Explicação da Gravidade segundo a Filosofia Mecânica 18 
 7. Teoria Cinética da Gravitação 19 
 
Cap. IV. CONCEPÇÕES REALISTA E INSTRUMENTALISTA DE “FORÇA” 
 A ciência deve apenas descrever o que é observável ou deve lançar 
hipóteses sobre a realidade que estaria por trás dos fenômenos? 
 1. Mecanicismo com Forças à Distância 21 
 2. Definições e Leis no Principia 22 
 3. A Natureza da Força 24 
 4. Realismo, Instrumentalismo, Descritivismo 25 
 5. Realismo e Anti-Realismo em Newton 27 
 
Cap. V. EXPERIMENTO DO BALDE E ESPAÇO ABSOLUTO 
 O espaço e o tempo são absolutos ou relativos? 
 1. Há Juízos Sintéticos A Priori? 28 
 2. Referenciais Inerciais e Não-Inerciais 29 
 3. O Experimento do Balde 29 
 4. A Defesa do Espaço Relativo 31 
 5. Princípio de Mach e a Teoria da Relatividade Geral 32 
 
FLF0472 Filosofia da Física (USP - 2008) 
 
 iii
Cap. VI. DETERMINISMO E PROBABILIDADE (versão preliminar) 
 A natureza é determinista ou há eventos sem causa? 
 1. Determinismo e Previsibilidade 34 
 2. O Demônio de Laplace 34 
 3. Probabilidade 35 
 4. Definições de Aleatoricidade 36 
 5. Caos Determinístico e Sensibilidade a Condições Iniciais 37 
 
Cap. VII. PRINCÍPIOS DE MÍNIMA AÇÃO 
 Qual é o lugar das causas finais na física (e na ciência)? 
 1. Paradigmas e Programas de Pesquisa 39 
 2. Programas de Pesquisa Rivais na Mecânica Clássica 40 
 3. Princípios de Mínima Ação 42 
 4. Causas Finais na Física 44 
 
Cap. VIII. AXIOMATIZAÇÃO DA MECÂNICA CLÁSSICA 
 Por que e como axiomatizar as teorias físicas? 
 1. Contexto da Descoberta e Contexto da Justificação 45 
 2. Discussão dos Princípios Newtonianos no Séc. XIX 45 
 3. Críticas ao Método de Mach 47 
 4. Axiomatização das Teorias Matemáticas 48 
 5. Axiomatização Dedutivista da Mecânica Clássica 49 
 6. O Debate entre Axiomatizações Empiristas e Dedutivistas 51 
 
Cap. IX. A ONTOLOGIA DO ELETROMAGNETISMO 
 Quais conceitos do eletromagnetismo correspondem a entidades reais? 
 1. Critérios para estabelecer o que é Real 53 
2. Ampère e o Magnetismo como Epifenômeno 54 
 3. Forças Magnéticas violam o Princípio de Ação e Reação? 56 
 4. Campos e a Ação por Contato, ou Localidade 57 
 5. O Potencial Vetor é um Campo? 58 
 6. Invariantes da Teoria da Relatividade 60 
 
Cap. X. CONTEXTO DA DESCOBERTA DO ELETROMAGNETISMO 
 Qual é o papel das imagens e das analogias na ciência? 
 
Cap. XI. TERMODINÂMICA E ENERGÉTICA 
 A lei de conservação de energia é uma convenção? 
 
Cap. XII. MECÂNICA ESTATÍSTICA E IRREVERSIBILIDADE 
 Qual a origem da irreversibilidade dos fenômenos macroscópicos? 
 
Cap. XIII. DEMÔNIO DE MAXWELL E FÍSICA DA COMPUTAÇÃO 
 Um ser inteligente conseguiria violar a irreversibilidade? 
 
Filosofia da Física Clássica 
Cap. I 
 
1 
Filosofia da Matemática 
 
Questão: Como explicar a importância da matemática 
nas ciências naturais? 
 
 
1. A Desarrazoada Efetividade da Matemática 
 
Por que a matemática é tão importante na física? Essa é a questão que o importante 
físico húngaro Eugene Wigner (1902-95) discutiu em um artigo em que usou a curiosa 
expressão “desarrazoada (não razoável) efetividade (eficácia) da matemática”.1 A opinião de 
Wigner era que a gente não compreende porque a matemática é tão útil na física: seria uma 
espécie de “milagre”: “A lei da gravitação, que Newton relutantemente estabeleceu e que ele 
pôde verificar com uma acurácia de aproximadamente 4%, mostrou-se acurada numa 
porcentagem menor do que dez milésimos” (p. 231). Ou seja, usamos a matemática para 
descrever um domínio limitado da realidade, e às vezes essa descrição matemática se mostra 
eficaz em domínios muito mais amplos. Outro exemplo que Wigner cita é o sucesso da 
mecânica quântica (a partir de 1927) em explicar os níveis energéticos do átomo de hélio, um 
sistema bem mais complexo (por envolver dois elétrons interagentes) do que aqueles usados 
por Heisenberg para construir sua mecânica matricial. “Com certeza, neste caso, conseguimos 
‘tirar algo’ das equações que não tínhamos colocado” (p. 232). 
A tese de Wigner, de que a efetividade da matemática na física é desarrazoada, 
inexplicável, exprime um certo aspecto de seu pensamento filosófico no início dos anos 60, 
uma sensibilidade a problemas não resolvidos, como o mistério da consciência humana ou o 
problema do colapso na mecânica quântica. No entanto, muitas outras respostas foram dadas a 
este problema, desde a época de Pitágoras, que considerava que a essência da natureza são 
números. Curiosamente, uma resposta semelhante à de Pitágoras foi proposta recentemente 
pelo cosmólogo Max Tegmark, para quem “nosso mundo físico é uma estrutura matemática 
abstrata”!2 
 
 
2. A Matemática na Grécia Antiga 
 
A matemática grega, partindo de Tales de Mileto (c. 625-546 a.C.) e Pitágoras de 
Samos (c. 575-495 a.C.), se caracterizou pelo esforço de demonstrar de maneira rigorosa os 
seus resultados. Os pitagóricos, reunidos onde hoje é a Sicília, defendiam que todas as 
relações científicas eram expressas por meio de números naturais (1, 2, 3, ...) ou razões entre 
tais números, os chamados números racionais, ½, ¾, etc. Em conseqüência desta concepção, 
supunham que o espaço, o tempo e o movimento eram constituídos de elementos discretos. 
Ao pitagórico Hipaso de Metaponto (nascido circa 500 a.C.) é atribuída a descoberta 
dos números irracionais, como 2 , que seria a medida da diagonal de um quadrado de lado 
1. Esta descoberta era vista como um problema para a filosofia pitagórica, e conta a lenda que 
 
1 WIGNER, E.P. (1960), “The Unreasonable Effectiveness of Mathematics in the Natural Sciences”, 
Communications in Pure and Applied Mathematics 13, 1-14. Disponível na internet. Tradução disponível no 
saite do curso. 
 
2 TEGMARK, M. (2007), “The Mathematical Universe”, arXiv 0704.0646v1, 28 pp. Na internet, é fácil também 
encontrar sobre o assunto o artigo do matemático aplicado HAMMING, R.W.(1980), “The Unreasonable 
Effectiveness of Mathematics”, American Mathematical Monthly 87. 
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática 
 
 2
Hipaso teria sido lançado ao mar por seus colegas, em represália.3 Veremos no cap. II outro 
problema para a concepção pitagórica: os paradoxos de Zenão, que punham em xeque a 
concepção de que o espaço e o tempo são divisíveis. 
 Os matemáticos gregos passaram a dividir a matemática na teoria dos números, que 
estuda entidades discretas ordenadas, e na geometria, que envolve o contínuo. Essa divisão 
transparece nos Elementos, obra escrita por Euclides de Alexandria em torno de 300 a.C. Ele 
reuniu os trabalhos de Eudoxo, Teeteto e outros matemáticos, sistematizou-os, melhorou as 
demonstrações, e coligiu sua obra de acordo com o método axiomático. Os Elementos partem 
de definições, axiomas (noções comuns, princípios auto-evidentes) e postulados (suposições 
geométricas). O número 1 foi tratado como a “unidade”, e os outros como “números” 
propriamente ditos. O número 0 não estava presente, e só foi introduzido na Índia, onde se 
usava o sistema numérico posicional, juntamente com os números negativos, pelo matemático 
Brahmagupta, em 628 d.C. 
 
 
3. Os Postulados de Euclides 
 
Euclides partiu de 23 definições, como a de ponto, que é “aquilo que não tem partes”, 
e reta, que é “um comprimento sem espessura [...] que repousa equilibradamente sobre seus 
próprios pontos”. Em 1899, o alemão David Hilbert reformularia a axiomatização da 
geometria plana sem partir de definições primitivas: “ponto” e “reta” seriam definidos 
implicitamente pelos postulados. 
Os cinco axiomas usados por Euclides, em notação moderna, são: 
 
A1) Se A=B e B=C, então A=C. 
A2) Se A=B e C=D, então A+C = B+C. 
A3) Se A=B e C=D, então A–C = B–C. 
A4) Figuras coincidentes são iguais em todos os seus aspectos. 
A5) O todo é maior do que qualquer de suas partes. 
 
Os cinco postulados da geometria plana são: 
 
P1) Dois pontos determinam um segmento de reta. 
P2) Um segmento de reta pode ser estendido para 
uma reta em qualquer direção. 
P3) Dado um ponto, há sempre um círculo em que 
ele é centro, com qualquer raio. 
P4) Todos os ângulos retos são iguais. 
P5) Se a soma dos ângulos a e b for menor do que 
dois ângulos retos, então os segmentos de reta A 
e B se encontram, se forem estendidos 
suficientemente (ver Fig. I.1). 
 
 
 
 
 
 
Figura I.1: Quinto 
postulado de Euclides. 
O postulado P5 é logicamente equivalente à proposição de que, dados uma reta A e um 
ponto P fora dela, passa apenas uma reta por P que seja paralela a A. Veremos mais à frente 
como a discussão do quinto postulado levou no séc. XIX às geometrias não-euclidianas. 
 
3 Muitos detalhes da história da matemática podem ser obtidos de: EVES, H. (2004), Introdução à História da 
Matemática, trad. H.H. Domingues, Ed. Unicamp, Campinas (original em inglês: 1964). Sobre Hipaso, ver p. 
107. 
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática 
 
 3
Com esses axiomas e postulados, deduz-se boa parte da geometria plana, como o 
teorema de Pitágoras. No entanto, a base de postulados não é completa. Por exemplo, 
Euclides supõe tacitamente que uma reta que passa pelo centro de um círculo passa também 
por dois pontos do círculo, mas isso não é dedutível da base de postulados! Além disso, 
muitas verdades geométricas que dependem da noção de limite, algumas das quais formuladas 
por Arquimedes de Siracusa (287-212 a.C.), não são dedutíveis dos axiomas de Euclides.4 
A geometria euclidiana foi o paradigma de conhecimento certo e verdadeiro, na 
ciência e filosofia, até o séc. XIX. 
 
 
4. Questão Ontológica: Existem Objetos Matemáticos? 
 
Os números existem? Há 27 alunos nesta classe, isso é um fato indubitável: mas o 
número 27 existe de maneira independente, no mundo, ou apenas em minha mente? Há duas 
respostas básicas a esta questão. 
A tradição pitagórica, elaborada por Platão (428-348 a.C.), concebe que os números 
naturais são entidades reais, assim como outros objetos matemáticos, como o triângulo. Tais 
entidades, porém, não existiriam no mundo físico, mas em um mundo abstrato, ideal, para 
fora do espaço e do tempo. O filósofo Bertrand Russell, simpático a esta concepção no livro 
Problemas da Filosofia (1912), utilizou o verbo “subsistir” para designar este tipo de 
realidade, em oposição ao “existir” das coisas particulares. Essa noção de subsistência, em 
Platão e Russell, não se limitava apenas a entidades matemáticas, mas se estendia para 
quaisquer propriedades ou relações abstratas, ditas “universais”. Assim, para Platão, aquilo 
que haveria em comum entre um ato justo de um magistrado romano e um ato justo de um rei 
asteca seria a “justiça”, um universal que subsistiria num mundo à parte do material. Os 
diferentes triângulos que desenhamos num papirus seriam cópias imperfeitas de triângulos 
ideais, e o que todos os triângulos têm em comum seria a “triangularidade”, um universal 
distinto de qualquer triângulo desenhável, pois cada triângulo é ou isósceles (ao menos dois 
lados de mesmo comprimento) ou escaleno, ao passo que a triangularidade não teria nenhuma 
dessas duas propriedades. 
A visão metafísica que defende a existência de universais, quer sejam números, quer 
sejam propriedades ou relações, pode ser chamada de realismo de universais. A visão 
antagônica é conhecida como nominalismo, e defende que no mundo físico há particulares 
concretos (coisas) com propriedades, mas tais propriedades não têm uma realidade autônoma, 
independente de cada particular. Ou seja, não se pode dizer que os universais subsistem. O 
que o realista chama de universais seriam apenas idéias em nossa mente (conceitualismo) ou 
nomes lingüísticos (nominalismo, em sentido estrito). A “querela dos universais” foi 
disputada intensamente na Idade Média, e Guilherme de Ockham (1285-1350) é o grande 
representante do nominalismo medieval, ao passo que o lógico Willard Quine (1908-2000) é 
um importante nominalista moderno.5 
Em filosofia da matemática, a oposição entre realistas e nominalistas é um pouco 
diferente da querela metafísica. Os realistas afirmam que os números, conjuntos e outros 
objetos matemáticos existem ou subsistem de alguma maneira, independentes dos seres 
 
4 O presente relato foi obtido de SKLAR, L. (1974), Space, Time, and Spacetime, U. California Press, Berkeley, 
pp. 13-6. O livro de Euclides está disponível na internet, ou como: EUCLID (1956), The Thirteen Books of 
Euclid’s Elements, tradução e comentários de T.L. Heath, 3 vols., Dover, Nova Iorque. 
 
5 Uma excelente introdução ao debate metafísico entre realistas de universais e nominalistas é apresentada por 
LOUX, M.J. (2002), Metaphysics – A Contemporary Introduction, 2a ed, Routledge, Londres, caps. 1 e 2. Há um 
“resumão” em português na internet. 
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática 
 
 4
humanos. Já os nominalistas defendem que os objetos matemáticos são construções mentais, 
de forma que não se pode afirmar que os números naturais existam no mundo. 
Um dos argumentos dos realistas, em favor da existência dos objetos matemáticos, é 
justamente a sua grande utilidade nas ciências naturais. Segundo este “argumento da 
indispensabilidade”, formulado por Willard Quine (um nominalista metafísico, mas um 
realista matemático) e Hilary Putnam, como nossas melhores teorias científicas fazem 
referência a objetos matemáticos como números, conjuntos e funções, e tais entidadessão 
indispensáveis para a ciência, então devemos nos comprometer com a existência real de 
objetos matemáticos, da mesma maneira que nos comprometemos com a existência de 
entidades físicas teóricas como quarks e partículas virtuais. Opondo-se a este argumento, o 
filósofo nominalista Hartry Field vem trabalhando num projeto para mostrar como é possível 
construir teorias científicas sem números e outros objetos matemáticos, numa certa linguagem 
relacional. Conseguiu aplicar seu método para a teoria da gravitação newtoniana, mas não 
para outras teorias mais contemporâneas. A matemática seria útil para a ciência pelo fato de 
ela simplificar muito os cálculos e a expressão de enunciados das ciências exatas, mas ela não 
seria indispensável.6 
 
 
5. Questão Metodológica: Números Imaginários se aplicam à Realidade Física? 
 
Na seção anterior, vimos que a questão sobre a existência do número natural 27 pode 
receber diferentes respostas. Mas a prática do físico não é afetada por esta questão filosófica: 
qualquer que seja a resposta a essa questão “ontológica” (ou seja, questão sobre o que é real), 
é seguro supor que o número inteiro 27 “se aplica” corretamente à descrição da realidade 
nessa sala de aula. 
Podemos investigar esta questão “metodológica” em relação a números não positivos, 
como os inteiros negativos. Talvez não possamos dizer que há –5 maçãs na cesta, mas 
podemos dizer que a temperatura é –5˚C. Ou seja, pode-se dizer que os inteiros negativos se 
aplicam a certos domínios da realidade. 
E quanto aos números que representam uma reta contínua? A estrutura do espaço 
físico é a estrutura dos números racionais ou dos números reais? Na seção seguinte 
deixaremos clara a distinção entre os dois, com base na distinção entre conjuntos ordenados 
densos e completos. A questão levantada é também uma questão ontológica, mas não em 
relação à natureza dos objetos matemáticos, e sim em relação a uma entidade física, o espaço. 
Sendo assim, para examinar esta questão devemos levar em conta também as evidências 
experimentais. Deixaremos o estudo desta questão para o Cap. II. Associada a esta questão há 
também uma constatação metodológica: é usual representar o espaço físico como um espaço 
matemático tridimensional contínuo, envolvendo números reais, e não apenas números 
racionais. 
E os números imaginários? Tais números, múltiplos de i, ou 1− , surgiram com o 
matemático italiano Gerolamo Cardano, em 1545, como soluções de equações cúbicas. Em 
1637, René Descartes os chamou de “imaginários”, indicando que não os levava à sério. No 
entanto, Abraham de Moivre (1730) e Leonhard Euler (1748) os estudaram, chegando à 
notável equação que tanto fascinou o jovem Richard Feynman: 1−=πie . Isso levaria à noção 
 
6 Uma resumo sucinto da filosofia da matemática é: POSY, C.J. (1995), “Philosophy of Mathematics”, in AUDI, 
R. (org.), The Cambridge Dictionary of Philosophy, Cambridge U. Press, pp. 594-7. Sobre o argumento da 
indispensabilidade, ver: COLYVAN, M. (2004), “Indispensability Arguments in the Philosophy of Mathematics”, 
Stanford Encyclopedia of Philosophy, na internet. O filósofo brasileiro Otávio Bueno (U. Miami) tem trabalhado 
nesta e noutras questões da filosofia da ciência e da matemática; por exemplo: BUENO, O. (2005), “Dirac and the 
Dispensability of Mathematics”, Studies in History and Philosophy of Modern Physics 36, 465-90. 
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática 
 
 5
de plano complexo, formulado por Caspar Wessel (1797), Carl Gauss (1799) e Jean Argand 
(1806), que representa os números complexos a + bi em um plano. 
A questão ontológica, da realidade dos números imaginários, não parece ser diferente 
da questão ontológica de outros objetos matemáticos. A diferença está na questão 
metodológica, pois é costume afirmar-se que “nenhuma grandeza física observável é 
representada por um número imaginário”. Números imaginários aparecem na representação 
de movimentos oscilantes ou ondulatórios, mas na hora de exprimir valores de correntes (na 
engenharia elétrica) ou de probabilidades (na mecânica quântica), o resultado é sempre 
expresso por meio de números reais. Assim, num certo sentido, números imaginários não se 
aplicam à realidade observável. Mas e a realidade não-observável? Aqui recaímos na 
discussão sobre o estatuto da realidade não-observável (realismo x instrumentalismo), que 
veremos no cap. IV. 
Alguns autores argumentam que os números imaginários não podem ser eliminados da 
mecânica quântica e das modernos teorias de campo, a não ser por procedimentos artificiais, e 
portanto eles têm aplicação essencial na física7. Por outro lado, a discussão não é que os 
números imaginários não podem ser aplicados à realidade observada, pois por convenção 
poderíamos multiplicar todos os números que representam grandezas observáveis por i, de tal 
maneira que seriam os reais não-imaginários que não teriam aplicação direta. O ponto da 
discussão é que os números reais seriam suficientes para descrever a realidade observável, 
sem necessidade de ampliar, com os números imaginários, o sistema numérico utilizado. 
 
 
6. Noções de Continuidade 
 
Consideremos o intervalo entre os números 0 e 1, e imaginemos o conjunto ordenado 
de todos os números racionais (frações) deste intervalo. Este conjunto é denso, pois entre 
quaisquer dois números racionais existe pelo menos um número racional. É fácil intuir que há 
um número infinito de racionais neste intervalo. 
No entanto, sabemos que números como 2
2 e 8π não são racionais, mas fazem parte 
do conjunto dos reais. Está claro que este conjunto é denso, mas ele também tem a 
propriedade de ser completo. Considere a seguinte seqüência crescente infinita de números 
racionais,{ }...,,,, 4504516988346512891053831 , onde cada termo n=1,2,... é expresso por [ ]∑
=
−−−
n
m
mm
1
1)14)(34( . 
Tal seqüência tem limites superiores racionais, como 52 , ou seja, há números racionais 
maiores do que todos os termos da seqüência. O problema, porém, é que não há um racional 
que seja o menor limite superior, ou supremo. Se considerarmos agora esta seqüência como 
um subconjunto dos reais, mostra-se (a partir de fórmula derivada por Gregory e Leibniz no 
séc. XVII) que tal seqüência converge para 8π , que é o supremo da seqüência. Assim, os reais 
são completos, no sentido que todas as seqüências com limite superior têm um supremo. 
Na matemática, a noção de continuidade aplica-se a funções, como y = f(x) . 
Intuitivamente, diz-se que uma função é contínua se uma pequena variação no argumento x 
levar a uma pequena variação em y. Na disciplina de Cálculo I, aprendemos a definição 
rigorosa de continuidade de Cauchy para os reais, em termos de “εpsilons e δeltas”. Se uma 
função for definida para números racionais, parece ser possível aplicar essa noção de 
 
7 WIGNER (1960), op. cit. (nota 1), pp. 225, 229. YANG, C.N. (1987), “Square Root of Minus One, Complex 
Phases and Erwin Schrödinger”, in Kilmister, C.W. (org.), Schrödinger: Centenary Celebration of a Polymath, 
Cambridge: Cambridge University Press, pp. 53-64. 
FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática 
 
 6
continuidade também para os racionais. Por outro lado, o conjunto dos números reais é às 
vezes chamado de “o contínuo”. 
 
 
7. Existe o Infinito? 
 
Há uma longa história da noção de infinito na matemática, na ciência e na filosofia. 
Hoje em dia aceita-se que o Universo tenha uma extensão espacial finita, mas a questão do 
infinitamente pequeno aindaestá em aberto, como discutiremos no Cap. II. 
Na matemática, um resultado importante foi obtido pelo russo-alemão Georg Cantor 
(1845-1918): podem se definir infinitos maiores do que o infinito contável! O tamanho de um 
conjunto é denominado sua “cardinalidade”. Cantor denotou a cardinalidade dos números 
naturais por ℵ0 (alef-zero), ou infinito contável. Para encontrar a cardinalidade de outro 
conjunto infinito, basta tentar mapear os elementos do conjunto nos números naturais. Por 
exemplo, mostra-se que a cardinalidade dos números racionais também é ℵ0, escrevendo 
todas as frações m/n em uma matriz na posição (m,n), e escolhendo uma seqüência de 
ordenamento, como o da Fig. I.2, que mapeia cada fração em um número natural (podem-se 
eliminar as frações de valores repetidos). 
Qual seria a cardinalidade dos números reais, entre 0 e 1? Cantor apresentou o 
“argumento da diagonal”, que permite construir um número real que escapa da tentativa de 
mapear bijetoramente os inteiros nos números reais. Façamos uma lista dos números reais 
entre 0 e 1, com i = 1, 2, ..., escrevendo cada um da seguinte forma: pi = 0 , ai1, ai2, ai3, ..., 
onde os aij são dígitos entre 0 e 9 (Fig. I.3). Por exemplo, 8π = 0,392... teria ai1=3, ai2=9, 
ai3=2, etc. Naturalmente, esta lista de números reais pi seria contavelmente infinita, mas há 
pelo menos um número real que não consta desta lista, o número q = 0 , b1, b2, b3, ..., 
construído da seguinte maneira. Consideremos os dígitos na diagonal i=j, ou seja, a11, a22, etc. 
Se o dígito aii = 5, então bi = 4; se aii ≠ 5, então bi = 5. Com isso, constrói-se um número real 
b que não consta da lista contavelmente infinita (que tem cardinalidade ℵ0). Isso mostra que a 
cardinalidade dos números reais, que Cantor mostrou ser igual a 2ℵ0, é maior do que a dos 
números racionais: 2ℵ0 > ℵ0 . 
 
 
 
 
 
 
 
 
 
Figura I.2: Numeros racionais são contáveis. Figura I.3: Argumento da diagonal de Cantor. 
 
 
 
Filosofia da Física Clássica 
Cap. II 
 
7 
Paradoxos de Zenão 
 
Questão: O espaço e o tempo são contínuos ou discretos? 
 
 
1. Pano de Fundo de Zenão 
 
Zenão de Eléia (490-430 a.C.) é bem conhecido por causa de seus paradoxos, como 
aquele da corrida de Aquiles com a tartaruga. De fato, escreveu um livro com em torno de 40 
paradoxos, mas este se perdeu. O que sabemos de Zenão nos foi transmitido por Platão, 
Aristóteles e pelo comentador Simplício do séc. VI d.C. 8 
 
 
 
 
Figura II.1: Zenão de Eléia. 
 
O que Zenão queria provar com seus paradoxos? 
Como eles foram encarados na Antigüidade? Como eles são 
resolvidos hoje em dia? 
Zenão era discípulo do grande filósofo Parmênides 
(515-450 a.C.), da cidade de Eléia (atual Itália), que defendia 
que a pluralidade (o estado de haver muitas coisas distintas, 
ao invés de uma só) não existe e que qualquer mudança é 
impossível. O ponto de partida de Parmênides era a razão, o 
intelecto, em oposição à observação. É verdade que nossos 
sentidos vêem uma aparente mudança, mas isso seria pura 
ilusão, pois a realidade não poderia mudar. Afinal, “o que é 
não pode deixar de ser”: se alguma coisa tem uma essência, 
como é que essa essência pode desaparecer desta coisa? Por 
outro lado, “do não-ser não pode surgir o ser”: como é que 
algo pode surgir do nada? Assim, o Universo seria uno, e 
não mudaria (algo parecido com a idéia de um único Deus 
imutável).9 
As teses de Parmênides tiveram um forte impacto na filosofia da natureza na Grécia. 
Elas estimularam soluções como a de Empédocles (490-435 a.C.), para quem haveria quatro 
elementos imutáveis (terra, água, ar e fogo) que se combinariam em diferentes proporções 
para gerar os diferentes objetos que conhecemos. A mudança seria uma recombinação dos 
quatro elementos fundamentais, como na queima de madeira (constituída de uma certa 
proporção de terra, água e fogo), que perde seu elemento água e fogo para se transformar em 
carvão, que seria terra pura. 
Zenão buscava defender as idéias de seu mestre, atacando a idéia de pluralidade e de 
movimento. Sua estratégia era supor a tese que queria atacar, por exemplo a pluralidade de 
pontos em uma reta, e daí deduzir uma conseqüência que contradissesse sua suposição, 
levando assim a uma redução ao absurdo. 
 
8 Uma excelente apresentação é dada por: HUGGETT, N. (2004), “Zeno’s Paradoxes”, The Stanford Encyclopedia 
of Philosophy, na internet Um livro clássico com textos de diversos autores é: SALMON, W.C. (org.), Zeno’s 
Paradoxes, Bobbs-Merrill, Indianápolis, 1970. A figura de Zenão foi retirada de http://www-history.mcs.st-
andrews.ac.uk/history/ PictDisplay/Zeno_of_Elea.html. 
 
9 Alguns cosmólogos modernos gostam de olhar para o Universo como uma entidade única, um “bloco” (block 
Universe) no qual o tempo é visto como uma quarta dimensão semelhante ao espaço, sem distinções ontológicas 
entre passado e futuro (também chamada de “doutrina das partes temporais”). Olhando este bloco de fora, um 
observador abstrato pode olhar para o futuro, para o passado, para onde quiser. O bloco não muda, então nesse 
sentido não há mudança, o que lembra o Uno parmenidiano (por outro lado, a concepção do universo em bloco 
não rejeita a pluralidade). 
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão 
 
 8
2. Paradoxos do Movimento 
 
Concentremo-nos aqui em quatro paradoxos do movimento, que são apresentados por 
Aristóteles (384-322 a.C.) em sua Física.10 A Dicotomia e o Aquiles são semelhantes: Zenão 
parte da suposição de que uma certa distância tem infinitos pontos, e que um corredor teria 
que passar por todos eles antes de atingir a linha de chegada (ou uma tartaruga), para concluir 
que o corredor nunca atinge seu objetivo. Assim, a razão mostra que o movimento é 
impossível, e o que vemos é uma ilusão. A Flecha envolve a noção de que, em cada instante, 
uma flecha está parada, então como ela poderia estar em movimento? O quarto paradoxo, o 
Estádio, é apresentado de maneira provavelmente errônea por Aristóteles, então ele tem que 
ser reconstruído. 
 
 
3. Paradoxos da Pluralidade 
 
É interessante que os paradoxos do movimento também podem ser usados contra a 
tese de que o espaço e o tempo possuem partes atuais (reais), ou seja, contra a pluralidade do 
Universo (que mencionamos ser uma das teses de Parmênides). O filósofo galês G.E.L. Owen 
(1922-82) fez uma reconstrução de como poderia ter sido este argumento, resultando num 
grande argumento contra diferentes concepções de pluralidade11. Ou seja, apresentaremos os 
quatro paradoxos de Zenão não como argumentos contra a possibilidade de movimento – que 
iremos supor que ocorre realmente – , mas contra a divisibilidade do espaço e do tempo em 
partes reais. É provável que Zenão não tenha articulado seus argumentos dessa forma, mas 
como nosso interesse é mais filosófico do que histórico, seguiremos a reconstrução de Owen. 
O argumento em questão é consistente com a conclusão de Aristóteles de que um todo 
não possui partes “atuais”, mas apenas partes “em potência”, cuja atualização só pode ocorrer 
posteriormente à existência do todo. Essa prioridade do todo sobre as partes exprime uma 
posição conhecida como holismo, que examinaremos na seção seguinte. 
A questão a ser examinada, então, é se o espaço e o tempo são compostos de uma 
pluralidade de partes reais. Há, naturalmente, duas respostas possíveis: SIM, são compostos de 
partes reais; ou NÃO, são um todo sem partes reais, apenas partes imaginadas. 
Vamos examinar a resposta positiva. Veremos que as diferentes possibilidades levam a 
paradoxos, de forma que seremos obrigados a concluir (segundo o argumento atribuído a 
Zenão) que o espaço e o tempo NÃO são compostos de partes reais.Partamos então da tese de que o espaço e o tempo têm partes reais. A próxima questão 
a ser colocada é se o espaço e o tempo podem ser divididos sem limite ou se há limites para a 
divisão. Há duas respostas plausíveis: A) São divisíveis sem limite. B) Há limites para a 
divisão. Consideremos a primeira alternativa. 
A) O espaço e o tempo são divisíveis sem limite. Zenão então teria apresentado dois 
paradoxos para refutar esta alternativa, o da Dicotomia e o de Aquiles. 
1) Paradoxo da Dicotomia. Um corredor pretende cobrir uma certa extensão, digamos 
de 100 m. Antes de chegar ao final, ele terá que passar por um ponto localizado no meio do 
percurso, ½ da extensão total. Após isso, ele tem que passar pelo ponto que corresponde a ¾ do 
percurso. Depois disso, pelo ponto 87 , depois 1615 , depois 3231 , etc. Como, pela hipótese A, o 
 
10 ARISTOTLE (1996), Physics, trad. R. Waterfield, Oxford U. Press, 1996, orig. c. 350 a.C. Tradução para o 
português de trechos relativos aos paradoxos de Zenão está disponível no saite do curso. 
 
11 OWEN, G.E.L. (1957), “Zeno and the Mathematicians”, Proceedings of the Aristotelian Society 58, 199-222, 
republicado em SALMON (1970), op. cit. (nota 8), pp. 139-63. Um resumo deste argumento é apresentado por 
TILES, MARY (1989), The Philosophy of Set Theory, Blackwell, Oxford (nova edição pela Dover), pp. 12-21. 
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão 
 
 9
espaço é divisível sem limite, há um número infinito de pontos que o corredor deve percorrer 
antes de chegar ao final de seu percurso. Assim, conclui Zenão, ele nunca chega ao final! 
Este é o paradoxo da Dicotomia “progressivo”; há também a versão “regressiva”. 
Antes de chegar à metade do percurso, o corredor tem que atingir ¼ da extensão total; mas 
para chegar neste ponto, tem que antes atingir 81 do percurso; e antes disso, 161 , etc. Desta 
maneira, o corredor nem conseguiria iniciar sua corrida! 
2) Paradoxo de Aquiles. Nesta versão do argumento, o veloz Aquiles aposta uma 
corrida contra uma lenta tartaruga, que começa dez metros à sua frente. Em pouco tempo, 
Aquiles atinge a marca dos 10 m, mas neste intervalo de tempo a tartaruga caminhou 1 m. Em 
seguida, Aquiles percorre esse metro adicional, mas a tartaruga não está mais lá, pois percorreu 
mais 101 de metro. Quando Aquiles cobre este 101 de metro adicional, a tartaruga está 1001 m à 
frente. E depois, 10001 à frente, e depois 000.101 , etc. Como, pela hipótese A, o espaço é 
infinitamente divisível, sempre haverá um ponto que Aquiles deve atingir antes de prosseguir 
em seu encalço à tartaruga. Conclui-se então que Aquiles nunca conseguirá alcançar a tartaruga! 
Visto que a hipótese A levou a duas situações que vão contra o que constatamos na 
realidade, ela deve ser rejeitada. Assim, supondo-se que o espaço e o tempo são compostos de 
partes, não se poderia admitir que essas partes sejam infinitamente divisíveis. Para sermos 
mais precisos, o que esses argumentos sustentam é que o espaço não seria infinitamente 
divisível. Resta assim a hipótese alternativa. 
B) Há limites para a divisão do espaço e do tempo. Neste caso, pergunta-se sobre o 
tamanho desses limites: eles têm tamanho? (a) Sim, têm tamanho. (b) Não, não têm tamanho. 
Consideremos cada caso em separado. 
(a) Os limites para a divisão do espaço e do tempo têm tamanho. Ou seja, dentro de 
uma unidade indivisível de tempo, ocorreria um pequeno movimento (esta é uma situação 
difícil de imaginar, mas prossigamos com o argumento reconstruído por Owen). Neste caso, 
Zenão teria invocado o paradoxo do estádio. 
(3) Paradoxo do Estádio. Imagine que durante a Olimpíada, em um estádio, dois 
dardos são atiradas em sentidos opostos. Estamos supondo que o espaço e o tempo são 
discretizados, ou seja, suas partes têm um tamanho ou duração mínimos (que chamaremos 
“unidades”). Supomos também que cada dardo percorre uma unidade espacial a cada unidade 
temporal. Consideremos um instante em que as pontas dos dardos ainda não se sobrepuseram, 
mas ocupam unidades espaciais adjacentes. Isso pode ser representado ao encostarmos o dedo 
indicador da mão esquerda no indicador da mão direita, com as unhas viradas para fora, de 
forma que possamos ver a divisão de nossos indicadores em três falanges (Fig. II.2a). Escolhendo 
 
 
 
 
Figura II.2: Paradoxo do Estádio. 
um ponto de referência em algum objeto à nossa 
frente, consideremos qual é a posição dos nossos 
dedos/dardos no instante discreto (unidade 
temporal) seguinte. Ora, o indicador direito se 
moveu uma unidade para a esquerda, e o dedo 
esquerdo uma para a direita. Assim, na nova 
posição relativa dos dois dedos/dardos, há duas 
unidades espaciais emparelhadas (Fig. II.2b). No 
entanto, para eles terem chegado nesta situação de 
emparelhamento de duas unidades, eles teriam 
que ter passado pela situação intermediária em 
que apenas uma unidade estivesse emparelhada. 
Isso teria que acontecer em um instante que é 
metade da unidade temporal tomada como 
mínima. Portanto, tal unidade não é mínima, mas 
é divisível! Além disso, nesta meia unidade, 
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão 
 
 10
temporal, cada dardo voou, em relação ao estádio, uma distância que é a metade da unidade 
espacial. Assim, a unidade espacial também seria divisível! Isso refutaria a hipótese (a). 
Resta-nos a outra alternativa. 
(b) Há limites para a divisão do espaço e do tempo mas esses não têm extensão ou 
duração, são pontuais ou instantâneos. Neste caso, segundo a reconstrução de Owen, Zenão 
invocaria o seguinte problema. 
(4) Paradoxo da Flecha. Um arqueiro lança uma flecha. Em um certo instante, a 
flecha ocupa um espaço que é igual ao seu volume, portanto, segundo Zenão, ela estaria 
parada neste instante. Isso se aplica para todos os instantes, assim, a flecha está sempre parada 
e não poderia estar se movendo. Poder-se-ia argumentar que a flecha voa um pouquinho 
durante um instante, de forma que ela estaria em diferentes posições no início e no fim do 
instante; mas neste caso o instante seria divisível, indo contra a hipótese (b). Aristóteles 
criticou este paradoxo argumentando que o repouso no tempo é diferente do que ocorreria no 
“agora”, já que neste não se define o movimento, e portanto nem o repouso (Física, 234a24). 
Com isso, rejeitando-se ambas as opções (a) e (b), refuta-se a alternativa B, segundo a 
qual haveria limites para a divisão do espaço e do tempo. Mas a alternativa A já tinha sido 
rejeitada. Assim, refuta-se a tese de que o espaço e o tempo sejam compostos de uma 
pluralidade de partes. A resposta para a questão inicial portanto é “NÃO”: o espaço e o tempo 
são um todo sem partes reais, apenas partes imaginadas. 
 
 
4. O Holismo Aristotélico 
 
Eis então como Aristóteles utiliza o argumento de Zenão para defender sua visão 
holista da matéria, de que o todo precede as partes. O espaço e o tempo não seriam compostos 
de um agregado de partes. É verdade que se pode dividir um objeto em partes. Quando um 
tijolo é dividido, temos uma divisão atual, em ato. Talvez se possa até dividir um tijolo o 
quanto queiramos ou possamos, mas antes de realizar essas divisões atuais, elas só existem 
em potência, como potencialidade. O fato de que podemos dividir um tijolo não significa que 
ele seja feito de partes, pois essa possibilidade de dividi-lo é apenas uma potencialidade, não 
uma atualização. O todo precede as partes. 
Com esta conclusão, Aristóteles pôde resolver os paradoxos à sua maneira. Os 
paradoxos da Dicotomia e de Aquiles não procedem porque, para Aristóteles, o contínuo da 
pista de corrida é homogêneo.Pode-se dividi-lo sem limites, mas tal divisão não é natural, ela 
pode ser feita de diferentes maneiras. A divisão é imposta por nós, ela não existe de fato: o 
enunciado do problema concretiza de maneira indevida a potencialidade de divisão. Em 
primeiro lugar, o corredor percorre o todo. É por percorrer o todo que ele percorre as partes, e 
não o contrário, como os enunciado dos paradoxos parecem indicar. 
Aristóteles defende que se possa potencialmente dividir o contínuo de maneira 
ilimitada. Com isso, rejeitam-se os paradoxos do Estádio e da Flecha, que pressupõem um 
limite para a divisão. Além disso, um ponto, para Aristóteles, não é formado por divisão, de 
maneira que um ponto não seria parte de uma reta. Para ele, um ponto pode ser concebido 
como uma fronteira entre duas regiões distintas adjacentes. 
A visão holista de Aristóteles foi retomada no início do século XX por filósofos que 
defendem que o espaço e/ou o tempo não são compostos de pontos ou instantes. Para esta 
corrente, que inclui Henri Bergson, William James e Alfred Whitehead, esta seria a chave 
para se entender o vir-a-ser temporal, ou seja, como o presente desabrocha do passado.12 
 
12 Este comentário é feito por HUGGETT (2004), op. cit. (nota 8), p. 14. Ele cita BERGSON, H. (1907), 
L’Évolution Créatice, Presses Universitaires de France, Paris; JAMES, W. (1911), Some Problems of Philosophy, 
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão 
 
 11
 
5. Visão Moderna dos Paradoxos 
 
Os paradoxos de Zenão são ainda tema de discussão hoje em dia. Uma atitude muito 
natural, por exemplo em relação ao Aquiles, é dizer que a conclusão de Zenão é um absurdo, 
pois não corresponde à realidade, e que portanto o paradoxo deve ser rejeitado. Seguindo esta 
linha, Diógenes, o Cínico (413-323 a.C.), respondeu ao paradoxo simplesmente se levantando 
e andando! Mas essa constatação não resolve os paradoxos. (i) Para o paradoxo do 
movimento, o ponto de Zenão é que racionalmente não pode haver movimento, de forma que 
a vivência que temos deste movimento teria que ser uma ilusão dos sentidos. (ii) Para o 
paradoxo da pluralidade, conforme a reconstrução de Owen, concorda-se que o movimento 
ocorre, porém nenhuma hipótese sobre a pluralidade, usada para explicar racionalmente o 
movimento, é livre de problemas. 
O problema por trás da Dicotomia, que é o mesmo que o do Aquiles, parece repousar 
na intuição de que o corredor demora um tempo finito mínimo para percorrer cada intervalo 
espacial sucessivo. Como há infinitos desses intervalos, o tempo de transcurso seria infinito. 
Porém, sabemos que essa intuição é errônea: o tempo de percurso por cada intervalo é 
proporcional ao comprimento do intervalo (supondo velocidade constante). Esse ponto foi 
apontado por Aristóteles (Física VI, 233a25), mas em outro trecho ele se confundiu com 
relação à presença de infinitos intervalos finitos de tempo (Física VIII, 263a15). Da mesma 
maneira que os intervalos espaciais somam 1 na série convergente ½ + 41 + 81 + ... , os 
intervalos temporais também o fazem. O corredor acaba completando o percurso! 
A moderna análise matemática, inaugurada no séc. XIX com os trabalhos de Augustin 
Cauchy, Karl Weierstrass e Richard Dedekind, esclareceu a natureza das séries convergentes 
e do cálculo diferencial e integral, banindo a noção de “infinitesimal”, utilizada a partir de 
Leibniz. Na seção I.7, vimos como Cantor mostrou que o infinito da seqüência de números 
inteiros (que é igual ao infinito dos números racionais), o chamado “infinito contável”, tem 
cardinalidade menor do que o “infinito não-contável” dos pontos da reta real entre 0 e 1. No 
entanto, não parece que seja necessário supor que o espaço seja isomórfico aos números reais 
para resolver os paradoxos da Dicotomia e do Aquiles: bastaria que o espaço tivesse a 
estrutura dos números racionais (ver seção I.6). 
No século XX, avanços na teoria da medida e da dimensão esclareceram ainda mais a 
natureza do infinito na matemática. Em 1966, o matemático Abraham Robinson formulou a 
análise “não-standard”, que reintroduziu de maneira rigorosa os infinitesimais na matemática. 
A aplicação desta teoria para os paradoxos de Zenão foi feita por McLaughlin (1994).13 
O paradoxo da Flecha levanta discussões a respeito da natureza do movimento e do 
conceito de velocidade instantânea. O movimento deve ser visto como a ocupação sucessiva 
de posições em diferentes instantes? Esta visão chegou a ser defendida por Bertrand Russell, e 
é conhecida como a “teoria em-em de movimento” (at-at theory of motion). Se for verdade 
que, em cada instante, a flecha estaria parada, não se segue que ela estaria parada ao 
considerarmos todo o intervalo. 
 
Longmans, Green & Co., Nova Iorque, caps. 10-11; e WHITEHEAD, A.N. (1929), Process and Reality, 
Macmillan, Nova Iorque. Este ponto de vista tem sido retomado mais recentemente por Ilya Prigogine. 
 
13 MCLAUGHLIN, W.I. (1994), “Resolving Zeno’s Paradoxes”, Scientific American 271 (5), pp. 84-9. Seguimos 
nesta seção as pp. 20-6 de: SALMON, W.C. (1970), “Introduction”, in Salmon (org.), op. cit. (nota 8), pp. 5-44, e 
alguns comentários de HUGGETT (2004), op. cit. (nota 8), pp. 15-6. Ver também: SALMON, W.C. (1980), “A 
Contemporary Look at Zeno’s Paradoxes”, in Salmon, Space, Time, and Motion: A Philosophical Introduction. 
2a ed., U. of Minnesota Press, Minneapolis, pp. 31-67. 
FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão 
 
 12
O esclarecimento matemático dos paradoxos da pluralidade e do movimento deixa 
ainda em aberto a questão da natureza microscópica do espaço e do tempo no mundo físico. 
Será que a continuidade do espaço e do tempo deve ser vista antes de tudo como uma 
propriedade holística? Ou será que eles podem ser decompostos em partes menores? Estas 
partes teriam a estrutura dos números reais? Dos números racionais? Haveria instantes 
infinitesimais? Faz sentido dizer que existem velocidades instantâneas? O espaço poderia ter 
uma estrutura fractal? A teoria quântica teria algo a acrescentar a esta problemática? 
 
 
6. Espaço e Tempo Discretizado na Gravidade Quântica 
 
Nesta seção, apresentaremos superficialmente uma visão recente proposta pelo físico 
Lee Smolin e colaboradores, que sugere que o espaço e o tempo seriam na verdade discretos. 
Esta teoria, a gravidade quântica em loop, é um dos programas de pesquisa que concorrem 
com a teoria das cordas, visando unificar as quatro interações conhecidas na física.14 
A idéia de que o espaço e o tempo não seriam contínuos surgiu na metade da década 
de 1980 como resultado do fracasso de tentativas anteriores de juntar a teoria da relatividade 
geral com a mecânica quântica. Smolin, juntamente com Abhay Astekar, Ted Jacobson e 
Carlo Rovelli, perceberam que os problemas dessa tentativa de juntar as duas teorias 
poderiam ser resolvidos supondo que haveria um quantum mínimo de volume, da ordem de 
10–99 cm3. Este seria um volume mínimo de espaço, e qualquer volume maior seria uma soma 
destas unidades discretas mínimas. 
O espaço poderia ser concebido como consistindo de um número imenso de pequenos 
poliedros encostados uns aos outros. A teoria da gravidade quântica em loop (ou seja, em 
circuitos fechados) substitui essa representação de volume por outra na qual cada quantum de 
volume é representado por um nó ou ponto ligado aos pontos dos outros volumes adjacentes 
por segmentos de reta. A rede resultante é conhecida em matemática como um “grafo”, e os 
físicos e matemáticosque trabalham nesta área formularam uma maneira de exprimir estados 
quânticos em termos desses grafos. Tais grafos são também chamados de “redes de spin”, e o 
uso de tais redes para descrever a gravitação havia sido sugerida na década de 1960 por Roger 
Penrose. 
“Tudo o que existe são as linhas e os nós; eles criam o espaço, e a forma como se 
conectam define a geometria do espaço” (p. 61). As partículas elementares estariam 
associadas a nós e os campos às linhas entre os nós; o movimento dessas partículas se daria 
em passos discretos, de nó em nó. O movimento da matéria e energia, por sua vez, alteraria o 
padrão de conectividade da rede, o que refletiria na estrutura do espaço. O espaço-tempo da 
teoria da relatividade geral se comportaria microscopicamente como uma “espuma” de spin. 
O tempo também é descrito como evoluindo de maneira discreta, a “tiques” quantizados que 
teriam a duração mínima de 10–43 segundos. 
 
 
14 SMOLIN, L. (2004), “Átomos de Espaço e Tempo”, Scientific American Brasil, fev. 2004, 56-65. Sobre a teoria 
das cordas, ver: ABDALLA, E. & CASALI, A. (2003), “Cordas, Dimensões e Teoria M”, Scientific American 
Brasil, março 2003. Outro texto sobre os “tijolos” que comporiam o espaço e o tempo é: AMBJØRN, J.; 
JURKIEWICZ, J. & LOLL, R. (2008), “Universo Quântico Auto-Organizado”, Scientific American Brasil 75, ago. 
2008, 28-35. 
Filosofia da Física Clássica 
Cap. III 
 
13 
Filosofia Mecânica 
 
Questão: Como explicar a gravidade sem forças à distância? 
 
 
 
Você realmente entende o que está acontecendo quando solta uma pedra e vê ela cair? 
Por que ela cai? Porque ela é atraída. Mas por que ela é atraída? Porque todos os corpos se 
atraem. Mas por que eles se atraem, ou melhor, qual é o mecanismo que está por trás disso? 
Podemos ficar perguntando porquês para sempre? Ou uma hora temos que parar e 
aceitar uma resposta dogmaticamente? E, mudando o foco da pergunta, por que queremos 
obter respostas? E por que às vezes nos satisfazemos com uma resposta, sentimos uma 
felicidade de termos compreendido uma questão, só para mais tarde descobrir que tínhamos 
deixado de perceber uma ambigüidade, e que o prazer da compreensão era só uma ilusão? 
Qual a diferença entre explicar e compreender? 
As concepções tradicionais da matéria e da gravidade, antes do século XVII, eram 
basicamente três: o hilemorfismo aristotélico, o atomismo greco-romano e o naturalismo 
animista. 
 
 
1. Hilemorfismo e a Física Aristotélica 
 
O hilemorfismo é a filosofia desenvolvida por Aristóteles de que todas as coisas 
consistem de matéria (hile) e forma (morfe). Por “matéria” entende-se um substrato (matéria 
prima) que só existe potencialmente, e que só existe em ato junto com uma forma (sobre 
potência e ato, ver seção II.4). A mudança das coisas é explicada por quatro tipos de causas: o 
fator material, a forma, a causa eficiente e a causa final (ou propósito). Haveria quatro 
elementos básicos, terra, água, ar e fogo, cada qual tendo um par de qualidades distintivas: 
terra é fria e seca; água é fria e úmida; ar é quente e úmido; fogo é quente e seco. Os 
elementos tendem a se ordenar em torno do centro do mundo, cada qual em seu “lugar 
natural”. Se um elemento é removido de seu lugar natural, seu “movimento natural” é retornar 
de maneira retilínea: terra e água tendem a descer, ar e fogo tendem a subir. O “movimento 
violento” envolve a remoção de um corpo de seu lugar natural, ou é o resultado do exercício 
de uma força por um agente. 
Para Aristóteles, todo movimento tem um agente (um motor) e um paciente (o 
movido). A fonte do movimento é uma força (dunamin ou ísquis). No movimento natural a 
força é interna, e no movimento violento ela é externa, tendo que haver contato contínuo entre 
o motor e o movido. Assim, para explicar porque uma pedra arremessada continua se 
movendo na horizontal, Aristóteles tinha que postular a “antiperistasis”, ou seja, o ar deslo-
cado pela frente da pedra retornaria para a parte traseira da pedra e nela exerceria uma força! 
O paradigma de movimento violento é uma pessoa empurrando um objeto, como um 
barco, em uma superfície, como na areia. A distância (S) percorrida em um intervalo de tempo 
(T) é proporcional à força exercida (F) dividida pelo peso do corpo (P), sendo que este peso 
inclui também a resistência do meio: F/P = S/T. Aristóteles tinha uma noção clara de que, 
abaixo de uma certa força exercida, o movimento pode cessar (devido ao atrito estático) 
(Física VII.5, 249b30-250a28). 
O paradigma do movimento natural é a queda de um corpo na água. Neste caso (Física 
IV.8, 215a24-b10), a força é o peso do corpo (P), e a resistência (R) exprime a densidade do 
meio: P/R = S/T. Aristóteles também descreveu o movimento para cima de uma porção de 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 14
fogo com a mesma lei, indicando que a velocidade seria proporcional ao volume do objeto 
(De Caelo, 309b11-15). O filósofo da ciência Stephen Toulmin (1961) salientou que esta lei é 
correta no domínio de observação restrito em que o corpo atinge uma velocidade terminal de 
queda, sendo uma versão simplificada da lei de Navier-Stokes. Há dois trechos em que 
Aristóteles indica ter noção de que, na queda dos corpos, há alteração de velocidade (Física, 
230b24-28; De Caelo, 277b4-5). 
Em sua Física (IV.8, 215b12-22), Aristóteles trata da possibilidade do vazio. Como 
este não oferece resistência, o movimento de queda seria infinitamente rápido, o que é 
inadmissível. Assim, o vazio não existiria. Porém, em outros trechos, menciona que a 
velocidade de queda dos corpos depende do peso. Na Física (VIII, 216-220), considera que se 
não houvesse um meio a ser vencido (ou seja, se a queda fosse no vazio), as velocidades 
seriam as mesmas! 
Esse resumo indica que “Aristóteles não era um idiota”15, que fundou suas teorias em 
observações, e que tinha uma noção confusa de que a queda dos corpos poderia envolver 
variação de velocidade. O aristotélico Estráton de Lâmpsaco (c. 340-268 a.C.) argumentaria 
que a queda dos corpos graves no ar não se dá com velocidade uniforme, pois o barulho que 
um corpo faz ao cair de uma altura pequena é bem menor do que quando cai de uma altura 
maior. 
 
 
2. Atomismo Greco-Romano 
 
O atomismo grego surgiu com Leucipo de Mileto (início do séc. V a.C.) e foi 
desenvolvido por seu discípulo Demócrito de Abdera (c. 460-370 a.C.). Posteriormente ele se 
estabeleceu como escola em Atenas no “Jardim” de Epicuro (341-270 a.C.), e foi difundido 
no mundo romano por Lucrécio (c. 99-55 a.C.), em seu famoso poema Da Natureza das 
Coisas. 
Segundo esta visão, só teriam realidade os átomos e o espaço vazio. Cada átomo, 
imperceptível para os nossos sentidos, teria uma forma e um tamanho imutável, e seria 
indivisível. Haveria um número infinito de átomos espalhados no vazio infinito. Eles estariam 
em movimento contínuo, chocando-se freqüentemente uns com os outros. Nas colisões, os 
átomos poderiam rebater ou então se ligar através de ganchos ou formas complementares. As 
propriedades primárias dos átomos, para Demócrito, seriam três: a forma de cada átomo (o 
que inclui o tamanho), sua posição (o que inclui sua orientação em relação a outros átomos), e 
o arranjo de um conjunto de átomos. Epicuro adicionou o peso a esta lista. 
Epicuro incumbiu-se da tarefa de responder às críticas de Aristóteles ao atomismo. 
Dentre essas, estava a crítica à concepção de como os mundos teriam se originado. Segundo 
Demócrito, os átomos originariamente estariam “caindo” no vazio, todos na mesma direção 
paralela. Átomos maiores cairiam com maior velocidade, se chocariam com os mais lentos e, 
assim, se iniciariam movimentos em todas as direções,que acabariam formando os mundos, 
num dos quais nós viveríamos (os outros mundos estariam espalhados pelo espaço infinito). 
Vimos que Aristóteles mencionou que, se houvesse o vazio, os átomos deveriam cair com a 
mesma velocidade, e assim não poderiam se chocar uns com os outros, para formar os 
mundos. Epicuro (ou Lucrécio, segundo alguns autores) resolveu o problema da formação dos 
mundos introduzindo um pequeno movimento aleatório lateral (“clinamen”), um movimento 
 
15 Comentário de CASPER, B.M. (1977), “Galileo and the Fall of Aristotle: A Case of Historical Injustice?”, 
American Journal of Physics 45, 325-30. Ver também KATZ, J. (1943), “Aristotle on Velocity in the Void”, 
American Journal of Philology 64, 432-5, e TOULMIN, S. (1961), Foresight and Understanding, Harper & Row, 
Nova Iorque, p. 50. 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 15
sem causa, para explicar a progressiva agregação dos átomos. Esse movimento sem causa de 
“átomos espirituais” seria também usado para explicar a liberdade da alma. 
Os atomistas eram materialistas, pois consideravam que, na morte, os átomos 
espirituais se desagregariam, ou seja, a alma seria fruto da matéria. No séc. XVII, o atomismo 
seria discutido especialmente por Pierre Gassendi, dentro da visão de mundo do catolicismo.16 
 
 
3. Naturalismo Animista 
 
Outra corrente que foi importante nos primórdios da ciência pode ser chamada de 
naturalismo animista. Esta posição considera que a natureza tem uma espécie de alma ou 
vida. Na Antigüidade, ela pode ser associada aos pitagóricos, ao taoísmo na China e ao 
estoicismo, entre outros. No Renascimento, o naturalismo animista ressurgiu com vigor, e 
considerava que a natureza seria imbuída de uma espécie de alma, que fazia as partes 
separadas (como as de um imã) desejarem se unir novamente, regidos por forças de simpatia e 
antipatia. Para a escolástica aristotélica, havia uma ordem racional da natureza que o intelecto 
poderia penetrar. Por contraste, o naturalismo renascentista salientava o mistério de uma 
natureza opaca à razão, só cognoscível através da experiência. 
Os representantes típicos desta corrente eram os alquimistas, como o suíço Paracelso 
(1493-1541) e o alemão Andreas Libavius (1560-1616). A finalidade da alquimia era 
conseguir a transmutação dos metais em ouro e descobrir um elixir da vida eterna e cura de 
todas as doenças. Introduziram a idéia de utilizar agentes químicos na medicina, além das 
ervas medicinais. A concepção alquímica da matéria baseava-se em três princípios: sal, 
enxofre e mercúrio. O naturalismo renascentista foi também influenciado pelo hermetismo, 
uma tradição semi-religiosa e mágica vinda da Antigüidade, que ensinava que o homem é 
capaz de descobrir elementos divinos dentro de si, defendendo uma afinidade mística entre o 
mundo e a humanidade, entre o macrocosmo e o microcosmo. Essa afinidade seria também a 
base teórica da astrologia. 
Uma das mais importantes obras dentro da tradição do naturalismo renascentista foi o 
De Magnete, escrito em 1600 pelo inglês William Gilbert (1544-1603). O magnetismo seria 
uma “matéria telúrica”, seria a chave para se compreender a natureza. Ele seria um poder não-
corpóreo, a “alma da Terra”, já que a intervenção de objetos entre dois imãs não afeta a 
atração. Contrastou eletricidade e magnetismo da seguinte maneira: a primeira envolveria 
uma ação da matéria, com força e coesão; a segunda seria uma ação da forma, com união e 
concordância. Johannes Kepler (1571-1630) foi influenciado por esta tradição, ao conceber 
que o Sol seria a anima motrix (alma motiva) que exerceria uma força nos planetas, fazendo-
os orbitar em torno de si. Imaginou que essa atração seria de natureza magnética.17 
Em suma, para o naturalismo animista a gravidade é explicada por uma atração entre 
os corpos, que possuem uma espécie de alma, e que é semelhante ao amor entre os seres 
vivos. Da mesma maneira que um filho separado da mãe é por ela atraído, e que um imã 
 
16 Um relato detalhado dos atomistas está em LANGE, F.A. (1974), The History of Materialism, trad. E.C. 
Thomas, Arno Press, Nova Iorque (1a ed. em alemão: 1866; 2a ed.: 1875). E dele a hipótese discutível de que 
Epicuro teria introduzido o clinamen para responder a Aristóteles (p. 26). Uma boa fonte da história da ciência 
grega é: LLOYD, G.E.R. (1970), Early Greek Science: Thales to Aristotle, e LLOYD (1973), Greek Science after 
Aristotle, ambos da Norton, Nova Iorque. 
 
17 Sobre o naturalismo renascentista, ver WESTFALL, R.S. (1971), The Construction of Modern Science, 
Cambridge U. Press, pp. 25-31, e também RONAN (1987), História Ilustrada da Ciência da Universidade de 
Cambridge, 4 vols., J. Zahar, Rio de Janeiro; Círculo do Livro, São Paulo (orig. em inglês: 1983), vol. III, pp. 
11-15, 28-36. 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 16
separado em dois deseja se unir novamente, assim também os princípios de simpatia e 
antipatia regeriam o comportamento dos corpos celestes. 
 
 
4. A Filosofia Mecânica 
 
Os trabalhos de Copérnico e Galileu abriram o caminho para o ressurgimento da 
antiga tradição “materialista”, representada pelos atomistas, resultando no que viria a ser 
chamado de filosofia mecânica (termo usado por Boyle), em que os princípios explicativos 
envolvem apenas matéria e movimento. Curiosamente, esta visão de mundo surgiu no seio do 
cristianismo, como uma reação contra o naturalismo animista, a partir do padre Marin 
Mersenne (1623)18. Para ele, a ameaça das doutrinas naturalistas estava na concepção de que a 
matéria seria “ativa”, o que retiraria de Deus e dos próprios seres humanos a responsabilidade 
pelas questões humanas. Se não houvesse atividade alguma na matéria, como queria 
Mersenne, Deus teria que ser invocado para explicar essa atividade. 
Na filosofia mecânica, portanto, matéria e espírito estavam separados. A matéria seria 
regida apenas por causas eficientes externas, provenientes de choques, e seria “inerte”, sem 
atividade ou potência internas, o que seria expresso no “princípio de inércia” da mecânica 
clássica. Acabava-se com o “mistério do mundo” do naturalismo animista, e salientava-se a 
transparência do mundo à razão. Deus teria criado o Universo de uma só vez, pondo a matéria 
em movimento de uma vez por todas. Este movimento se conservaria, seria indestrutível. O 
mundo material mover-se-ia apenas em conseqüência dos choques entre os corpos, como o 
mecanismo de um relógio, seguindo a necessidade das leis da física. 
Na física, a concepção mecanicista tornou-se hegemônica durante uns oitenta anos a 
partir de 1644, sendo compartilhada por cientistas (Descartes, Huygens, Hooke, Boyle, o 
jovem Newton) e filósofos (Gassendi, Mersenne, Hobbes). Esta visão de mundo seria 
lentamente destruída pela ascensão da física de Newton e da astronomia de Kepler no 
continente europeu, a partir de 1720. Com isso, a noção de força gravitacional passou a ser 
aceita sem que se postulasse um mecanismo subjacente. 
 
 
5. A Física e Cosmologia de Descartes 
 
René Descartes (1596-1650) ganhou fama com seu Discurso do Método (1637), que 
continha um apêndice, A Geometria, no qual mostrou como escrever curvas geométricas em 
termos de equações algébricas, e vice-versa (Pierre de Fermat também estava desenvolvendo 
isso, de maneira independente). Em 1644 publicou o Princípios de Filosofia, que buscou 
explicar todos os fenômenos físicos (incluindo químicos, geológicos e astronômicos) em 
termos de matéria em movimento.19 
A matemática tinha um papel central na concepção cartesiana. A geometria,que lidava 
com formas no espaço, podia ser deduzida a partir das idéias claras e distintas do intelecto. A 
física tratava de matéria em movimento. Um engenhoso passo de Descartes foi identificar a 
matéria com a extensão, de tal maneira que a física passaria a ser uma geometria de figuras 
em movimento (“extensão” significa espaço, volume). Identificando matéria e extensão, 
 
18 Ver GAUKROGER, S. (1999), Descartes – Uma Biografia Intelectual, Contraponto, Rio, pp. 191-8. 
 
19 DESCARTES, R. (2005), Princípios de Filosofia, trad. Heloísa Burati, Rideel, São Paulo, pp. 189-93 (orig. em 
latim: 1644). As Figs. III.1 e 2 são retiradas deste livro. Sobre a filosofia mecânica em Descartes, pode-se 
também consultar DIJKSTERHUIS, E.J. (1986), The Mechanization of the World Picture, trad. C. Dikshoorn, 
Princeton U. Press, pp. 403-18 (orig. em holandês: 1950), e WESTFALL (1971), op. cit. (nota 17), pp. 30-42. 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 17
quatro conseqüências eram imediatamente tiradas: i) Como o espaço é infinito, também o 
seria a matéria. ii) Como o espaço é homogêneo, haveria a mesma matéria por toda parte. iii) 
Como o espaço é infinitamente divisível, assim também seria a matéria, o que negava o 
atomismo. iv) Como não faria sentido pensar num espaço sem extensão, não haveria espaço 
sem matéria: o vácuo seria impossível. 
Descartes partiu de um princípio a priori (anterior à experiência) para derivar as leis 
gerais da física, a perfeição de Deus, e sua conseqüente invariabilidade. Porém, observamos 
mudança no mundo, significando que Deus quis que o mundo estivesse em movimento. Há 
portanto variação, mas tal variabilidade deve ser a mais simples possível, a mais “invariável” 
possível. Isso equivaleria a um ato contínuo de conservação da quantidade de movimento 
(quantitas motus) total do Universo. Tal quantidade, segundo Descartes, seria medida pelo 
produto da quantidade de matéria (massa) do corpo pela velocidade do mesmo corpo: m·v. O 
princípio de conservação de quantidade de movimento diz então que a soma da quantidade de 
movimento (m·v) de todos os corpos do Universo é sempre a mesma. É um princípio que 
ainda se aceita hoje em dia, e quem o formulou pela primeira vez foi Descartes, a partir da 
idéia clara e distinta de Deus. Na verdade, o princípio hoje aceito tem uma diferença 
importante, que é que a velocidade precisa ser tomada como um “vetor” (com direção), e não 
simplesmente como um “escalar” (um número simples, sem direção). 
Com isso, passa a enunciar três leis da natureza. A primeira é uma lei de inércia geral: 
cada coisa permanece no estado em que está, enquanto não encontra outras causas exteriores. 
Assim, um objeto tem a tendência natural de manter sua forma, por exemplo. A segunda lei é 
a da inércia linear: todo corpo que se move tende a continuar seu movimento em linha reta, 
com a mesma velocidade. Essa idéia surgiu com Galileu, mas para o cientista italiano o 
movimento inercial acabava sendo um movimento circular em torno da Terra. Para Descartes, 
em contrapartida, o movimento inercial (livre de causas) é sempre linear. Assim, um corpo 
que gira em uma corda (uma funda, Fig. III.1), se for liberado durante o movimento, escapará 
em linha reta. E essa tendência é permanente, conforme podemos sentir pela força com a qual 
a pedra girante puxa, tensiona, a corda. A terceira lei envolve um conjunto de sete regras para 
descrever o choque entre os corpos, mas os filósofos naturais da época mostrariam que essas 
leis estavam erradas, levando Huygens, Wallis e Wren a formularem independentemente as 
leis corretas, em torno da década de 1660. 
A cosmologia de Descartes baseava-se na noção de que cada estrela tinha em torno de 
si um grande vórtice, que giraria da maneira como faz o nosso sistema solar (Fig. III.2). Ou 
seja, o Sol é uma dentre as várias estrelas, e os planetas orbitam à sua volta porque são 
carregados por uma espécie de redemoinho de matéria. Descartes fez observações de 
redemoinhos em tonéis de vinho, e pode-se observar que objetos flutuantes giram em torno de 
si mesmos no mesmo sentido que a rotação do líquido: ora, é exatamente isso que acontece 
com os planetas do Sistema Solar! 
Haveria três tipos de matéria. O 1o elemento, chamado também de “matéria sutil”, 
seria constituído de lascas minúsculas que teriam se separado do choque entre a matéria dos 
outros tipos. Elas teriam um movimento muito rápido, seriam luminosas e formariam a 
matéria do Sol e das outras estrelas. Teriam migrado para o centro do vórtice por causa da 
tendência da matéria mais grossa de se afastar do centro. O 2o elemento seria constituído por 
partículas arredondadas que preencheriam os céus. Seria a matéria transparente que carregaria 
os planetas em órbita circular. O 3o elemento seria a matéria mais grossa que constitui a Terra, 
os planetas e os cometas. Ela seria opaca, apesar de o ar ser tão fino que aparece transparente. 
A “matéria celeste”, que a tudo permeia, seria constituída principalmente do 2o elemento, mas 
também conteria a matéria sutil e fragmentos do 3o elemento, incluindo ar (Princípios de 
Filosofia, IV, § 25). 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 18
O 3o tipo de matéria, que nos cerca, é cheio de interstícios, como uma esponja, e essas 
fendas estão sempre preenchidas pela matéria celeste, já que o vácuo é impossível. Da mesma 
maneira que uma esponja aumenta de tamanho quando ela é embebida em água, a matéria 
terciária expande quando é aquecida e preenchida pela matéria celeste. 
A quantidade de matéria (o que viria a ser chamada “massa”) é dada pelo volume 
ocupado pela matéria terciária. Sendo assim, por que dois objetos de igual volume (digamos 
1 litro), um de chumbo e outro de cera, têm pesos diferentes? A explicação de Descartes é que 
o chumbo tem poucos interstícios, ao passo que a cera tem muitos. Assim, o volume 
efetivamente ocupado pela matéria celeste é bem maior na cera do que no chumbo. 
 
 
 
 
Figura III.1. Pedra em movimento 
circular que é solta de uma funda 
segue a trajetória retilínea ACG. 
 
 
 
Figura III.2. Vórtices 
associados a diferentes 
estrelas. O Sol (S) está 
cercado pelas trajetórias 
circulares de seus planetas. 
Vê-se também a trajetória de 
um cometa por entre as 
células de cada vórtice. 
 
 
 
6. Explicação da Gravidade segundo a Filosofia Mecânica 
 
Por que sentimos que o chumbo é mais pesado do que a cera? Qual a origem da 
gravidade? Descartes considerava que a Terra gira em torno de seu eixo movido pelo vórtice 
de matéria celeste. Na superfície da Terra, tal matéria se move mais rapidamente do que os 
corpos grossos, como se fosse um vento. Sua tendência para sair para fora (em movimento 
“centrífugo”, assim como a funda mencionada acima) seria maior do que os corpos de matéria 
terciária, mais lentos. Essa saída da matéria celeste (que se daria inclusive por entre os 
interstícios dos corpos mais grossos) tende a criar um vácuo em baixo da matéria terciária, de 
forma que esta tem uma tendência a preencher este (quase) vácuo, descendo verticalmente (a 
mesma explicação era também dada em termos de diferenças de pressão da matéria celeste). 
Assim, os corpos caem, devido à rotação da matéria celeste em torno da Terra, para preencher 
o espaço deixado por essa matéria celeste. A explicação para a órbita da Lua em torno da 
Terra é a mesma: matéria celeste se afasta da Terra, devido ao movimento do vórtice em torno 
de nosso planeta, e a Lua é obrigada a preencher o vácuo que se formaria, desviando assim de 
seu trajeto retilíneo natural. 
Mas por que um corpo mais pesado que caiem nossa mão gera uma sensação mais 
intensa de força? Ora, os corpos caem com a mesma velocidade, como demonstrara Galileu 
(desprezando-se, é claro, o efeito retardador do ar). Pelas leis do choque, um corpo com mais 
matéria terciária (como o litro de chumbo) transmite mais quantidade de movimento 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 19
(velocidade) para a nossa mão do que o corpo com menos matéria terciária (como o litro de 
cera). Assim, o chumbo que cai em nossa mão é mais difícil de segurar. 
E se os dois corpos estiverem parados em nossa mão? Neste caso, por que o litro de 
chumbo é mais difícil de segurar do que o de cera? Aí eu não sei, pergunte ao René! 
A teoria da gravitação de Descartes tinha um problema sério, que era o fato de que a 
tendência centrífuga da matéria celeste de se afastar do centro de rotação, digamos da Terra, 
se dava apenas no plano perpendicular ao eixo da Terra. Por que então os corpos caem em 
direção ao centro da Terra, mesmo fora do Equador? 
Christiaan Huygens (1629-95) buscou resolver este problema em seu Discurso sobre a 
Causa do Peso, redigido em 1669 mas só publicado em 1690.20 Substituiu o vórtice 
cilíndrico de Descartes por um vórtice esférico, imaginando que as partículas da matéria 
etérea giram em torno da Terra em todas as direções. A velocidade v dessas partículas 
obedeceria à relação v2/r = g, onde r é o raio da Terra e g a aceleração dos corpos em queda 
livre. Uma pedra que fosse solta no ar seria atingida em sua parte superior por matéria celeste 
de velocidade maior, e assim, segundo ele, tenderia para o centro da Terra. Para sustentar sua 
teoria, Huygens realizou experimentos em uma mesa giratória com um recipiente cilíndrico de 
água, com seu centro no eixo de rotação da mesa. Pedaços de cera levemente mais pesados do 
que a água, que se encontravam no fundo do recipiente, tendiam para o centro do recipiente 
(isto é, para o eixo de rotação) a partir de uma certa velocidade de rotação, já que não 
conseguiam acompanhar o movimento da água (devido ao atrito com o fundo do recipiente). 
A teoria mecânica dos vórtices planetários explicava bem o fato de os planetas se 
moverem no mesmo plano em torno do Sol, em movimento aparentemente circular, e de suas 
rotações e revoluções se darem no mesmo sentido. Nas palavras de Huygens (1686): “Os 
planetas nadam em matéria. Pois, se não o fizessem, o que impediria os planetas de se 
afastarem, o que os moveria? Kepler quer, erroneamente, que seja o Sol.” 
A teoria da gravitação de Newton (1687) foi a primeira a explicar as leis de Kepler, e a 
evidência experimental a favor de órbitas elípticas levou tanto Huygens quanto Leibniz a tentar 
formular uma explicação mecânica para elas, em 1690 (até Newton tentou fazer isso, como 
aparece na Questão 21 de seu livro Opticks). O primeiro efeito da obra de Newton foi então o 
fortalecimento da teoria mecânica dos vórtices planetários. Mas a partir de 1720, a nova geração 
de físicos no Continente Europeu se convenceu da superioridade do programa newtoniano.21 
 
 
7. Teoria Cinética da Gravitação 
 
Em 1782, muito tempo depois da queda da filosofia mecânica, George Louis Le Sage, 
em Genebra, encontrou uma maneira elegante de explicar a lei da gravitação de Newton por 
meio de princípios mecânicos (ou seja, envolvendo apenas forças de contato). Sua teoria pode 
ser chamada uma “teoria cinética da gravitação”, inspirada na idéia formulada por Daniel 
Bernoulli para gases, em 1738. Na verdade, sua teoria é semelhante a uma proposta feita por 
um matemático suiço, amigo de Newton, Nicolas Fatio de Duillier, em torno de 1693. 
A ontologia de Le Sage envolve “corpúsculos ultramundanos”, bastante leves, que 
bombardeariam todos os corpos pesados de todos os lados. Um corpo perdido no espaço 
receberia um número de impactos mais ou menos igual de todos os lados, permanecendo 
 
20 DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 461-3. Ver também MARTINS, R.A. (1989), “Huygens e a 
Gravitação Newtoniana”, Cadernos de História e Filosofia da Ciência (série 2) 1, 151-84. 
 
21 BAIGREE, B.S. (1988), “The Vortex Theory of Motion, 1687-1713: Empirical Difficulties and Guiding 
Assumptions”, em Donovan, A.; Laudan, L. & Laudan, R. (orgs.), Scrutinizing Science, (Synthese Library 193). 
Kluwer, Dordrecht, pp. 85-102. 
FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica 
 
 20
assim em um estado inercial. Mas quando dois corpos estão próximos, como a Terra e a Lua, 
um deles bloquearia parte dos corpúsculos ultramundanos que atingiria o outro, como na 
formação de uma sombra. Desta forma, os corpos se atrairiam. Le Sage ajustou seus 
parâmetros de forma a obter a lei da gravitação de Newton. Para explicar porque corpos mais 
densos exercem maior força gravitacional, Le Sage teve que adotar a teoria cartesiana da 
matéria, e supor que um corpo menos denso tem mais espaço vazio em seu interior. 
A teoria cinética da gravitação é uma idéia que periodicamente volta à cena, ora 
defendida por detratores da física “oficial”, ora incorporada em teorias cosmológicas 
sofisticadas.22 
 
22 BRUSH, S.G. (1976): The Kind of Motion We Call Heat, North-Holland, Amsterdã, vol. 1, pp. 21-2. Este 
menciona alguns autores do século XX que retomam esta idéia. Ver também: GOUGH, J.B. (1970), “Lesage, 
George-Louis”, em Dictionary of Scientific Biography, Scribners, Nova Iorque, vol. 8, pp. 259-60. 
Filosofia da Física Clássica 
Cap. IV 
 
21 
Concepções Realista e Instrumentalista de “Força” 
 
Questão: A ciência deve apenas descrever o que é observável ou deve lançar 
hipóteses sobre a realidade que estaria por trás dos fenômenos? 
 
 
1. Mecanicismo com Forças à Distância 
 
O trabalho de Isaac Newton (1642-1727) pode ser visto, por um lado, como a 
culminação da tradição de pesquisa da filosofia mecânica, ao enunciar suas três leis da 
mecânica (princípio de inércia, definição de força e princípio de ação e reação). No entanto, 
especialmente em seu estudo da lei de atração gravitacional, introduziu a concepção de uma 
força que age à distância. Ao fazer isso, injetou no programa mecanicista um elemento da 
tradição do naturalismo animista (de Kepler), e foi bastante criticado por isso. No entanto, não 
seguiu explicitamente a concepção de realidade desse naturalismo renascentista, mas adotou 
uma postura “instrumentalista” de renunciar à busca de uma explicação mecânica para esta 
atração. 
Em sua juventude, Newton era partidário da concepção mecânica de Descartes e 
Huygens, adotando a visão atomista divulgada principalmente por Pierre Gassendi. No 
período 1664-66, estudou a mecânica de Descartes e assimilou o princípio de inércia e as leis 
do choque entre corpos23. A noção de “força”, “a potência de uma causa”, era concebida 
como uma pressão de um corpo sobre outro, estando restrita a choques entre corpos. Desses 
autores, herdou a noção de que a força exercida por um corpo em outro, durante um choque, é 
igual à força recebida. Passou a estudar os movimentos circulares, imaginando uma bola que 
está presa em uma arena circular, e se move chocando-se constantemente com as paredes da 
arena. Derivou uma expressão para a força “centrífuga” (também estudada por Huygens), que 
descreve o movimento de fuga em relação ao centro (e não uma atração): F = mv2/r. Juntou 
este resultado com a 3a lei de Kepler (que relaciona os períodos e os raios médios das órbitas 
dos planetas: T 2/r3 = cte.), e encontrou uma força que decresce com a distância de acordo com 
1/r2 (faça como exercício, lembrando que v=2πr/T). Ao aplicar esta fórmula para a “queda”da 
Lua (usando a lei de Galileu, d = ½ at2 ), encontrou uma discrepância de uns 15%, e deixou a 
questão de lado. Além disso, Newton não tinha ainda a noção de uma força de atração. 
Ao finalizar esses estudos, em 1666, Newton abandonou a mecânica e foi trabalhar com 
matemática e com óptica. Em 1675, após realizar importantes pesquisas em óptica, esboçou uma 
visão de mundo que seguia Descartes em sua concepção de que a gravidade podia ser explicada a 
partir do movimento das partículas do éter, que ocupariam todo o espaço. No entanto, adotava um 
princípio secreto de “sociabilidade” para explicar algumas reações químicas. Neste ano, ficou 
sabendo de uma correção para o valor de um grau de latitude, medida pelo astrônomo francês 
Jean Picard em 69,1 milhas inglesas, ao invés do valor de 60 milhas que Newton usara em seu 
cálculo da queda da Lua em 1666. Com essa correção, a lei da força gravitacional que ele havia 
encontrado passou a explicar bem o movimento da Lua. 
Em 1679, recebeu um convite de Robert Hooke (1635-1703) para reexaminar o 
problema dos movimentos planetários. Após algumas dificuldades iniciais, Hooke lhe sugeriu 
usar uma lei de atração com uma força proporcional a 1/r2. Deu alguns passos adiante, mas 
teve uma crise nervosa e acabou abandonando as pesquisas, recuperando-se ao longo de cinco 
anos. Finalmente, em 1684, o astrônomo Edmund Halley visitou Newton, perguntando ao 
exímio matemático qual seria a trajetória de um corpo orbitando com uma força de atração 
 
23 Seguimos WESTFALL (1971), op. cit. (nota 17), pp. 120-59, e DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 463-91. 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 22
proporcional a 1/r2, ao que Newton respondeu que seria uma elipse, conforme tinha calculado 
cinco anos antes para o problema de Hooke. As peças então se encaixaram, e Newton retomou 
seu trabalho em mecânica, recebendo estímulo e auxílio financeiro de Halley. Disso resultou a 
publicação da grandiosa obra Philosophiae naturalis principia mathematica (Princípios 
naturais da filosofia natural, 1687). 
Outra obra importante de Newton foi seu Opticks (1704). Nesta, estendeu sua 
concepção – de que existem forças que atuam à distância entre todos os corpos – para todas as 
partículas, inclusive átomos e partículas de luz. Tais forças poderiam ser de atração, o que 
explica a coesão dos corpos e a capilaridade, e também de repulsão, como na expansão dos 
gases. O magnetismo seria outro exemplo importante de forças atuando à distância. Reações 
químicas também poderiam ser explicadas por meio da atração e repulsão no nível 
microscópico. Ao final do séc. XVIII, essa concepção tornar-se-ia o paradigma dominante 
(especialmente para o grupo que trabalhava em torno de Laplace), no que às vezes é chamado 
a visão “astronômica” da natureza: partículas imponderáveis (sem peso) sujeitas a forças de 
atração e repulsão. 
 
 
2. Definições e Leis no Principia 
 
O Livro I do Principia não falou em gravitação, mas apresentou os princípios gerais 
da mecânica, com definições básicas e as suas três leis. Com estas leis e a noção de força 
centrípeta (força central), Newton derivou as três leis de Kepler. No Livro II, considerou 
sistemas com fluidos, e criticou a concepção cartesiana de vórtices para o sistema solar. No 
Livro III, aplicou sua teoria para a descrição detalhada do sistema solar, mostrando que a lei 
da gravitação é a mesma para as luas de Júpiter, para os planetas em torno do Sol e para um 
corpo caindo na superfície da Terra. Enunciou então a lei da gravitação universal. 
É interessante enfocarmos os conceitos fundamentais apresentados por Newton24, 
buscando entender se esses fundamentos são extraídos da observação ou formulados 
teoricamente. 
Seguindo o método axiomático de Euclides, como era costume no séc. XVII, Newton 
parte de oito definições. A primeira é do conceito de massa, que chamava “quantidade de 
matéria”, e define como o produto da densidade e do volume. Tal definição passou a ser 
considerada problemática, já que ele não define o que seria “densidade”. Com o 
desenvolvimento do texto, certas propriedades de “massa” deixaram claro que ela se distingue 
da noção de “peso”, conceitos esses que antes de Newton não eram distinguidos claramente 
(salvo em Kepler).25 
A segunda definição é de “quantidade de movimento”, hoje em dia às vezes chamada 
de “momento linear”, que seria o produto da massa e da velocidade. As definições 3, 4 e 5 
apresentam uma lista de três tipos de “força”. O que chama de “força inata da matéria” (vis 
insita) é o que chamamos de inércia, uma tendência do corpo de resistir à ação de forças 
externas, e de permanecer em seu “estado”, seja ele de repouso ou movimento retilíneo 
uniforme. A “força imprimida é uma ação exercida sobre um corpo para modificar seu 
estado”. É o nosso conceito atual de força, e é exemplificado pela percussão ou pela pressão 
(como era costume na filosofia mecânica) e também pela força centrípeta (o que era uma 
novidade). A força centrípeta, descrita na sexta definição, é aquela dirigida para um ponto, e 
 
24 Trechos relevantes de Newton se encontram na excelente coletânea de COHEN, I.B. & WESTFALL, R.S. (orgs.) 
(2002), Newton: Textos, Antecedentes, Comentários, trad. Vera Ribeiro, Contraponto/Ed. UERJ, Rio de Janeiro, 
pp. 152-7, 278-91. (Original em inglês: 1995). 
 
25 Ver JAMMER, M. (1964), Concepts of Mass in Classical and Modern Physics, Harper & Row, Nova Iorque. 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 23
exemplificada pela gravidade (atuando sobre projéteis e sobre a Lua), pelo magnetismo, pela 
força dos planetas (neste momento ainda não identificado com a gravidade) e pela força de 
uma funda (ou seja, a força elástica ou a tensão em uma corda). 
Nas definições seguintes, caracteriza três tipos de “quantidades” de uma força 
centrípeta. A primeira é a “quantidade absoluta”, que no caso de uma força elétrica estaria 
relacionada com a carga de um corpo. Ele não apresenta este exemplo, mas sim o da força 
magnética, cuja “carga” estaria relacionada ao tamanho do imã e à sua intensidade. No caso 
de uma força gravitacional, a quantidade absoluta seria a massa do corpo que gera a força (o 
que poderíamos chamar a “carga gravitacional”). 
A “quantidade aceleradora” de uma força centrípeta seria simplesmente sua 
aceleração, a “velocidade que ela gera em um determinado tempo”. Na superfície da Terra, a 
quantidade aceleradora é igual para dois corpos, “retirando ou descontando a resistência do 
ar”. Já em montanhas elevadas, ela é menor. 
Na definição 8, apresenta a “força motriz”, que equivale à nossa noção atual de força, 
e é exemplificado pelo peso. O enunciado exprime claramente a noção de uma força contínua, 
que em um “determinado intervalo de tempo” gera um movimento, ou seja, gera uma variação 
na quantidade de movimento. Esta definição se aproxima bem da nossa concepção atual da 
expressão F = ma, ao contrário da 2a lei, como veremos a seguir. 
Newton pôde assim afirmar (p. 282) que “a força de aceleração está para a força 
motriz assim como está a celeridade para o movimento”, ou seja, a/F = v/p, já que a 
quantidade de movimento é p = mv e a força motriz é F = ma. 
No escólio que se segue, diz que não irá definir tempo, espaço, lugar e movimento, 
pois esse conceitos “são bem conhecidos de todos”. Com referência ao tempo, distingue entre 
o tempo absoluto, real, matemático, que “flui uniformemente, sem relação com qualquer coisa 
externa”, e o tempo relativo, que seria “uma medida sensível e externa”. Analogamente, 
haveria o espaço absoluto, sem relação com coisas externas,e o espaço relativo, que seria 
uma medida do espaço absoluto. Analogamente, haveria um “lugar” (volume) absoluto e um 
relativo, e também um movimento absoluto e um movimento relativo. No Cap. V 
discutiremos mais a fundo esta distinção. 
Mais adiante no Livro 1, Newton apresenta suas famosas três leis. A 1a lei é o 
princípio de inércia, que afirma que um corpo permanece em seu estado de movimento 
uniforme (velocidade constante) “a menos que seja compelido a modificar esse estado por 
forças imprimidas sobre ele”. 
A 2a lei afirma que “a variação do movimento é proporcional à força motriz 
imprimida, e ocorre na direção da linha reta em que essa força é imprimida”. Por 
“movimento” entende-se a quantidade de movimento p = mv (introduzimos o negrito para 
designar grandezas vetoriais). A interpretação mais natural para o leitor moderno é supor que 
Newton está afirmando que a força motriz é a derivada temporal do momento linear, ou seja, 
F = d/dt (mv), que seria equivalente a F = ma. 
Dijksterhuis (1986, pp. 470-4), porém, observa que a noção de força usada por 
Newton em seus cálculos é de uma força impulsiva I, como em um choque entre corpos, que 
resulta em uma variação finita de momento: I = ∆(mv). Para sustentar esta interpretação, o 
historiador holandês refere-se ao Corolário 1 que se segue às leis, cujo enunciado é o 
seguinte: 
“Um corpo que sofre a ação de duas forças simultâneas descreve a diagonal de um 
paralelogramo no mesmo tempo em que descreveria os lados do paralelogramo por essas 
forças, separadamente” (ver Fig. IV. 1). 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 24
 
 
 
Figura IV.1: Paralelogramo descrevendo os 
movimentos resultantes de forças impulsivas 
exercidas em A. 
 
Newton salienta que o movimento de A para B, etc., é uniforme, de forma que está 
claro, neste caso, que a força exercida em A é impulsiva. A 2a lei garante que as duas forças 
agindo em A agem de maneira independente, resultando no movimento de A para D. Este é 
um bom exemplo de uma soma linear de causas. 
É verdade que Newton parecia ter a noção de uma força que age de maneira contínua, 
como exprimiu em sua Definição 8 (e também em seu Corolário 2, que não mencionamos), 
mas a utilização da 2a lei em seus cálculos envolve sempre uma força impulsiva. Quem 
consolidou a concepção moderna de F = ma, para forças de todos os tipos, foi Leonhard Euler 
(1707-83), em 175026. 
A 3ª lei de Newton é a lei de ação e reação: “para cada ação existe sempre uma reação 
igual e contrária”. Se um corpo A exerce uma força FAB sobre um corpo B, então 
necessariamente haverá uma força –FAB sendo exercida em A. 
O Corolário 3 mostra como o princípio de conservação da quantidade de movimento 
segue das 2a e 3a leis. O Corolário 4 mostra que o “centro de gravidade” de corpos 
interagentes permanece em seu estado de movimento inercial. 
 
 
3. A Natureza da Força 
 
Qual é a natureza da “força”? Seria ela uma vera causa, um processo real que resulta 
nos movimentos observados? Ou seria ela apenas uma construção matemática obtida a partir 
dos movimentos observados?27 Newton oscila entre essas duas concepções. 
Em seu famoso “Escólio Geral”, escrito em 1713, na 2a edição do Principia, Newton 
afirma: “Até hoje, entretanto, não pude descobrir a causa dessas propriedades da gravidade 
dos fenômenos, e não invento hipóteses; pois o que quer que não seja deduzido dos 
fenômenos deve ser chamado de hipótese, e as hipóteses, sejam elas metafísicas ou físicas, de 
qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental” (in COHEN & 
WESTFALL, 2002, pp. 154-5). 
Para entender o que Newton quis dizer com isso, é preciso distinguir duas acepções do 
termo “hipótese”. (i) No sentido mais usual hoje em dia, uma hipótese é qualquer tese que 
conjeturamos sem que ela ainda tenha sido submetida a teste. (ii) No sentido usado por 
Newton, é uma conjectura a respeito da natureza não-observável que estaria por trás dos 
fenômenos observáveis. 
Na verdade, antes de escrever o Principia, Newton trabalhou em uma teoria 
“mecanicista” da gravitação (ou seja, só com forças de contato, como em Descartes, ver cap. 
II). Isso aparece em uma carta a Boyle em 1678, e reaparece na Questão 21 do Opticks. Tendo 
fracassado em sua tentativa, declarou então que “não invento hipóteses” (hypotheses non 
 
26 TRUESDELL, C. ([1960] 1968), “A Program toward Rediscovering the Rational Mechanics of the Age of 
Reason”, in Essays in the History of Mechanics, Springer, Berlim, pp. 84-137. Ver pp. 112-7. 
 
27 Essa maneira de apresentar a distinção é feita na seguinte interessante bibliografia sobre os problemas 
filosóficos da mecânica clássica: HESSE, MARY (1964), “Resource Letter PhM-1 on Philosophical Foundations 
of Classical Mechanics”, American Journal of Physics 32, 905-11. 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 25
fingo), ou seja, que não há necessidade de estipular causas ou mecanismos ocultos, já que a 
expressão matemática da lei de atração universal é suficiente para que se explique o 
movimento dos corpos celestes. Tal atitude pode ser chamada “instrumentalista”, em oposição 
ao “realismo” da filosofia mecânica. 
 
 
4. Realismo, Instrumentalismo, Descritivismo 
 
A discussão envolvendo o realismo científico e seus opositores é conhecida como a 
questão do “estatuto cognitivo das teorias científicas”.28 
Segundo o realismo, uma teoria bem confirmada deve ser considerada literalmente 
verdadeira ou falsa, no mesmo sentido em que um enunciado particular é considerado 
verdadeiro ou falso. Assim, (i) as entidades postuladas pela teoria teriam realidade, no mesmo 
sentido em que objetos cotidianos são reais, mesmo que elas não sejam observáveis (como 
“quarks” ou “partículas virtuais”); (ii) as leis teóricas e princípios gerais seriam verdadeiros 
ou falsos, exprimindo a estrutura da realidade. Porém, como as teorias científicas geralmente 
envolvem aproximações ou simplificações, deve-se entender a verdade através da noção de 
“verdade aproximada” ou do conceito de “verossemelhança”. 
Na Antigüidade, a física era vista como uma ciência que buscava explicações 
verdadeiras sobre o mundo, lançando hipóteses sobre as verdadeiras causas dos fenômenos. 
Na astronomia, porém, com o desenvolvimento da técnica de epiciclos para prever as posições 
dos astros, passou-se a considerar que a tarefa da astronomia seria apenas “salvar os 
fenômenos”, ou seja, descrever com precisão as observações, fazendo previsões precisas, sem 
se preocupar com a verdade. Segundo esta versão forte do instrumentalismo, uma teoria 
científica seria apenas um instrumento para se fazerem previsões, e não havia a pretensão de 
que os epiciclos correspondessem à realidade por detrás dos fenômenos astronômicos. Um 
exemplo clássico de discurso instrumentalista foi o prefácio escrito por Andréas Osiander29 ao 
livro de Nicolau Copérnico, salientando que não seu sistema astronômico não tinha a 
prestensão de ser verdadeiro, salvar os fenômenos, fornecendo “um cálculo coerente com as 
observações”, e não um retrato real do Universo. 
O descritivismo é uma forma de anti-realismo que busca traduzir ou reduzir os 
enunciados teóricos de uma teoria em termos dos enunciados de observação. Uma teoria é 
vista como uma formulação “econômica” (ou seja, a mais simples possível) das relações de 
dependência entre eventos ou entre propriedades observáveis. Termos teóricos como 
“partículas virtuais” seriam uma descrição abreviada de um complexo de eventos e de 
propriedades observáveis, e não faria sentido dizer que se referem a uma realidade física 
inacessível para a observação (Fig. IV.2). Mesmo assim,o descritivismo aceita que um 
enunciado teórico seja considerado verdadeiro ou falso, na medida em que for tradutível em 
enunciados de observação verdadeiros. 
A distinção entre instrumentalismo e descritivismo é sutil, e hoje em dia há uma 
tendência de englobar ambos sob o nome “instrumentalismo” (em sentido lato) ou 
simplesmente “anti-realismo”. O primeiro autor a quem se costuma atribuir o termo 
“descritivista” é Ernst Mach (por exemplo, em Niiniluoto, 1999, p. 110), com sua 
preocupação em reduzir a linguagem teórica à linguagem de observação (como veremos na 
 
28 Uma apresentação clássica, mas um pouco desatualizada, é feita por NAGEL, E. (1961), The Structure of 
Science, Harcourt, Brace & World, Nova Iorque, pp. 117-52. Uma discussão mais completa e atualizada é dada 
por NIINILUOTO, I. (1999), Critical Scientific Realism, Oxford U. Press, cap. 5. 
 
29 OSIANDER, A. ([1543] 1980), “Prefácio ao De Revolutionibus Orbium Coelestium, de Copérnico”, trad. e notas 
de Z. Loparić, Cadernos de História e Filosofia da Ciência 1, pp. 44-61. 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 26
seção VII.2), mas foram os positivistas lógicos (Carnap, Schlick, Reichenbach, etc., entre as 
décadas de 1920 e 60) que mais trabalharam nesta concepção, com sua preocupação com a 
linguagem da ciência. Pode-se talvez associar o positivismo a uma visão descritivista, apesar 
de se também poder associá-lo ao instrumentalismo. Além do descritivismo, outras teses que 
comporiam o positivismo seriam o nominalismo (seção I.4), o critério de demarcação entre 
ciência e metafísica, a separação entre fato e valor, e a tese da unidade da ciência.30 
Ao contrário do descritivismo, que está ligado a uma preocupação com a linguagem da 
ciência e na redução do significado dos enunciados teóricos ao significado dos enunciados de 
observação, o instrumentalismo não vê uma teoria científica necessariamente como uma 
linguagem, mas sim como um instrumento lógico ou matemático para organizar as 
observações e as leis experimentais. Uma teoria é vista não como um conjunto de enunciados 
que tenham valor de verdade, mas sim regras de acordo com as quais as observações são 
analisadas e inferências (previsões) são obtidas. Seria incorreto dizer que a teoria é “uma 
descrição abreviada de observações” (como no descritivismo), da mesma maneira que um 
martelo não é uma descrição abreviada de seus produtos. O instrumentalismo tem facilidade 
em lidar com idealizações e modelos simplificados em uma teoria científica, não tendo 
necessidade de definir uma noção de “verdade aproximada”. 
Uma idealização, ou seja, uma teoria simplificada, fornece um bom exemplo de como 
uma teoria pode funcionar como instrumento, sem ter referência (sem ser verdadeira ou falsa). 
Além disso, o instrumentalismo não vê problemas em se utilizar, em diferentes momentos, 
teorias contraditórias. 
 
 
 
 
Figura IV.2: Esquema da relação entre teoria e realidade, segundo a “visão recebida”.31 
 
30 Para um estudo das teses que compõem o positivismo, ver o cap. I de: KOLAKOWSKI, L. (1981), La Filosofía 
Positivista, trad. G. Ruiz-Ramón, Ediciones Cátedra, Madri (original em alemão publicado em Varsóvia em 1966). 
 
31 A “visão recebida” foi desenvolvida entre 1920 e 1960, e caracteriza uma teoria como sendo uma linguagem 
logicamente estruturada. Uma boa referência, na qual a figura se baseia, é: FEIGL, H. ([1970] 2004) “A Visão 
FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força” 
 27
A distinção entre realismo e anti-realismo leva a uma distinção entre dois tipos de 
teorias científicas (seguindo nomenclatura de Rankine, 1855, citado por Nagel, 1961). Teorias 
hipotéticas (transcendentes, microscópicas) enunciam relações entre entidades hipotéticas que 
não são observáveis, como os mecanismos ocultos da filosofia mecânica ou os átomos da 
teoria cinética dos gases. Já as teorias abstrativas (fenomenológicas, macroscópicas) 
formulam apenas relações entre propriedades observáveis, como foi feito por Fourier, em sua 
teoria do calor, e pela termodinâmica. A afirmação de Newton de que não inventaria hipóteses 
a respeito da natureza da lei da gravitação é própria de uma teoria abstrativa. 
 
 
5. Realismo e Anti-Realismo em Newton 
 
Newton era realista, instrumentalista ou descritivista? 
A tradição mecanicista de Descartes e Huygens era realista (assim como o atomismo 
grego), já que concebiam mecanismos envolvendo partículas invisíveis que dariam conta dos 
fenômenos macroscópicos observados. Newton foi formado nesta tradição (recebendo 
influências também do naturalismo animista, uma visão também realista), e assim ele tinha 
uma atitude basicamente realista. Um exemplo claro de uma tese realista é sua defesa do 
espaço absoluto, que veremos no próximo capítulo. Outro exemplo é sua tese de que a luz 
consiste de partículas emitidas com diferentes velocidades. 
No entanto, ao anunciar que não se preocuparia em inventar hipóteses a respeito das 
causas da força gravitacional, adotou uma postura anti-realista. Seria esta uma postura 
descritivista ou instrumentalista? Não se costuma chamar sua atitude de “descritivista” 
porque ele não tinha preocupação em reduzir o significado de enunciados teóricos a 
enunciados de observação, como Mach faria mais tarde. Por outro lado, ele não seria um 
“instrumentalista” no sentido forte da tradição astronômica, conforme expresso no prefácio de 
Osiander, que mencionamos na seção anterior. 
Uma solução é dizer que adotou um “instrumentalismo metodológico”, ou seja, já que 
não conseguiu imaginar um mecanismo para a gravitação, absteve-se de postular uma 
hipótese, não por um princípio filosófico, mas apenas pelas circunstâncias do problema. 
No entanto, a partir do séc. XIX, sua afirmação seria interpretada por muitos como a 
afirmação de que a Física não precisa se preocupar com mecanismos ocultos, que basta 
conhecer o estado inicial e as condições de contorno observáveis, para daí fazer previsões 
utilizando as leis de movimento da Física. No séc. XIX, o trabalho que lançaria esse projeto 
anti-realista seria a Teoria Analítica do Calor (1822), de Joseph Fourier, que descrevia 
situações de equilíbrio e condução térmica de maneira matemática, sem se comprometer com 
a natureza última do calor, com o debate de se o calor era uma forma de movimento de 
partículas ou uma substância, um fluido sem peso (“calórico”). Este trabalho foi uma das 
fontes de inspiração para o positivismo do séc. XIX, que se inicia com Auguste Comte 
(Kolakowski, porém, cita Hume como o primeiro positivista completo). 
Apesar de sua atitude metodologicamente instrumentalista com relação às causas da 
força gravitacional, Newton considerava que as forças existiam de fato, ou seja, era um 
realista com relação à entidade “força”. No séc. XIX, Mach desenvolveria um positivismo 
radical no qual o próprio conceito de força seria visto como uma mera construção mental, um 
termo teórico (não observável), que buscaria definir em termos de grandezas observáveis, 
como posições e acelerações (ver adiante). 
 
 
‘Ortodoxa’ de Teorias: Comentários para Defesa assim como para Crítica”, Scientiae Studia 2(2), pp. 265-77. 
Devido a dificuldades de incorporar modelos e analogias, essa visão “sintática” tem sido hoje preterida em favor 
da chamada “visão semântica de teorias”. 
Filosofia da Física Clássica 
Cap. V 
 
28 
Experimento do Balde e Espaço Absoluto 
 
Questão: O espaço e o tempo são absolutos ou relativos?1. Há Juízos Sintéticos A Priori? 
 
Será que apenas através do raciocínio (antes da observação) a gente consegue chegar a 
alguma verdade sobre o mundo real? Vimos que Descartes considerou que sim (seção III.5): 
partiu de princípios a priori, atingíveis pela razão pura (sem experiência ou observação), de 
que o “eu” existe, de que Deus existe, de que ele é perfeito e invariável, e teria deduzido a lei 
de conservação da quantidade do movimento. Como esta lei descreve o movimento dos 
corpos do mundo, diz-se que é um enunciado sintético ou factual. 
Os empiristas britânicos rejeitaram essa pretensão dos metafísicos (como Descartes e 
Leibniz) de que se pudesse conhecer o mundo apenas através da razão, sem observação. 
David Hume (1711-76) foi o mais importante crítico desta concepção, salientando que 
existem “verdades analíticas a priori”, mas não sintéticas a priori. Uma verdade analítica é ou 
uma verdade lógica, como ‘Dentro de uma hora choverá aqui ou não choverá aqui’, ou uma 
verdade por definição, como ‘Nenhum casado é solteiro’. A negação de uma verdade analítica 
é uma contradição lógica, mas a negação de uma verdade sintética é uma possibilidade lógica 
(por exemplo, que a grandeza m·e–v se conserva, ao invés de mv). 
Em suma, para o empirismo não há verdades sintéticas a priori. No entanto, 
influenciado por Hume, o alemão Immanuel Kant (1724-1804) buscou fazer uma síntese do 
racionalismo dos metafísicos e do empirismo britânico (que ganhara adeptos na França), 
salientando que o nosso conhecimento do mundo envolve uma construção mental, e que a 
estrutura comum a tudo o que observamos (como o espaço euclidiano, a relação de 
causalidade, etc.) é algo que nosso intelecto constrói, e não algo que possamos dizer que 
existe na realidade. Para Kant, a geometria euclidiana exprime como o mundo é de fato, mas 
tal geometria pode ser conhecida de maneira a priori! Assim, para Kant, haveria verdades 
sintéticas a priori. A diferença com Descartes é que tais verdades não se refeririam a algo “lá 
fora”, no mundo real, pois para Kant tal mundo das coisas-em-si é inatingível pela razão pura, 
pela a ciência. Para o filósofo de Königsburg, as verdades mais gerais de nosso conhecimento 
exprimem a maneira como nós (ou qualquer ser inteligente que tenha experiência do mundo) 
inevitavelmente organizamos nossa experiência. E estas verdades podem, para Kant, serem 
conhecidas de maneira a priori. 
No final de sua vida, Kant procurou mostrar que as próprias três leis da mecânica 
newtoniana são sintéticas a priori, ou seja, deriváveis teoricamente, sem necessidade de 
observar o mundo. Esse projeto deixa claro a certeza que se tinha da veracidade da mecânica 
clássica, a noção de que a ciência atinge verdades definitivas. 
No séc. XX, o positivismo lógico herdou a concepção empirista de que não há 
verdades sintéticas a priori, mas a partir da década de 1950, críticos como Quine 
argumentaram que a própria distinção entre enunciados analíticos e sintéticos é mal 
formulada. 
Hoje em dia, a questão se coloca em um contexto “naturalizado”, ou seja, levando em 
conta que nossa mente é fruto de um cérebro que evoluiu biologicamente, de maneira a se 
adaptar de forma muito fina com o ambiente. Será que o fato de termos evoluído por seleção 
natural, dentro de um mundo físico-químico-biológico, permite que possamos conhecer 
verdades a respeito de nós mesmos e do mundo (do qual fazemos parte) sem termos que 
observar o mundo exterior? 
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto 
 
 29
2. Referenciais Inerciais e Não-Inerciais 
 
Um dos conceitos que surgem da mecânica de Newton é o de referencial inercial. 
Trata-se de um referencial (sistema de referência) em movimento retilíneo uniforme (i.e., com 
velocidade constante) em relação ao referencial do espaço absoluto. As leis da mecânica 
clássica são invariantes ante mudanças de referenciais inerciais: eis o princípio de relatividade 
“galileano”. 
Se o referencial não for inercial, a sua aceleração gerará forças “fictícias” nos objetos 
do sistema. Por exemplo, quando um carro faz uma curva para a esquerda, o passageiro “cai” 
para a direita, não porque exista uma força real atraindo ele para a direita, mas porque, por 
inércia, sua tendência natural é permanecer em movimento retilíneo uniforme, e quando o 
carro vira para a esquerda, o passageiro tende a permanecer em linha reta, o que resulta num 
movimento aparente para a direita, aparente em relação ao carro. No referencial do carro, a 
força para a direita é fictícia, pois não há fontes que ocasionam esta força, e porque há um 
referencial inercial externo que explica esta força fictícia a partir da aceleração do carro. 
Mas como podemos descobrir se um certo referencial é ou não inercial? Uma proposta 
inicial seria a seguinte. Analisam-se todas as acelerações dos corpos que compõem o sistema 
de estudo, e buscam-se as forças responsáveis por essas acelerações, ou seja, as fontes das 
forças, como massas (que geram forças gravitacionais), cargas elétricas, imãs, molas, mesas 
(fonte da força “normal”), pressões, atritos, etc. Se ao final deste estudo, houver alguma 
aceleração que não pode ser atribuída a uma interação física, então o referencial é considerado 
não inercial. Ao se soltar uma pedra para o fundo de um poço, observa-se uma pequena 
aceleração para leste. Como essa aceleração não pode ser atribuída à força gravitacional ou a 
um movimento do ar, conclui-se que vivemos num referencial não inercial. De fato, a 
aceleração para leste é devida à força fictícia de Coriolis, que se origina da rotação da Terra. 
Tal receita apresenta alguns problemas, pois ela depende de quais interações (que 
geram as forças) a teoria física aceita. Poder-se-ia talvez, a princípio, postular uma nova 
interação para explicar a origem da força considerada fictícia. Como saber com certeza? 
 
 
3. O Experimento do Balde 
 
Newton apresentou o seguinte argumento em favor da existência de um referencial 
inercial absoluto, que constituiria um “espaço absoluto”. Não seguiremos à risca seu 
argumento, mas o ampliaremos a partir das análises feitas por outros autores.32 
Considere um balde parcialmente cheio de água, que repousa a mil quilômetros acima 
do pólo Sul. Consideremos quatros estágios do experimento-de-pensamento, ilustrados pela 
Fig. V.1. (a) Inicialmente o balde está em repouso, e a água também. (b) A seguir, o balde é 
girado a uma velocidade angular constante, mas neste primeiro instante a água permanece 
parada, no seu estado inicial (apenas a camada em contato com a parede do balde se 
movimenta, mas esse movimento é desprezado). (c) Após algum tempo, a água passa a girar 
com a mesma velocidade angular que o balde, e sua superfície deixa de ser plana, e passa a ter 
a forma de um parabolóide de revolução. (d) Por fim, o balde é parado, mas a água, num 
primeiro instante, continua girando, com sua superfície em forma de parabolóide. 
 
 
32 NEWTON, I. (1990), Princípios Matemáticos de Filosofia Natural, v. 1, trad. T.S.F. Ricci, L.G. Brunet, S.T. 
Gherin & M.H.C. Celia, Nova Stella/Edusp, São Paulo, pp. 11-12 (orig. em latim: 1687). MACH, E. (1960), The 
Science of Mechanics, Open Court, La Salle (EUA), pp. 271-97, 336-41 (orig. em alemão: 1883). Ver também o 
relato geral de NAGEL (1961), op. cit. (nota 28), pp. 203-14, e o relato mais pungente de ASSIS, A.K.T. (1998), 
Mecânica Relacional, Coleção CLE 22, CLE-Unicamp, pp. 45-54, 68-9, 134-43. 
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto 
 
 30
 
 
Figura V.1: (a) Balde e água parados. (b) Balde girando e água ainda parada. (c) Balde girando e 
água girando junto. (d) Balde é parado, maságua continua girando. 
 
 
A tendência da água de subir as paredes do balde é um fenômeno real, conseqüência 
de uma aceleração radial da água. Haveria uma força (com fonte bem definida) associada a 
esta aceleração, ou ela seria o efeito de uma força fictícia (ver seção V.2)? Claramente trata-
se de um efeito que surge do movimento do balde (nenhum outro corpo do Universo foi 
alterado, ou seja, assume-se uma cláusula de “ceteris paribus”). Assim, o efeito é resultante 
de uma força fictícia no referencial girante do balde; ou seja, da perspectiva de um referencial 
inercial, o efeito é resultado de uma aceleração. 
A questão agora é: em relação a que referencial (inercial) se dá esta aceleração? Pois 
para medirmos uma aceleração (constituindo uma aceleração “relativa”, segundo as definições 
de espaço e tempo relativos de Newton, ver seção IV.2), devemos fazê-lo em relação a algum 
sistema de referência. Podemos imaginar diferentes candidatos: o balde, a Terra, as estrelas, 
um espaço absoluto. 
Será que o movimento da água em relação ao balde é o responsável pela forma 
parabolóide de sua superfície? Não, argumentou Newton, pois na Fig. IV.1 temos duas 
situações em que o movimento relativo de ambos é diferente (c e d), mas a forma da água é 
idêntica; ou uma situação em que o movimento relativo é igual (a e c), mas a forma é 
diferente. 
Talvez então o responsável pela água subir a parede seja o movimento da água em 
relação à Terra. Mas segundo a teoria da gravitação de Newton, se a Terra subitamente 
parasse de girar, isso não teria efeito algum sobre a água. Portanto, não é a aceleração em 
relação à Terra que seria responsável pela aceleração da água. 
Será talvez que o referencial em questão seria fixado pelas estrelas, que formam 
aproximadamente uma casca esférica de matéria, no centro da qual se encontraria o balde? 
Não, pois se pudéssemos girar a casca das estrelas, nenhum efeito surgiria no seu interior, 
segundo a teoria de Newton. 
Portanto, nenhum corpo material pode fixar o referencial em relação ao qual o efeito 
na água é medido. Assim, Newton concluiu que haveria um referencial espacial imaterial, 
absoluto, em relação ao qual se dão todas as acelerações. Seria um referencial inercial, mas 
não poderíamos determinar sua velocidade em relação a outros referenciais inerciais. De uma 
perspectiva anti-realista, não teria sentido estipular uma velocidade para este referencial. 
Newton completa sua discussão com outro experimento-de-pensamento, a de dois 
globos ligados por uma corda. Quando o sistema gira, surge uma tensão na corda. No entanto, 
se as estrelas fixas girassem em torno dos globos e estes ficassem parados, não haveria tensão 
na corda, segundo a física de Newton. Assim, a tensão na corda só poderia ser explicada pela 
rotação dos globos em relação ao espaço absoluto. 
 
 
 
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto 
 
 31
4. A Defesa do Espaço Relativo 
 
A primeira defesa do espaço relativo, após o trabalho de Newton, foi feita por 
Gottfried Wilhelm von Leibniz (1646-1716). Ela apareceu em uma troca de cartas com o 
teólogo inglês Samuel Clarke, amigo de Newton, em 1715-6. O ponto de vista do alemão se 
baseia no princípio de razão suficiente, que em sua segunda carta é expresso da seguinte 
maneira: “nada acontece sem uma razão pela qual ela deva ser de uma maneira ao invés de 
outra”. Em sua terceira carta, Leibniz argumenta que um espaço absoluto violaria o princípio 
de razão suficiente. Pois o espaço é uniforme, e se ele não contiver coisas materiais, um ponto 
do espaço não irá diferir de outro ponto. Ora, se houver um espaço absoluto, quando Deus 
resolveu colocar as coisas no espaço, ele não teria razão nenhuma para colocar as coisas aqui 
ou acolá, ou orientadas num sentido e não em outro (mesmo mantendo a situação relativa 
entre elas). Não haveria razão suficiente para a criação das coisas no mundo, mas elas de fato 
foram criadas. Assim, o espaço absoluto não poderia existir. O espaço seria a ordem das 
coexistências, ou seja, seria a própria relação entre as coisas materiais.33 
O problema do balde não foi satisfatoriamente resolvido por Leibniz. Na verdade, foi 
Clarke quem vislumbrou a possibilidade de que “se um corpo existisse sozinho, seria incapaz 
de movimento, ou [...] as partes de um corpo que circula (ao redor do Sol, p. ex.) perderiam a 
força centrífuga que nasce de seu movimento circular, se toda a matéria exterior que as cerca 
fosse aniquilada” (in ASSIS, p. 113). Note-se também que Leibniz não percebeu que sua teoria 
relacional do espaço e tempo deveria entrar em contradição com sua noção de que a energia 
cinética (vis viva) teria um valor absoluto. 
Outro filósofo que defendeu o espaço relativo foi o bispo irlandês George Berkeley 
(1685-1753), que na sua obra De Motu (1721) afirmou que “seria suficiente, para determinar 
o movimento e o repouso verdadeiros [...], considerar o espaço relativo, ao invés do espaço 
absoluto, enquanto confinado pelo céu das estrelas fixas, que se considera estar em 
repouso”.34 No entanto, ao analisar o experimento do balde girante, não invocou de maneira 
clara esta possibilidade. 
Essas questões foram discutidas nas décadas seguintes, mas foi só com Ernst Mach 
(1838-1916) que as teses relacionais receberam uma sustentação mais forte, em sua obra A 
Ciência da Mecânica (1883). Sua idéia básica foi considerar que “todo o universo” ou “as 
estrelas fixas” é que estabelecem o referencial a partir do qual as velocidades têm significado, 
assim como a lei de inércia. De fato, havia um estudo experimental do astrônomo Hugo von 
Seeliger que indicava que o sistema inercial que se estabelece na Terra coincide com o 
sistema empírico obtido a partir da observação das estrelas. Em termos newtonianos, o 
conjunto das galáxias não gira em relação ao espaço absoluto. 
Para Mach, “todas as massas e todas as velocidades e, conseqüentemente, todas as 
forças, são relativas [...] a visão ptolomaica [ou melhor, a de Tycho Brahe] ou copernicana é 
nossa interpretação, mas ambas são igualmente verdadeiras. Tente fixar o balde de Newton e 
girar o céu das estrelas fixas e então prove a ausência de forças centrífugas. [...] Os princípios 
da mecânica podem, de fato, ser concebidos tal que mesmo para rotações relativas surgem as 
forças centrífugas” (in ASSIS, 1998, pp. 132-3). 
 
33 A correspondência Leibniz-Clarke aparece em: ALEXANDER, H.G. (org.) (1956), The Leibniz-Clarke 
Correspondence, Manchester U. Press. Seguimos aqui o relato e análise de ASSIS (1998), op. cit. (nota 32), pp. 
105-43, que contém várias citações. 
 
34 BERKELEY, G. (2006), “De Motu (Sobre o movimento ou sobre o princípio, a natureza e a causa da 
comunicação dos movimentos)”, trad. Marcos R. da Silva, Scientiae Studia 4(1), 115-37, disponível na internet. 
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto 
 
 32
A tese de que o espaço, tempo e velocidades são relativos passou a ser conhecido 
como “princípio de Mach”. Em outros termos, é a tese de que as forças fictícias são reais e 
geradas pelo movimento em relação à matéria. 
Uma conseqüência do princípio de Mach, incorporado na abordagem conhecida como 
“mecânica relacional”, é a tese de que a massa inercial de um corpo é devido à interação 
gravitacional com os outros corpos do Universo. Ou seja, se quase toda a matéria do 
Universo, fora da Terra, desaparecesse, você poderia parar um caminhão que estivesse se 
movendo em ponto morto na horizontal com suas próprias mãos (desde que seus pés 
estivessem em contato com o chão, sofrendo atrito estático)! Isso ocorreria porque a massa 
inercial do caminhão ficaria reduzida, já que a quantidadede matéria no Universo se reduziu. 
A “mecânica relacional” redescoberta por André Assis, da Unicamp, pode ser 
considerada uma teoria mais completa que a mecânica newtoniana, e implementa o princípio 
de Mach utilizando-se de uma expressão para o potencial gravitacional que depende não só 
das posições relativas mas também da velocidade relativa entre os corpos. Tal expressão para 
a força foi derivada pela primeira vez por Wilhelm Weber em 1848, no contexto do 
eletromagnetismo. Na gravitação, foi introduzida na década de 1870. A idéia de que a massa 
inercial surge da interação com a matéria do resto do Universo apareceu no final do séc. XIX. 
Essa idéia também se aplica para a origem da energia cinética dos corpos em movimento. Em 
1925, Erwin Schrödinger desenvolveu a mecânica relacional de forma independente, 
considerado-a “como sendo pelo menos um estágio intermediário permissível e útil [em direção 
à teoria da relatividade geral], que torna possível compreender, de maneira simples mas ao 
mesmo tempo sensata, uma situação empírica simples através de concepções que são familiares 
a todos.”35 
 
 
5. Princípio de Mach e a Teoria da Relatividade Geral 
 
Albert Einstein formulou sua teoria da relatividade geral de 1916 tendo sido 
influenciado pelas idéias relacionais de Mach. Desde 1912 Einstein utilizava o princípio, 
quando calculou o aumento da massa inercial de um corpo no interior de uma casca esférica e 
sua aceleração induzida pela rotação da casca. 
Com a teoria da relatividade geral, Einstein generalizou sua teoria da relatividade 
restrita impondo que “as leis da física devem ter uma estrutura tal que a sua validade 
permaneça em sistemas de referência animados de qualquer movimento”, e não apenas para 
referenciais inerciais. Ou seja, ele impôs a igualdade na forma das equações em todos os 
sistemas de referência. Esta invariância na forma das equações não tinha sido sugerida por 
Mach. 
Einstein36 considerava que quatro conseqüências têm de ser obtidas em qualquer teoria 
que implemente o princípio de Mach: 
1) A inércia de um corpo deve aumentar se se acumulam na sua vizinhança massas 
ponderáveis. 
2) Um corpo deve sofrer uma força aceleradora quando massas vizinhas são 
aceleradas; a força estaria no mesmo sentido que a aceleração. 
 
35 ASSIS, A.K.T. & PESSOA JR., O. (2001), “Erwin Schrödinger e o Princípio de Mach”, Cadernos de História e 
Filosofia da Ciência (série 3) 11, 131-52. Ver p. 145. Sobra a história da mecânica relacional, ver ASSIS (1998), 
op. cit. (nota 32), pp. 297-319. 
 
36 EINSTEIN, A. (1958), O Significado da Relatividade, trad. de M. Silva, Arménio Amado, Coimbra, p. 123 
(orig. em alemão: 1922). 
FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto 
 
 33
3) Um corpo oco animado de um movimento de rotação deve produzir no seu interior 
um “campo de Coriolis” que faz com que corpos em movimento sejam desviados no sentido 
da rotação; deve ainda produzir um campo de forças centrífugas radial. 
4) Um corpo em um universo vazio não deve ter inércia; ou, toda inércia de qualquer 
corpo tem que vir de sua interação com outras massas no universo. 
Inicialmente, em 1916-18, Einstein pensava que estas quatro conseqüências estavam 
contidas na relatividade geral, e que portanto seria possível implementar o princípio de Mach 
em sua teoria. Em meados de 1918, porém, foi obrigado a abandonar a quarta conseqüência, e 
assim, aos poucos, foi abandonando o princípio de Mach. O que ocorreu foi o seguinte. As 
primeiras soluções obtidas para sua equação de campo gravitacional (como a de Schwarzschild) 
supunham como condição de contorno que a métrica no infinito era “minkowskiana”, ou seja, 
idêntica à da relatividade restrita. Isso ia contra o princípio de Mach, pois (i) a métrica local não 
seria determinada apenas pela distribuição de matéria, mas também por uma condição de 
contorno, e (ii) se o universo fosse vazio, sua métrica seria toda minkowskiana, mas com isso 
ter-se-ia um espaço absoluto no qual um corpo de prova teria inércia (mesmo na ausência de 
outras massas). Para manter o princípio de Mach, Einstein propôs em 1917 o seu famoso 
modelo cosmológico no qual o universo é fechado (como a superfície de uma esfera), de forma 
que não há contorno: a métrica (que descreve as propriedades inerciais dos corpos) seria 
determinada apenas pela distribuição de matéria, e não por condições de contorno. Nota-se que, 
para conseguir um universo fechado estático (a expansão do universo não era ainda conhecida), 
Einstein teve que modificar suas equações, introduzindo uma constante cosmológica. Concluiu 
assim ter conseguido implementar o princípio de Mach. No entanto, ainda em 1917 o astrônomo 
holandês Willem de Sitter mostrou que as equações modificadas admitiam uma solução para 
um universo vazio, que correspondia a um universo em expansão! Após passar um ano tentando 
mostrar que a solução de de Sitter era fisicamente inaceitável (devido a alguma singularidade), 
Einstein abandonou suas tentativas de implementar rigorosamente o princípio de Mach. Em 
1951, A.H. Taub mostrou também que as equações de Einstein sem a constante cosmológica 
podem gerar um espaço curvo na ausência de matéria.37 
O fato de a Teoria da Relatividade Geral permitir soluções que violem o princípio de 
Mach não significa que o princípio não seja verdadeiro. Com efeito, há propostas como a de 
John Wheeler (1964) de se utilizar o princípio de Mach na Relatividade Geral para selecionar 
condições iniciais, de contorno ou de simetria apropriadas para o Universo. Mesmo aceitando 
a validade da Relatividade Geral, é um problema em aberto a questão da validade do princípio 
de Mach. Ou seja, a questão de se o espaço é absoluto ou relativo ainda está aberta! 
 
 
37 ASSIS & PESSOA (2001), op. cit. (nota 35), pp. 135-9. Uma referência não citada neste artigo é: GRÜNBAUM, A. 
(1964), “The Philosophical Retention of Absolute Space in Einstein’s General Theory of Relativity”, in Smart, 
J.C.C. (org.), Problems of Space and Time, Macmillan, Nova Iorque, pp. 313-7. 
Filosofia da Física Clássica 
Cap. VI 
 
34 
Determinismo e Probabilidade (versão preliminar) 
 
Questão: A natureza é determinista ou há eventos sem causa? 
 
 
1. Determinismo e Previsibilidade 
 
O determinismo estrito é a tese de que o estado presente do Universo fixa de maneira 
unívoca o estado do Universo em qualquer instante do futuro. Esta tese é sugerida pela 
mecânica clássica, para a qual, dados as condições iniciais e de contorno de um sistema, e 
dadas as equações diferenciais que regem a evolução do sistema, o estado em qualquer 
instante futuro poderia em princípio ser calculado. 
Segundo a mecânica clássica, o determinismo estrito vale também para um sistema 
completamente isolado do resto do Universo, ou para um sistema cuja evolução não é afetada 
de maneira significativa pelo ambiente. Se a evolução de um sistema for previsível para todos 
os estado iniciais, isso indica que o sistema é determinista, mas o contrário não é válido. Ou 
seja, se constatarmos que um sistema é imprevisível, isso não implica que ele seja 
indeterminista, pois pode acontecer que não tenhamos acesso a todas as variáveis que 
influenciam a evolução do sistema. Esta situação em que há um determinismo escondido é às 
vezes chamada de “criptodeterminismo”. Notemos que o termo “determinismo” é uma 
designação ontológica, pois se refere à natureza do mundo, ao passo que “previsibilidade” é 
um termo epistemológico, relativo à capacidade que temos de conhecer o futuro. 
Um exemplo de sistema imprevisível é fornecido pela Física Quântica, teoria 
desenvolvida em 1926. Após a consolidação desta teoria, achava-se que elatinha mostrado 
que o mundo é essencialmente indeterminista, mas em 1951 David Bohm forneceu uma 
interpretação determinista da Física Quântica. Como resultado disso, a questão de se a 
natureza é determinista ou não permanece como um problema aberto. 
Apesar da imprevisibilidade para resultados de medições individuais, a Física 
Quântica permite que se façam previsões precisas sobre as freqüências estatísticas com as 
quais diferentes resultados ocorrem. Pode-se assim falar de um determinismo estatístico. 
Se o Universo não for estritamente determinista, tem-se uma situação de 
indeterminismo, probabilismo ou “tiquismo” (termo usado pelo filósofo norte-americano 
Charles Peirce, a partir do termo grego tyche, que é acaso). Pode-se também falar em 
“estocasticidade”, mas geralmente um sistema estocástico (como um grão de pólen em 
movimento browniano) é consistente com um determinismo em uma escala inferior (por 
exemplo, entre os átomos que fazem o grão de pólen flutuar). Outros termos usados são 
“aleatório” ou “caótico”, que são mencionados nas seções VI.4 e 5. 
Outra maneira de caracterizar um sistema indeterminista é falar em “perda de 
causalidade”, ou afirmar que ocorrem eventos sem causa, que ocorrem espontaneamente. Isso 
iria contra o “princípio de razão suficiente” de Leibniz, para o qual tudo tem que ter uma 
razão (uma causa) para acontecer. 
 
 
2. O Demônio de Laplace 
 
 Ao definirmos um sistema determinista, escrevemos que seria “em princípio” possível 
prever com exatidão o futuro desse sistema. Uma maneira de exprimir isso de maneira um 
pouco diferente foi feita por Pierre-Simon Laplace (1749-1827), em sua famosa defesa do 
determinismo: 
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos 
 
 35
 
Podemos considerar o estado atual do universo como o efeito de seu passado e a causa 
de seu futuro. Uma inteligência que, em um instante determinado, deveria conhecer 
todas as forças que põem em movimento a natureza, e todas as posições de todos os 
objetos dos quais a natureza é composta, se esta inteligência fosse ampla o suficiente 
para submeter esses dados à análise, ela englobaria em uma única fórmula os 
movimentos dos maiores corpos do universo e dos menores átomos; para tal inteligência 
nada seria incerto e o próprio futuro, assim como o passado, estariam evidentes a seus 
olhos.38 
 
Essa “inteligência” imaginada por Laplace foi posteriormente chamada de “demônio 
de Laplace”, onde “demônio” deve ser entendido no sentido original grego, como um semi-
deus (daimon) ou super-herói, sem ser necessariamente do mal. 
O demônio de Laplace teria que ter pelo menos quatro propriedades para funcionar: (i) 
Onisciência instantânea: Conheceria o estado de todo o Universo em um instante do tempo, 
com resolução e acurácia perfeitas. (ii) Erudição nomológica: Conheceria com exatidão todas 
as leis que regem o Universo. (iii) Super-computação: Seria capaz de realizar o cálculo mais 
complicado em um intervalo de tempo insignificante. (iv) Não distúrbio: A atuação do 
demônio não afetaria em nada o funcionamento do Universo. 
Com essas quatro propriedades, pode-se definir o determinismo estrito da seguinte 
maneira. Se o demônio de Laplace partir do conhecimento do estado atual do Universo, e fizer 
uma previsão sobre qual será o estado exato do Universo depois de um certo tempo t, então se 
ele acertar 100% de suas previsões, o Universo será determinista, se não, será indeterminista. 
 
 
3. Probabilidade 
 
A discussão sobre se a física quântica é (cripto-)determinista ou indeterminista pode 
ser reformulada com relação a se a noção de “probabilidade” é epistêmica ou ontológica. Se 
afirmo que a probabilidade de obter um resultado em um experimento quântico é ½, isso é 
uma expressão da minha ignorância a respeito de todos os fatores causais envolvidos – 
situação típica da mecânica estatística clássica – ou exprime uma indefinição essencial da 
realidade? No primeiro caso, quando atribuímos uma probabilidade apenas por falta de 
informação, fala-se em uma noção epistêmica de probabilidade, ao passo que em um Universo 
tiquista ou indeterminista tem-se uma probabilidade ontológica (neste caso, nem o demônio 
de Laplace conseguiria prever com certeza). 
Um exemplo disso pode ser tirado da biologia. Uma mulher grávida pode perguntar ao 
médico qual é a probabilidade de seu filho ter olhos claros, e ele poderá responder que é ½. 
Esta é uma probabilidade epistêmica, pois a cor dos olhos já está definida no cromossomo do 
feto, e a probabilidade é atribuída devido à ignorância que se tem a respeito do gene, que na 
realidade já está definido. Por outro lado, esta mesma mulher poderia perguntar qual é a 
probabilidade de um segundo filho, ainda não concebido, ter olhos claros. Se supusermos que 
o futuro é “aberto” (ou seja, a evolução do Universo é indeterminista), então a resposta do 
médico, de que tal chance é ½, seria uma probabilidade ontológica. E se o Universo segue o 
determinismo estrito? 
 
38 LAPLACE, P.-S. (1814), Essai philosophique sur les probabilités, introdução. Traduzido de citação em francês 
obtida na internet. 
 
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos 
 
 36
A noção de probabilidade é fundamental na ciência, mas é curioso que haja diferentes 
interpretações a respeito do que seja probabilidade. Vejamos algumas delas39: 
1) Interpretação clássica. Esta é a visão tradicional, defendida por Laplace (1814), que 
define a probabilidade como a razão entre os casos favoráveis e o total de casos igualmente 
possíveis. O que define os casos igualmente possíveis é um “princípio de indiferença”, que 
afirma que dois casos são igualmente prováveis se não há razão para preferir um em relação ao 
outro. Assim, um dado simétrico teria seis casos equiprováveis. Porém, como caracterizar as 
probabilidades em um dado enviesado? 
2) Interpretação freqüentista. No caso de um dado enviesado, a abordagem freqüentista 
sugere jogá-lo um grande número de vezes e anotar as freqüências relativas em que cada lado 
cai. No limite para um número infinito de jogadas, ter-se-iam as probabilidades de cada caso. 
Este é o procedimento costumeiramente usado nas ciências empíricas, mas em termos rigorosos 
há um problema envolvendo a passagem de uma seqüência finita de observações para um 
seqüência infinita. Desenvolvida primeiramente por John Venn (1866), foi aprofundada por 
Richard von Mises (1928) e Hans Reichenbach (1935). 
3) Interpretação das propensões. Um problema com a interpretação freqüentista é que a 
probabilidade parece não se aplicar para um evento único, mas para uma classe (seqüência) de 
eventos (uma abordagem instrumentalista). Karl Popper (1957) buscou corrigir isso, 
introduzindo a noção de “propensão”, que seria a probabilidade de um evento único (uma visão 
realista). A obtenção da freqüência relativa seria um procedimento para medirmos a propensão, 
cujo valor seria pré-existente às medições. 
4) Interpretação logicista. Segundo esta visão, a probabilidade de uma crença mede o 
grau de confiança que se pode racionalmente ter a respeito dela com base na evidência 
disponível. A probabilidade p(h/e) seria assim uma relação lógica entre proposições: entre uma 
hipótese h e as evidências disponíveis e. Em outras palavras, a probabilidade mede o grau com 
que e implica logicamente h (se a probabilidade for 1, tem-se uma dedução lógica). Essa visão 
foi desenvolvida por John Maynard Keynes (1921) e Rudolf Carnap (1950), entre outros. Seu 
maior problema é a dificuldade de ser aplicado, já que não estipula critérios para determinar 
probabilidades iniciais. 
5) Interpretação subjetivista. Para contornareste último problema, a interpretação 
desenvolvida por Frank Ramsey (1926), Bruno de Finetti (1937) e Leonard Savage (1954) parte 
da admissão de que as probabilidades iniciais, com as quais abordamos problemas reais, são 
sempre subjetivas ou “chutadas”. Mesmo admitindo isso, porém, é possível ir melhorando nossa 
avaliação subjetiva com base em novas evidências, e da aplicação do teorema de Bayes: p(h/e) 
= p(h)·p(e/h)/p(e). A avaliação do grau inicial de crença que uma pessoa possui é geralmente 
traduzida em termos das apostas (com dinheiro) que tal pessoa faria. 
6) Interpretação bayesiana objetivista. Inspirado na abordagem subjetivista, o físico 
Edwin Jaynes (1957) iniciou uma abordagem que procura atribuir o grau inicial de crença com 
base em critérios objetivos, relacionados com a noção de entropia. Deixaremos para discutir 
esta abordagem mais para frente. 
 
 
4. Definições de Aleatoricidade 
 
Como caracterizar o que é genuinamente aleatório? A definição tradicional, provinda da 
física, atribui este termo a processos: por exemplo, lançar uma moeda seria um processo 
 
39 SALMON, W.C. (1966), The Foundations of Scientific Inference, U. Pittsburgh Press, pp. 65-96. Uma versão 
mais resumida aparece em HOME, D. & WHITAKER, M.A.B. (1992), “Ensemble Interpretation of Quantum 
Mechanics: A Modern Perspecive”, Physics Reports 210, 223-317, ver pp. 233-41. 
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos 
 
 37
aleatório, independentemente do resultado da seqüência (ou seja, mesmo que o resultado fosse 
“0101010101”). 
Na década de 1960, alguns matemáticos40 passaram a buscar um critério que 
caracterizasse uma seqüência aleatória, independentemente de como ela tenha sido gerada na 
prática (ou seja, um critério que distinguisse “0100101101” de “1111111111”). Isso foi 
conseguido com a noção de complexidade algorítmica, que é o tamanho do menor programa de 
computador que gera a seqüência. Para uniformizar este critério, este programa deve ser escrito 
na linguagem de um computador abstrato conhecido como “máquina de Turing”. Uma 
seqüência não aleatória, como “1111111111”, seria programada da seguinte maneira: “repita o 
digito ‘1’ até o final da seqüência”, o que tem um tamanho fixo, qualquer que seja o tamanho da 
seqüência. Por outro lado, não há um programa simples para gerar a seqüência de dígitos do 
número π: o menor programa é simplesmente aquele que escreve os dígitos da própria 
seqüência. Em outras palavras, o valor máximo da complexidade algorítmica de uma seqüência 
binária gira em torno do seu próprio tamanho. E é esta a definição de uma seqüência binária 
aleatória: aquela cuja complexidade algorítmica não é menor do que seu comprimento. 
Outra questão é a de gerar seqüências aleatórias para serem usadas em métodos 
estatísticos de modelagem computacional, métodos esses que são conhecidos genericamente 
como simulações de “Monte Carlo”, em alusão ao famoso cassino. Geralmente, tais seqüências 
são geradas a partir de uma computação determinística, e por isso são chamadas “pseudo-
aleatórias”. Uma maneira simples de efetuar uma computação genuinamente aleatória (no 
sentido físico, mencionado no início desta seção) é introduzir no cálculo o horário exato (por 
exemplo, em milissegundos) em que a computação está sendo realizada. 
 
 
5. Caos Determinístico e Sensibilidade a Condições Iniciais 
 
No início da década de 1970, com o uso disseminado de computadores na ciência, 
tornou-se claro uma grande classe de comportamentos que foram denominados “caos 
determinístico”, pois envolvem a não-previsibilidade em sistemas deterministas. Esta situação 
surge para sistemas regidos por equações não-lineares, como as da atração gravitacional entre 
planetas. Henri Poincaré mostrou, em 1890, que o problema gravitacional dos três corpos 
apresenta soluções não-periódicas que apresentam extrema sensibilidade às condições iniciais. 
Em suas palavras: 
 
Uma causa muito pequena que escapa de nossa observação determina um efeito 
considerável que não podemos deixar de ver; dizemos então que o efeito é devido ao 
acaso. Se soubéssemos exatamente as leis da natureza e a situação do universo no 
instante inicial, poderíamos prever exatamente a situação do mesmo universo em um 
momento posterior. Mas, mesmo que fosse o caso de as leis da natureza não serem 
segredo para nós, poderíamos ainda conhecer as condições iniciais somente 
“aproximadamente”. Se isto nos permitisse prever a situação posterior “com a mesma 
aproximação”, isso seria tudo o que queríamos e diríamos que o fenômeno foi previsto, 
isto é, é governado por leis. Mas não é sempre assim: pode acontecer que pequenas 
diferenças nas condições iniciais venham a produzir um erro enorme nos 
acontecimentos posteriores. A previsão se torna impossível e temos um fenômeno 
fortuito. 
 
40 Estes matemáticos foram Ray Solomonoff (1964), Andrey Kolmogorov (1965), Gregory Chaitin (1966) e Per 
Martin-Löf (1966). Algumas referências são: CHAITIN, G.J. (1975), “Randomness and Mthematical Proof”, 
Scientific American 232(5), pp. 47-52; FORD, J. (1983), “How Random is a Coin Toss?”, Physics Today 36(4), 
abril, pp. 40-7. Sobre a comparação com métodos práticos de geração de números pseudo-aleatórios, ver 
COMPAGNER, A. (1991), “Definitions of Randomness”, American Journal of Physics 59, 700-5. 
FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos 
 
 38
Essa sensibilidade às condições iniciais for redescoberta em 1963 pelo meteorologista 
norte-americano Edward Lorenz, ao utilizar um computador para gerar trajetórias para o 
sistema de equações não-lineares que propôs para descrever o movimento da atmosfera. O 
termo “efeito borboleta” foi cunhado para esta sensibilidade, a partir do título de uma palestra 
sua: “O bater de asas de uma borboleta no Brasil pode provocar um tornado no Texas?”. 
 
 
(Texto ainda em construção) 
Filosofia da Física Clássica 
Cap. VII 
 
39 
 Princípios de Mínima Ação 
 
Questão: Qual é o lugar das causas finais na física (e na ciência)? 
 
(Nota: Esta aula não foi ministrada em 2008) 
 
1. Paradigmas e Programas de Pesquisa 
 
Os princípios da mecânica de Newton, e sua teoria gravitacional, foram aos poucos 
sendo aceitos pela grande maioria dos físicos e passou a constituir o que Thomas Kuhn 
chamou de paradigma. Um paradigma – ou “matriz disciplinar”, como Kuhn passaria a 
nomeá-lo – é constituído não só das leis gerais da teoria, mas também de estratégias 
heurísticas (ou seja, de resolução de problemas), métodos de justificação, “exemplares” (ou 
seja, modelos ou exercícios prototípicos, ensinados na formação do cientista), valores 
cognitivos (ou seja, quais as características desejáveis de uma boa teoria científica), teses 
metafísicas e mesmo conhecimento tácito (aquele que não conseguimos exprimir 
lingüisticamente). Dentro de um paradigma, desenvolve-se uma ciência “normal” de 
resolução de charadas, sem que haja, segundo Kuhn, uma busca por novos princípios. Ele 
estudou como um paradigma é substituído por outro – por exemplo, como a física de Newton 
foi substituída pelas teorias da relatividade –, ao que ele denominou revolução científica. Esta 
seria uma transição entre duas maneiras diferentes de ver o mundo, o que faz com que os 
cientistas da velha geração não consigam entender o novo paradigma, fato este que refletiria a 
“incomensurabilidade” entre paradigmas diferentes (Kuhn, Feyerabend). A transição entre 
paradigmas, segundo Kuhn, seria precedida por uma “crise”, em que inúmeras “anomalias” 
(isto é, discrepâncias entre fatos observados e previsões teóricas) nãoseriam resolvidas pelo 
paradigma anterior.41 
A “metateoria” de Kuhn (ou seja, sua teoria de como teorias científicas se 
transformam) não deu ênfase adequada ao fato de que, mesmo em ciências maduras, 
paradigmas diferentes podem coexistir e competir. Este aspecto foi levado em conta por Imre 
Lakatos42, em sua metodologia dos programas de pesquisa científica. Para ele, a unidade do 
desenvolvimento científico não seria uma teoria científica isolada, mas sim uma seqüência de 
teorias, formando um programa de pesquisa. As teorias que se sucedem em um programa 
manteriam, sem modificação, um conjunto de teses centrais que Lakatos chamou de “núcleo 
duro”. Sempre que alguma nova previsão teórica é falseada pela experiência, modificações 
são introduzidas em teses periféricas, que constituem o “cinto de proteção” do núcleo. A 
maneira de empreender esses ajustes ao cinto de proteção, e de fazer novas previsões, é ditada 
pela “heurística” do programa. Um programa de pesquisa pode ser progressivo, caso em que é 
racional para o cientista continuar trabalhando nele. Para ser progressivo, segundo Lakatos, o 
programa tem que fazer novas previsões, mas essas previsões não precisam ser sempre 
corroboradas (confirmadas) pela experiência – basta que o sejam apenas de vez em quando, 
de maneira “intermitente”. No calor da hora, nunca podemos ter certeza que um programa de 
pesquisa foi refutado; só podemos dizer que houve um “experimento crucial” muito tempo 
depois: a racionalidade científica não é instantânea. 
 
41 KUHN, T. (1975), A Estrutura das Revoluções Científicas, trad. B.V. Boeira & N. Boeira, Perspectiva, São 
Paulo (orig. 1962). FEYERABEND, P. (1977), Contra o Método, Francisco Alves, São Paulo (orig. 1975). 
 
42 LAKATOS, I. (1979), “O Falseamento e a Metodologia dos Programas de Pesquisa Científica”, in LAKATOS, I. 
& MUSGRAVE, A. (orgs.), A Crítica e o Desenvolvimento do Conhecimento, Cultrix, São Paulo, pp. 109-243 
(orig. 1970). 
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação 
 
 40
Larry Laudan levou adiante a noção de programa de pesquisa, mas salientou que teses 
do núcleo duro podem ser abandonadas sem que se abandone a tradição do programa. Preferiu 
o termo “tradição de pesquisa”, que envolve uma seqüência de teorias que se assemelham e se 
sucedem, de tal forma que os cientistas participantes tenham um compromisso com pelo 
menos uma parte das teses centrais de um subconjunto das teorias anteriores de sua tradição. 
Um exemplo seriam as tradições de pesquisa sobre a natureza da luz: os programas 
corpuscular e o ondulatório competiram desde a época de Huygens e Newton até meados do 
séc. XIX, quando o ondulatório se viu vencedor, mas depois, com a física quântica, houve 
uma espécie de síntese entre os dois. 
A relação multifacetada entre teoria, métodos e valores foi analisada por Laudan em 
seu “modelo reticulado” de racionalidade científica. Segundo esta abordagem, cada um desses 
três aspectos da pesquisa científica pode afetar a evolução histórica do outro, dentro de uma 
tradição de pesquisa.43 
 
 
2. Programas de Pesquisa Rivais na Mecânica Clássica 
 
Em 1687, Isaac Newton formulou a abordagem à mecânica baseado em suas três leis 
(inércia, força e ação & reação) e, supondo sua lei da gravitação universal, a aplicou com 
muito sucesso para a descrição dos movimentos dos planetas do sistema solar. 
A partir dessa mesma época, e culminando com seu Specimen dynamicum (1695), 
Gottfried Leibniz estava definido a “força viva” (energia cinética, mv2) e a “força morta” 
(energia potencial, na queda livre proporcional à altura da queda). Em processos mecânicos 
em que se despreza a resistência do meio e não há obstáculos inelásticos, como um pêndulo, 
haveria uma conservação da soma das forças viva e morta (esta noção já fora enunciada por 
Huygens, em 1673). Num choque inelástico, vislumbrou que a força viva se transforma em 
uma força morta ligada à deformação dos corpos. 
Leibniz argumentou que o princípio de conservação de quantidade de movimento, de 
Descartes, era errôneo. Depois da morte de Leibniz, seguiu-se um longo debate a respeito da 
sua teoria das forças vivas. Em 1728, Jean-Jacques de Mairan corrigiu o enunciado do 
princípio cartesiano, levando em conta as direções das velocidades (ou seja, o caráter vetorial 
da velocidade). A aceitação geral do princípio de força viva só viria a partir de 1743, com o 
Traité de Dynamique do francês Jean d’Alembert, mas já antes disso os suiços Johann 
Bernoulli e seu filho Daniel estavam resolvendo diversos problemas de mecânica utilizando 
os dois princípios de conservação.44 
Quanto à abordagem newtoniana, sua sistematização foi empreendida pelo grande 
matemático suiço Leonhard Euler, a partir de 1726. Em 1736, com sua Mechanica, introduz 
massas pontuais, acelerações contínuas e considerações vetoriais, demonstrando de maneira 
rigorosa vários resultados e resolvendo diversos problemas. 
Configurava-se, a esta altura, o ramo da matemática aplicada conhecido como 
mecânica racional, vista como uma geometria de corpos em movimento. Posteriormente, 
discutir-se-ia se as leis da mecânica seriam necessárias ou “contingentes” (ou seja, não-
necessárias). Euler e d’Alembert defenderiam sua necessidade, ao passo que Lazare Carnot 
(1783) defenderia seu caráter empírico (portanto contingente). 
 
43 LAUDAN, L. (1977), Progress and its Problems, Berkeley U. Press (tradução em preparação pela Discurso 
Editorial, São Paulo). O modelo reticulado está exposto em: LAUDAN, L. (1984), Science and Values, U. 
California Press, Berkeley. 
 
44 Seguimos TRUESDELL (1968), op. cit. (nota 26), e DUGAS, R. (1988), A History of Mechanics, Dover, Nova 
Iorque (orig. em francês, 1955), pp. 219-53. 
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação 
 
 41
Paralelamente a essas linhas de pesquisa, há o desenvolvimento da dinâmica dos 
corpos rígidos. Em seu Horologium oscillatorium (1673), Christiaan Huygens havia mostrado 
como calcular o “centro de oscilação” de um pêndulo físico, ou seja, o pêndulo simples com o 
mesmo período de oscilação. Houve muita discussão sobre esse trabalho, o que levou Jakob 
Bernoulli, irmão mais velho de Johann, a publicar em 1703 um trabalho em que refaz a 
demonstração de Huygens a partir das propriedades da alavanca. Isso seria uma antecipação 
do princípio de trabalho virtual, de d’Alembert. 
Jakob Bernoulli também inaugurou a teoria dos corpos elásticos (1705). A teoria das 
vibrações se inicia com Taylor (1713) e é desenvolvida por Euler, Johann e Daniel Bernoulli. 
Este último desenvolve também a hidrodinâmica (1733-38). 
O Traité de Dynamique (1743) de d’Alembert trata do problema dos corpos rígidos 
sem utilizar o conceito de força newtoniano, mas sim o “princípio de trabalho virtual”, que é 
uma lei de equilíbrio. Tal princípio está intimamente relacionado com o de conservação de 
força viva, mas d’Alembert toma o princípio de trabalho virtual como fundamental (não o de 
força viva), juntamente com o princípio de inércia e o princípio de composição de 
movimentos (que permite decompor um movimento de maneira conveniente para a aplicação 
do trabalho virtual). 
Para entender o princípio de trabalho virtual, pode-se consultar a exposição didática de 
Feynman45. Considere a situação de equilíbrio de dois corpos ligados, como o da Fig. VII.1a. 
Numa situação de reversibilidade (sem atrito), o equilíbrio pode ser estabelecido como na Fig. 
VII.1b. Nesta transição, o corpo B subiu uma altura de ∆hB = 3 m, ao passo que a descida de 
A é expressa pela variação ∆hA = – 5 m. Assim, a massa desconhecida mA pode sercalculada 
pela conservação de energia potencial gravitacional (a energia cinética não se altera), o que 
corresponde a uma igualdade nos trabalhos realizados (a menos do sinal): mA·∆hA + mB·∆hB = 
0. Numa situação mais complicada, como a da Fig. VII.2, o valor do peso W que equilibra o 
conjunto pode ser calculado considerando-se um pequeno deslocamento vertical neste peso, o 
que alterará as alturas das outras massas para valores facilmente calculáveis. Aplica-se então a 
conservação dos trabalhos e encontra-se o valor de W. Como esse trabalho não ocorre de fato, 
mas é apenas um artifício para o cálculo, recebe o nome de “trabalho virtual”. 
 
 
 
 
Figura VII.1: Pesos em equilíbrio, 
sem atrito, em um plano inclinado. 
 
 
 
 
Figura VII.2: Situação de equilíbrio para 
aplicação do princípio de trabalho virtual. 
 
 
D’Alembert fez questão de não exprimir as “causas motivas” dos movimentos, ou seja, 
as forças, que considerava “obscuras e metafísicas” (ver DUGAS, p. 247). A partir de seu 
princípio, aplicado a sistemas com restrições entre as partes, derivou a conservação de força 
viva. Esta estratégia foi posteriormente generalizada com sucesso pelo italiano de 
 
45 FEYNMAN, R.P.; LEIGHTON, R.B. & SANDS, M. (1963), The Feynman Lectures on Physics, vol. I, Addison-
Wesley, Reading, pp. 4-1 a 4-5. As Figs. VII.1 e VII.2 são retiradas desta referência. 
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação 
 
 42
descendência francesa Louis de Lagrange, em sua Mécanique Analytique (1788), onde 
também não se fala em forças (no sentido de Newton e especialmente Euler). 
Euler, por seu turno, foi bem sucedido na extensão dos princípios newtonianos para 
diversos sistemas, inclusive corpos rígidos, que envolve um princípio adicional, a lei do 
torque, derivada em 1776. Argumenta-se que este princípio é independente das três leis de 
Newton, para casos gerais. 
Delineam-se, assim, diferentes programas de pesquisa na mecânica no séc. XVIII, e 
uma tendência de unificação entre eles. O programa cartesiano acabou sendo mesclado com o 
leibniziano, e ambos foram incorporados ao programa d’alembertiano, que resultou na 
mecânica lagrangiana. Paralelamente a isso, o programa de Newton e Euler acabou se 
firmando como mais geral, aplicável em maior número de casos, fundamentado na noção de 
força. A controvérsia a respeito do estatuto do conceito de força adentraria o séc. XIX, como 
veremos no próximo capítulo, mas as abordagens rivais de Euler e d’Alembert acabaram 
sendo vistas como duas abordagens diferentes para uma mesma ciência da mecânica. 
 
 
3. Princípio de Mínima Ação 
 
No esboço histórico da mecânica apresentada acima, deixamos de lado uma 
abordagem adicional, inaugurada por Pierre de Maupertuis em 1744, o princípio de mínima 
ação, e que seria posteriormente assimilado na mecânica analítica de Lagrange. Este princípio 
é de interesse pois ele pretende implementar a tese filosófica de que a natureza age de maneira 
a minimizar uma certa grandeza, como se ela tivesse um objetivo ou uma meta – um telos, em 
grego. Nas palavras de Maupertuis: “a Natureza, na produção de seus efeitos, sempre age das 
maneiras mais simples”.46 Tal tese levou a uma grande discussão porque ela sugere que a 
física pode ser construída de maneira “teleológica”, ou seja, envolvendo causas finais (que 
estariam no futuro ou estariam indicando um estado no futuro), e não apenas causas eficientes 
(que vêm sempre antes dos efeitos). 
A física de Aristóteles é um exemplo de teleologia. Para ele, os corpos graves têm um 
“lugar natural”, que é o centro do Universo, e por isso eles caem quando soltos (ver seção 
III.1). É como se eles tivessem uma meta (telos), um propósito. As explicações do 
naturalismo animista (seção III.3) também são teleológicas. 
A idéia de que a natureza segue caminhos simples tem vários precursores, mas na 
física o primeiro exemplo mais detalhado é dado por Héron de Alexandria, em 125 a.C. Ele 
argumentou que na reflexão da luz por um espelho, o caminho percorrido é o de menor 
comprimento. Considere a Fig. VII.3, no qual a luz sai de uma vela em A, reflete no espelho 
em C, e ruma para o olho em B. Este é o caminho mais curto saindo de A, refletindo no 
espelho e incidindo em B. Para mostrar isso, considere um outro ponto de reflexão, D. 
Ligando o ponto E, que é a imagem de A, aos pontos C e D, temos que os seguintes 
segmentos têm o mesmo comprimento: AC = EC, e AD = ED. Ora, mas está claro que a linha 
reta ECB é mais curta do que o caminho EDB (desigualdade do triângulo). Portanto, o 
caminho ACB é mais curto do que qualquer outro caminho ADB. 
Em 1662, Pierre de Fermat adaptou a estratégia de Héron para o caso da refração da 
luz, só que agora considerando que a luz toma o caminho que leva menos tempo. Ele queria 
mostrar que a fórmula da refração (lei de Snell) derivada por Descartes era falsa, e para isso 
supôs que a luz se propaga com uma velocidade menor em meios mais densos (o que é 
verdade, mas ia contra ao que achavam Descartes e Newton). Ao fazer suas contas, descobriu 
que o caminho de menor tempo era justamente aquele que satisfazia a lei de Snell-Descartes! 
 
46 DUGAS (1988), op. cit. (nota 44), pp. 254-75. Ver também YOURGRAU, W. & MANDELSTAM, S. (1968), 
Variational Principles in Dynamics and Quantum Theory, Dover, Nova Iorque. 
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação 
 
 43
Obteve assim uma “lei de mínimo” para a propagação da luz, mas seu resultado só seria aceito 
após a metade do séc. XIX. 
 
 
 
 
Figura VII.3. Diagrama ilustrando a 
demonstração de Héron de que a luz, na 
reflexão, percorre o caminho de menor 
distância. 
 
 
 
Em 1744, Maupertuis buscou corrigir o trabalho de Fermat, e chegou à conclusão que 
o que seria minimizado na propagação da luz não seria o tempo, mas a ação S, que é o 
produto da distância r percorrida e do momento linear mv: S = ∫ m v(r) dr . Já em 1740 
Maupertuis havia usado um princípio de máximo ou de mínimo para uma situação de 
equilíbrio 
Em 1747, mostrou que é possível aplicar este resultado para o choque de dois corpos, 
quer no caso de colisões elásticas quanto inelásticas, o que tornaria o princípio mais geral do 
que a conservação de força viva (que só valeria no caso de choques elásticos). A partir daí, 
generalizou o princípio de mínima ação para toda a mecânica: “Quando alguma mudança 
ocorre na natureza, a quantidade de ação necessária para essa mudança é a menor possível” 
(DUGAS, p. 265). Maupertuis via em seu princípio uma expressão da perfeição de Deus, que 
agiria por meio de leis simples e com um gasto mínimo de ação. 
Em 1751, o holandês Samuel Koenig apresentou uma carta em que Leibniz teria 
anunciado em 1707 que “nas variações dos movimentos, [a ação] usualmente se torna mínima 
ou máxima”. Ele usou o termo “ação”, definindo-o também como o produto do tempo e da 
força viva (energia cinética). Iniciou-se então uma grande polêmica sobre a prioridade e os 
méritos de Maupertuis, mas a tal carta de Leibniz nunca foi encontrada (DUGAS, pp. 270-3). 
Independentemente de Maupertuis, seu amigo Euler publicou em 1744 uma versão 
mais particular, porém matematicamente mais precisa, do princípio de mínima ação. Segundo 
seu teorema, quando uma partícula viaja entre dois pontos fixos, ela toma o caminho para o 
qual ∫ v(r) dr é mínimo. Seu resultado é baseado no cálculo de variações, e na verdade o que 
ele demonstra é que a integral da ação é um mínimo, um máximo ou mesmo um ponto 
intermediário de derivada nula. A rigor, então, o princípio de Euler é um enunciado relativoàs 
trajetórias “virtuais” (que não satisfazem as leis de Newton) que são vizinhas à trajetória real 
da partícula. “A diferença entre as integrais ∫ v dr tomadas ao longo da trajetória real e dos 
caminhos virtuais vizinhos, entre os dois pontos, é uma grandeza infinitesimal de segunda 
ordem; os caminhos virtuais considerados são aqueles com velocidades que resultem na 
mesma energia que aquela suposta para a partícula” (YOURGRAU & MANDELSTAM, p. 25). 
O princípio variacional foi derivado de maneira mais geral por Lagrange, em 1760, 
para n partículas, mostrando que as leis de Newton são equivalentes ao princípio de mínima 
ação em conjunção com a lei de conservação de energia. A conservação de energia entra ao se 
considerarem caminhos virtuais de mesma energia. 
Com o princípio de trabalhos virtuais, Lagrange abriu caminho para sua Mécanique 
Analytique (1788), que forneceu um método prático para calcular os movimentos de corpos 
rígidos sujeitos a vínculos, problema cuja resolução pelos métodos de Newton e Euler em 
geral se torna onerosa. Ele introduziu coordenadas generalizadas e obteve equações cuja 
forma é invariante ante troca de coordenadas. Definindo a “lagrangiana” como a diferença 
FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação 
 
 44
entre a energia cinética T e potencial V, escrita em função das coordenadas generalizadas qi e 
q& := dqi/dt, sua equação é: 
0=∂
∂−



∂
∂
ii q
L
q
L
dt
d
& . 
 
As formulações do princípio variacional de Euler e Lagrange estão restringidas a 
caminhos virtuais de mesma energia. Essa restrição foi removida em 1834 pelo irlandês 
William Hamilton, que considerou, porém, caminhos virtuais que terminam no mesmo ponto 
e no mesmo tempo. Chegou assim ao chamado “princípio de Hamilton”: δ ∫ L dt = 0. “Um 
sistema muda de uma configuração para outra de tal maneira que a variação da integral ∫ Ldt 
entre o caminho real e um vizinho, terminando no mesmo ponto do espaço e do tempo, é 
nula” (YOURGRAU & MANDELSTAM, p. 47). A partir deste princípio variacional, obtêm-se as 
equações de Lagrange. 
Uma formulação em que o tempo é eliminando, resultando em uma “geometrização” 
do princípio de extremo, foi feita pelo alemão Carl Jacobi em 1843. Anunciou então que “em 
sua forma verdadeira [é difícil] atribuir uma causa metafísica a este princípio” (DUGAS, pp. 
407-8). 
Princípios variacionais foram usados na velha teoria quântica e na derivação da 
equação de Schrödinger, da mecânica quântica, e nos trabalhos de Schwinger e Feynman47 na 
teoria quântica de campos relativísticos. 
 
 
4. Causas Finais na Física 
 
O princípio de mínima ação foi visto, por Maupertuis e Euler, como um princípio 
metafísico exprimindo a perfeição de Deus ou uma tendência da natureza de escolher 
caminhos mais simples. Essa noção teleológica passou a ser atacada posteriormente, por 
exemplo por d’Alembert (1758), que criticou “o princípio das causas finais” (DUGAS, p. 269), 
e foi abandonada pela maioria dos físicos, que costuma não interpretar os princípios de 
extremo de maneira teleológica. 
Mesmo assim, a linguagem teleológica está presente em algumas explicações físicas 
corriqueiras. Um sistema tende para o estado que minimiza sua energia, ou para um que 
maximiza sua entropia. Explicações mecânicas buscam dar conta desses enunciados 
teleológicos por meio apenas de causas eficientes, como será exemplificado mais à frente com 
relação à entropia. 
A questão da teleologia na biologia é bem mais controversa. Pode-se interpretar o 
mecanismo da seleção natural como uma explicação causal-eficiente para evolução dos seres 
vivos, mas autores como Ernst Mayr defendem que uma “teleonomia” estaria associada ao 
código genético. 
Na cosmologia, o “princípio antrópico” pode ser interpretado como uma tese finalista, 
ao afirmar que o nosso Universo contém as condições ideais para o surgimento da vida. No 
entanto, em sua versão mais fraca, tal princípio é perfeitamente consistente com a causação 
eficiente. 
 
47 Uma discussão interessante sobre o princípio de Fermat é feito por FEYNMAN et al. (1962), op. cit. (nota 45), 
pp. 26-7 a 26-8, em que ele apresenta de maneira didática sua visão conhecida como “soma sobre histórias”. 
Filosofia da Física Clássica 
Cap. VIII 
 
45 
 Axiomatização da Mecânica Clássica 
 
Questão: Por que e como axiomatizar as teorias físicas ? 
 
(Nota: Esta aula não foi ministrada em 2008) 
 
1. Contexto da Descoberta e Contexto da Justificação 
 
Ao se discutir a metodologia da ciência, é importante traçar uma distinção entre dois 
contextos: o da descoberta e o da justificação.48 A maneira como uma descoberta científica é 
feita envolve diversos fatores, incluindo aspectos psicológicos, sociais e culturais. O químico 
alemão August Kekulé (1865), por exemplo, chegou à idéia de que o benzeno é um anel de 
átomos de carbono após ter sonhado com uma cobra mordendo o rabo. No entanto, ele não 
incluiria esta informação ao escrever seu artigo para publicação. No contexto da justificação 
de uma teoria, procura-se partir de bases firmes e deduzir conseqüências de maneira rigorosa 
e de acordo com os cânones da metodologia científica. No contexto da descoberta, por outro 
lado, os caminhos para se adquirir conhecimento são os mais variados. 
Ao se discutir uma questão de filosofia da ciência, é preciso especificar em qual 
contexto se está trabalhando. Por exemplo, qual a importância da indução na ciência? A 
“indução por enumeração” consiste de se observar uma regularidade em um número finito de 
casos, e daí generalizar para todos os casos, em uma “lei empírica”. No contexto da 
descoberta, tal método é muitas vezes usado, especialmente nos estágios iniciais de uma área 
científica. Os positivistas tendem a considerar que a indução também é uma maneira de 
justificar a aceitação de uma lei empírica. No entanto, autores como Karl Popper discordam 
que a indução possa servir de justificação, sem negar, porém, que ela possa ter um papel na 
geração de hipóteses (contexto da descoberta). Para Popper, o método privilegiado para se 
justificar uma teoria é o método hipotético-dedutivo, que consiste em formular uma hipótese e 
deduzir suas conseqüências empíricas (observacionais): se houver concordância entre a 
previsão e o que é de fato observado, a hipótese é “corroborada” (verificada); se não, ela é 
“falseada” (ou seja, a hipótese ou alguma outra suposição usada na dedução deve ser 
abandonada). 
Neste capítulo, examinaremos as tentativas de fundamentar teorias científicas em 
bases rigorosas, por meio de sua axiomatização. Tais tentativas estão claramente no contexto 
da justificação. No cap. X, estudaremos o contexto da descoberta da teoria do 
eletromagnetismo por Maxwell, onde as analogias desempenham papel importante. 
 
 
2. Discussão dos Princípios Newtonianos no Séc. XIX 
 
Em meados do séc. XIX, concomitantemente com a ascensão da Termodinâmica e do 
princípio de conservação de energia, vários físicos começaram a questionar os fundamentos 
da mecânica newtoniana. Na França, Barré de Saint-Vernant (1797-1886), em 1851, adotou 
uma perspectiva atomista para fundar a mecânica apenas nas velocidades e acelerações entre 
pontos, derivando definições de “massa” e “força”. Considerava que as forças eram “agências 
de uma natureza oculta ou metafísica”, e não as relacionou com as causas eficientes dos 
 
48 Os termos “contexto da descoberta” e “contexto da justificação” foram cunhados por Hans Reichenbach 
(1938), mas a distinção é mais antiga. Immanuel Kant (1781), por exemplo, se referia a “questões de fato” (quid 
facti) e “questões de direito” (quid juris). John Herschel(1830) também é citado como um autor que distinguiu 
claramente entre “como alcançamos conhecimento” e “a verificação das induções”. 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 46
movimentos.49 Por contraste, outro francês, Frédéric Reech (1852), seguiu a abordagem de 
Euler ao colocar a força como ponto de partida da mecânica. Comparou uma força a um fio 
tensionado que estaria ligado à partícula sofrendo a ação da força. A força poderia ser 
avaliada cortando-se o fio e observando o movimento subseqüente da partícula. Trabalhando 
com diferenças de acelerações, buscou eliminar a descrição em termos de um referencial 
privilegiado. Sua “escola do fio” foi levada adiante por Jules Andrade (1898). 
Um quarto de século após essas primeiras formulações, em 1876, o alemão Gustav 
Kirchhoff (1824-87) se propôs a construir a mecânica de maneira lógica, a partir das noções de 
espaço, tempo e matéria, e derivando destas os conceitos de força e massa. Uma abordagem 
semelhante foi publicada independentemente, em 1883, pelo austríaco Ernst Mach (de quem já 
falamos na seção V.4), em seu livro A Ciência da Mecânica. Mach considerou que os princípios 
da mecânica precisariam ser fundados na experiência, e não na especulação teórica: seu livro 
seria “um trabalho de explicação crítica animado por um espírito anti-metafísico”. 
Fez uso de um “princípio de simetria” para definir operacionalmente (por meio de 
operações experimentais) o conceito de massa (inercial). Para isso, considerou que dois 
corpos idênticos A e B comunicam acelerações iguais e contrárias, aA, aB, ao longo da linha 
que os une (por exemplo, por meio de uma mola). Tomando A como tendo massa unitária 
mA=1, a massa de B seria tal que mB·aB = –mA·aA. Eliminou assim o apelo de Newton à noção 
intuitiva de “quantidade de matéria” (ver seção IV.2), e declarou que “nesta concepção de 
massa não há teoria”. Tendo assim definido “massa” em termos operacionais, pôde 
caracterizar a 2a lei de Newton como sendo uma definição50 de força: F := ma , derivada a 
partir de termos observacionais. Sua estratégia foi apoiada por positivistas como Karl Pearson 
(1892). 
Heinrich Hertz (1857-1894) também se dedicou ao problema, logo antes de sua morte 
prematura, publicando Os Princípios da Mecânica apresentados em uma Nova Forma (1894). 
Seguindo seu professor Kirchhoff, buscou construir a Mecânica a partir dos conceitos de 
tempo, espaço e massa. Comentou a abordagem tradicional, baseada nos conceitos de espaço, 
massa, força e movimento, que estão ligadas às leis de Newton e ao princípio de d’Alembert 
(seção VII.2), argumentando que ela teria imprecisões lógicas. Uma dessas imprecisões seria 
que a noção de força em geral é tomada como a causa do movimento, mas, no caso de forças 
fictícias como a força centrífuga, ela surge como efeito do movimento. Criticou também a 
profusão do uso do conceito de força, por exemplo na Mecânica Celeste, sem que isso 
correspondesse a algo observável: só observamos as posições dos astros em diferentes 
instantes (comparou o uso de forças ao uso de epiciclos na Astronomia antiga). 
Parte então da abordagem de Kirchhoff, mas faz a seguinte constatação, característica de 
uma atitude realista. “Se quisermos obter um quadro do mundo que é fechado em si mesmo, no 
que tange a leis, devemos conjeturar a existência de outros seres invisíveis por trás das coisas 
que vemos, e buscar os atores escondidos por detrás das barreiras de nossos sentidos”. Os 
conceitos de força e de energia seriam idealizações desse tipo, mas Hertz preferiu postular a 
existência de “variáveis ocultas” que nada mais seriam do que massas em movimento, que se 
chocariam com os corpos visíveis de maneira a dar conta do que observamos. Teríamos assim 
um retrato mecanicista, semelhante ao de Descartes ou Le Sage (seções III.6 e 7). Hertz, porém, 
não estava preocupado em fornecer modelos particulares para diferentes fenômenos, como a 
gravitação, mas em formular uma descrição geral que fosse consistente com os princípios da 
Mecânica Clássica. A lei fundamental da Mecânica seria uma lei de mínimo (seção VII.3): para 
sistemas isolados, o sistema segue a trajetória de curvatura mínima, com uma velocidade 
 
49 Nesta seção, seguimos DUGAS (1988), op. cit. (nota 44), pp. 436-51. 
 
50 Adotamos a convenção de “dois-pontos-igualdade”, adotada por alguns lógicos, para exprimir uma definição: 
“:=”. Outras signos usados para “definição” são: “≡” ou “=df.”. 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 47
constante. Tal lei se reduziria para as leis conhecidas da Mecânica, como o princípio de mínima 
restrição de Gauss, que era uma formulação alternativa do princípio de d’Alembert. 
O último autor que consideraremos neste resumo é o francês Henri Poincaré (1854-
1912), que em sua Ciência e Hipótese (1902) levou adiante o projeto de mostrar em que 
medida as teorias físicas envolvem convenções. Uma convenção seria uma tese, a respeito do 
mundo, que poderia ser diferente, mas que é adotada porque permite a construção de uma 
teoria econômica (simples) e eficiente em suas previsões. Nossa tendência é supor que o 
princípio de inércia (1a lei de Newton), por exemplo, reflete um fato fundamental do mundo 
ou espelha diretamente a uma realidade. No entanto, argumenta Poincaré, não é possível 
verificar experimentalmente este princípio. Podemos tentar fazê-lo lançando um corpo em 
uma região na qual não há forças resultantes, mas, neste caso, como sabemos que não há 
forças atuando? Um critério é verificar se um corpo de prova não sofre acelerações, mas neste 
caso estaríamos usando implicitamente o princípio de inércia para constatar que numa região 
não há forças, de modo a testar o próprio princípio de inércia! Seria um círculo vicioso!51 
Poincaré considerava que vários outros princípios seriam convencionais: a 
simultaneidade do tempo, o espaço absoluto, a suposição que o espaço seria euclidiano, a lei 
de ação e reação, e o princípio de conservação de energia. (Em um capítulo posterior 
examinaremos o argumento de Poincaré a respeito deste último princípio.) A 2a lei de Newton 
seria uma convenção, mas mesmo assim Poincaré associava ao conceito de força um conteúdo 
intuitivo (associado à noção de esforço), ao contrário do que fizera Kirchhoff. Considerava 
assim que a abordagem de Kirchhoff era apenas uma convenção possível, assim como a 
adotada pela “escola do fio” que mencionamos anteriormente. Quanto ao papel da 
experimentação, considerava que ela poderia verificar a teoria física de maneira apenas 
aproximada (dado que não existiria um sistema perfeitamente isolado); ou seja, as convenções 
da física seriam parcialmente justificadas pela experimentação. 
 
 
3. Críticas ao Método de Mach 
 
Críticas à proposta de Mach começaram a surgir de maneira mais detalhada a partir do 
trabalho de dois matemáticos ingleses, L.N.G. Filon e C.G. Pendse, na década de 1930. Filon 
publicou em 1926 um estudo sobre as bases da mecânica racional em que tinha simpatia pela 
abordagem de Mach. Em torno de 1932, porém, passou a questionar a abordagem machiana 
por razões semelhantes às consideradas por Poincaré (a quem não cita): nunca podemos ter 
certeza que um corpo não está sob o efeito de uma força externa, nem que dois corpos 
interagentes (segundo a receita de Mach) também não estejam. As três leis de Newton não 
seriam leis experimentais, pois não podem ser provadas nem refutadas experimentalmente. 
Filon concluiu que a única maneira correta de definir a massa de um corpo seria através de 
seu peso, método este proposto pelo próprio Newton.52 
Em 1937, C.G. Pendse53 mostrou que o método operacional de Mach, de observar as 
aceleraçõesentre dois corpos para inferir os valores das massas, falhava para muitos corpos. 
Sem levar em conta a 3a lei de Newton, se as acelerações fossem medidas apenas uma vez, o 
 
51 Esta e outras discussões são tratadas em CHIBENI, S.S. (1999), “A Fundamentação Empírica das Leis 
Dinâmicas de Newton”, Revista Brasileira de Ensino de Física 21, 1-13. 
 
52 FILON, L.N.G. (1938), “Mass and Force in Newtonian Mechanics”, Mathematical Gazette 22, 9-16. 
 
53 PENDSE, C.G. (1937), “A Note on the Definition and Determination of Mass in Newtonian Physics”, 
Philosophical Magazine 24, 1012-22. PENDSE, C.G. (1939), “A Further Note on the Definition and 
Determination of Mass in Newtonian Mechanics”, Philosophical Magazine 27, 51-61. PENDSE, C.G. (1940), “On 
Mass and Force in Newtonian Mechanics”, Philosophical Magazine 29, 477-84. 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 48
método falhava para mais do que 4 corpos, pois o número de incógnitas (forças entre pares de 
partículas, mais as massas) tornava-se maior do que o número de equações. Mesmo levando 
em conta a 3a lei de Newton, uma única observação de aceleração, para corpos não 
coplanares, não consegue determinar as massas relativas, de maneira exata, para mais do que 
5 corpos. 
Pendse calculou também o que aconteceria se se pudesse medir as acelerações em 
vários instantes diferentes. Inicialmente, concluiu que para acima de 7 corpos o método 
falharia, mas em um artigo posterior concluiu que seria possível derivar as massas relativas 
em alguns casos, com um número suficientemente grande de medições, mas não as forças! 
O método de Mach funcionaria, naturalmente, se se pudesse pegar cada corpo 
individualmente, e comparar sua aceleração com a de um corpo de referência, e pô-lo de volta 
no sistema, supondo que sua massa não varia neste procedimento. 
Na prática, é claro, tal procedimento não é necessário para corpos de nosso cotidiano, 
pois confiamos em balanças. Para se determinar as massas dos planetas, não podemos retirar 
os corpos para pesagem, mas o fato de o Sol ser muito mais massivo do que os planetas 
facilita os cálculos a partir das acelerações. Já no caso de partículas elementares, as massas 
são medidas por diversos procedimentos, muitos dos quais dependem da aceitação de uma 
teoria física. 
Concluindo esta seção, podemos dizer que métodos operacionais parecem viáveis na 
física, mas na prática científica utilizam-se de bom grado métodos nos quais conceitos 
teóricos são introduzidos de maneira primitiva. 
 
 
4. Axiomatização de Teorias Matemáticas 
 
Uma axiomatização consiste em uma formulação de uma teoria que se inspira na 
sistematização que Euclides deu para a geometria (ver seção I.3). Partem-se de axiomas, 
demonstram-se teoremas e resolvem-se problemas de construção. 
No séc. XIX, o quinto postulado de Euclides – que diz que dados uma reta e um ponto 
fora dela, em um plano, então pelo ponto passa apenas uma paralela à reta – passou a ser 
modificado, resultando nas geometrias não-euclidianas. Com isso, começou a ficar claro que o 
importante em uma axiomatização na matemática não é nossa opinião sobre a veracidade dos 
axiomas, mas a consistência interna do sistema axiomático. Essa concepção foi bastante 
divulgada no começo do séc. XX pelo alemão David Hilbert, que sublinhou que uma 
axiomatização deve deixar claro quais são as noções primitivas (não-definidas) do sistema. 
No caso da Geometria Euclidiana, as noções de “ponto” e “reta” são primitivas: não devem 
ser definidas a partir de outros conceitos e nem precisam satisfazer nossa intuição a seu 
respeito. O significado dessas noções é parcialmente estabelecido pelos cinco axiomas de 
Euclides. No entanto, diferentes “interpretações” podem satisfazer o sistema axiomático, 
sendo chamadas de “modelos”. Por exemplo, o modelo representado pictoricamente na Fig. 
VIII.1 satisfaz o seguinte conjunto de axiomas, usados por Hilbert54: 
 
 A1: Para quaisquer duas retas, há no máximo um ponto pertencente às duas. 
 A2: Para quaisquer dois pontos, há exatamente uma reta que as contém. 
 A3: Em cada reta há pelo menos dois pontos. 
 
A figura pode causar estranheza, porque a reta BDF não se parece com as outras. 
Mesmo assim, representa um modelo do sistema de axiomas {A1,A2,A3}. 
 
54 Exemplo apresentado por VAN FRAASSEN, B. (2007), A Imagem Científica, trad. L.H.A. Dutra, Ed. Unesp/ 
Discurso, São Paulo, pp. 84-6 (orig. em inglês: 1980). 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 49
 
 
Figura VIII.1: Geometria dos sete pontos e sete retas, que é um modelo dos axiomas A1, A2 e A3. 
 
 
 
5. Axiomatização Dedutivista da Mecânica Clássica 
 
A formulação que Newton deu para a Mecânica pode ser considerada uma 
“axiomatização informal”, pois partiu de algumas definições e das três leis fundamentais da 
Mecânica, além da lei de atração gravitacional, e deduziu diversos teoremas. No entanto, a 
sua axiomatização não satisfaz os critérios de rigor da lógica moderna, sendo por isso 
considerada “informal”. 
Em 1953, J.C.C. McKinsey, A.C. Sugar & Patrick Suppes publicaram uma 
axiomatização da mecânica clássica de partículas que se propunha a cumprir os padrões de 
rigor estipulados por Hilbert. Em especial, tomaram cuidado em deixar claro quais são as 
noções primitivas da teoria mecânica. Escolheram não introduzir um axioma de 
impenetrabilidade entre partículas, e pressupuseram também diversos resultados da 
matemática clássica. 
As noções primitivas introduzidas foram P, T, m, s e f. O que seria P? Não 
diretamente uma entidade física, mas um conjunto! P e T são conjuntos, m uma função unária, 
s uma função binária e f uma função ternária. A axiomatização de McKinsey et al. é uma 
teoria matemática, baseada em conjuntos e em funções, que por sua vez são redutíveis a 
conjuntos. Assim, Suppes cunhou o slogan que “axiomatizar uma teoria é definir um 
predicado conjuntista”.55 Essa abordagem não foi bem recebida pelos físicos, como pode ser 
visto pelo comentário de Clifford Truesdell, em nota na primeira página do artigo de 
McKinsey et al., que se inicia assim: “O comunicador está em completo desacordo com a 
visão da mecânica clássica expressa neste artigo”. 
Naturalmente, McKinsey et al. tinham em mente uma interpretação física para esses 
conceitos matemáticos. P poderia ser interpretado como um conjunto de partículas p, mas 
também poderia ser interpretado de maneira não física, como um conjunto de números, por 
exemplo. T é interpretado como um conjunto de números reais que medem o tempo 
transcorrido. A função m(p) interpreta-se fisicamente como a massa da partícula p, s(p,t) é seu 
vetor posição num instante de tempo t, e f(p,t,i) é o vetor de força i atuando em p no instante t. 
Apresentam então seis axiomas, de tal forma que o conjunto ordenado 〈P,T,m,s,f〉 define um 
sistema de mecânica de partículas. Os axiomas P1 e P2 apenas estipulam que P não é vazio e 
 
55 MCKINSEY, J.C.C.; SUGAR, A.C. & SUPPES, P. (1953), “Axiomatic Foundations of Classical Particle 
Mechanics”, Journal of Classical Mechanics and Analysis 2, 253-72. O slogan de Suppes aparece em um texto 
não publicado de 1967, e é citado na revisão feita por SANT’ANNA, A.S. & GARCIA, C. (1998), “É Possível 
Eliminar o Conceito de Força da Mecânica Clássica”, Revista Brasileira de Ensino de Física 20, 346-53, que 
axiomatiza a mecânica de Hertz. 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 50
que T é um intervalo de números reais. Oterceiro axioma cinemático determina que o vetor 
s(p,t) é duplamente diferenciável em t. O axioma P4 apenas estipula que m(p) é um número 
real positivo, e P5 que a soma em i das forças f(p,t,i) converge em uma força resultante de 
valor finito. O último dos três axiomas dinâmicos, P6, corresponde à 2a lei de Newton. 
Notamos a importância que os autores atribuem à especificação matemática precisa dos 
conceitos envolvidos. 
A 1a lei de Newton é derivada de P3, P4 e P6, como o teorema de que se a força 
resultante sobre um corpo é nula, o vetor velocidade é constante. Quanto à 3a lei de Newton 
(ação e reação), McKinsey et al. preferem não impô-la como axioma, para permitir aplicações 
em que ela não é usada, como no disparo de uma bala de canhão (em que a força de reação na 
Terra é desprezada). Vemos assim uma característica pragmática de sua axiomatização, 
próxima de um instrumentalismo (seção IV.4), pois na formulação dos axiomas não importa 
tanto qual é a “verdade”, mas sim o quão prático é a aplicação do formalismo. De fato, no 
início do artigo eles advertem: 
 
Deve-se notar que a mecânica de partículas, como quase qualquer outra ciência em 
forma dedutiva, envolve uma idealização do conhecimento empírico factual [actual 
empirical knowledge] – e é assim melhor concebida como um instrumento para lidar 
com o mundo [a tool for dealing with the world], do que como um retrato que o 
representa. (MCKINSEY et al., 1953, p. 254.) 
 
Apesar de não adotarem a 3a lei de Newton, provam um teorema segundo o qual qualquer 
modelo de seu sistema axiomático pode ser inserido como parte de um modelo mais amplo 
que satisfaz a 3a lei. 
Um resultado bastante citado do trabalho de McKinsey et al. é a demonstração de que 
m, s e f são noções primitivas independentes, sendo que P e T, por seu turno, poderiam ser 
definidos em termos dos outros primitivos. Utilizam para isso um método lógico devido a 
Alessandro Padoa (1900), que consiste essencialmente em fixar os valores dos outros 
primitivos, e mostrar que o primitivo em questão pode assumir diferentes valores (ou seja, seu 
valor não é fixado univocamente pelos valores dos outros primitivos). No caso da força, 
mostram, em um exemplo simples, que as acelerações de um conjunto de corpos colineares 
podem ser devidas a distintos conjuntos de forças (ver Fig. VIII.2). 
O exemplo é trivial porque os dois conjuntos de forças, α={ f 0}, β={ f 1, f 2}, fornecem 
as mesmas forças resultantes em cada corpo. Isso revela a diferença entre a abordagem de 
McKinsey et al. e os de Kirchhoff e Mach (seção VIII.2). Kirchhoff define a força a partir da 
massa e da aceleração. Assim, no exemplo da Fig. VIII.2, as duas situações correspondem à 
mesma força em cada partícula, que no caso é a força resultante. Na abordagem descritivista 
de Kirchhoff, não faria sentido nesse exemplo distinguir os casos (α) e (β), a não ser que 
houvesse alguma outra maneira empírica de distinguir essas situações. Já McKinsey et al. 
partem do princípio que existem os dois conjuntos distintos de forças, e que cada uma das 
forças indicadas é real, mesmo que empiricamente os conjuntos de forças sejam 
indistinguíveis. Apesar de termos citado um parágrafo em que apresentam um discurso 
instrumentalista, neste momento eles adotam uma postura mais realista que a de Kirchhoff, 
com relação ao conceito de força. 
Com relação a Mach, consideram plausível que se pegue cada partícula, e que cada 
uma seja submetida (individualmente) ao procedimento operacional para se determinar sua 
massa, em relação a uma massa de referência. No entanto, tal procedimento envolve um 
cientista experimental, e McKinsey et al. não vêem como seria possível incorporar tal 
cientista em um sistema clássico de mecânica de partículas! 
 
 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 51
 
 
Figura VIII.2: Exemplo de McKinsey et al. de dois conjuntos de forças 
(indicadas por flechas) que geram as mesmas acelerações. 
 
 
6. O Debate entre Axiomatizações Empiristas e Dedutivistas 
 
Vimos até aqui duas estratégias para se fundar a mecânica clássica de partículas. Na 
axiomatização informal de Newton, cada axioma pretende exprimir uma lei fundamental do 
Universo, ou seja, pretende ter um importante conteúdo físico, mesmo que haja redundâncias 
(a 1a lei é um caso particular da 2a). A maioria das revisões formuladas no séc. XIX (que 
vimos na seção VIII.2) envolviam a questão de se os postulados de Newton exprimiam 
diretamente fatos observados na natureza, ou se eles envolviam conceitos teóricos (não 
diretamente observáveis), como “força”. A tentativa de axiomatizar uma teoria física com 
base em postulados próximos à observação pode ser chamada de abordagem empirista ou 
operacional (ou mesmo “indutivista”) à axiomatização de teorias científicas. 
Já a abordagem de McKinsey, Sugar & Suppes encara o conceito de força de maneira 
realista (mesmo adotando um tom geral instrumentalista), aceitando que se possa definir esse 
conceito de modo independente das observações. Tal abordagem pode ser chamada de 
dedutivista ou realista. 
Outros autores propuseram axiomatizações mais empiristas do que as de McKinsey et 
al. Herbert Simon, pensador multifacetado, expoente da inteligência artificial e ganhador do 
Prêmio Nobel de Economia, escreveu vários trabalhos formulando uma axiomatização de 
sabor mais empirista56. Ele contorna as dificuldades que o método de Mach enfrenta para 
definir operacionalmente massa, ao incluir a lei da atração gravitacional como um axioma. 
Dentre as conclusões que obteve, está a de que se se quiser definir força a partir da 2a lei de 
Newton, então a lei da gravitação se torna uma lei empírica. Mas se, de maneira alternativa, se 
quiser definir força a partir do axioma correspondente à lei da gravitação, então F=ma se 
 
56 SIMON, H.A. (1946), “The Axioms of Newtonian Mechanics”, Philosophical Magazine (series 7) 38, 888-905. 
SIMON, H.A. (1954), “The Axiomatization of Classical Mechanics”, Philosophy of Science 21, 340-3. SIMON, 
H.A. (1970), “The Axiomatization of Physical Theories”, Philosophy of Science 37, 16-26. 
FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica 
 
 52
torna uma lei empírica da Física. Ou seja, a questão de qual é a convenção (definição) e qual é 
a lei empírica depende da perspectiva que se adota. 
Um interessante balanço geral deste debate é fornecido pelo filósofo da física inglês 
Jon Dorling57: 
 
Este resultado [de Suppes e colegas] é normalmente tomado como mostrando que, ao 
contrário das visões positivistas de Mach, massas e forças são termos teóricos que não 
podem ser eliminados em favor de termos de observação. À primeira vista, essa 
conclusão parece também fornecer um forte apoio para o hipotético-dedutivismo, contra 
o indutivismo. 
Porém, é difícil aceitar os resultados facilmente provados de Suppes da maneira em que 
são vendidos filosoficamente. Por um lado (ao contrário do que a maioria dos filósofos 
parece supor), os físicos matemáticos parecem, em geral, ter tido sucesso em eliminar 
termos teóricos em favor de termos mais diretamente observáveis [...] (DORLING, 1977, 
p. 55.) 
 
Dorling cita as axiomatizações operacionais da Termodinâmica e da Mecânica 
Quântica feitas por Robin Giles, e se detém numa axiomatização da Mecânica Clássica feita 
por G.W. Mackey (1963), que fornece uma generalização do método de Mach para se 
determinarem operacionalmente as massas. Conclui que o resultado de independência de 
McKinsey et al. é decorrente da “escolha idiossincrática” de primitivos feita por eles, e que 
seu resultado não é geral, não afetando a plausibilidade de axiomatizações operacionais oupositivistas. 
 
 
 
 
 
 
 
57 DORLING, J. (1977), “The Eliminability of Masses and Forces in Newtonian Particle Mechanics: Suppes 
Reconsidered”, British Journal for the Philosophy of Science 28, 55-7. 
Filosofia da Física Clássica 
Cap. IX 
 
53 
 A Ontologia do Eletromagnetismo 
 
Questão: Quais conceitos do eletromagnetismo correspondem a entidades 
reais ? 
 
1. Critérios para estabelecer o que é Real 
 
A teoria do eletromagnetismo de Maxwell postulou a existência de diversos “campos” 
(definiremos este conceito na seção IX.4), como o elétrico E, o de indução magnética B, o 
potencial φ e o potencial vetor A. Quais deles correspondem a entidades reais? Em nosso 
ensino de física, E e B são considerados reais, e a luz é costumeiramente representada como 
ondas E e B. Já o potencial vetor é considerado irreal, apenas uma representação matemática. 
Qual o critério usado para se estabelecer que um termo teórico corresponde ou não a uma 
entidade real? Iniciaremos este capítulo examinando esta questão filosófica, e depois 
discutiremos visões alternativas, uma que defende que o campo magnético não é real, e outra 
que o potencial vetor também é real. 
O que é real? O protótipo de um objeto real é uma pedra. Ela é dura, colorida, tem até 
gosto, continua igual mesmo que eu a jogue, tem uma forma tridimensional que é consistente 
com todas as imagens formadas de diferentes perspectivas, é facilmente concebida e 
representada pela minha mente, posso lhe dar um nome, se alguém a atirar em mim eu sentirei 
dor, e se eu jogá-la contra uma vidraça terei o poder de causar a quebra desta. 
Podemos extrair desta caracterização quatro critérios para decidir se um objeto é real 
ou não. Tais critérios não são necessariamente exaustivos, e podem não ser independentes, 
mas servirão como um ponto de partida para discutir se determinado objeto, como um arco-
íris, uma sombra, um quark ou uma partícula virtual, é real. Quando consideramos um objeto 
real, ele costuma ser:53 
1) Observável. Se observamos algo, temos boa confiança de que ele existe. Há porém 
ilusões, como lampejos de luz quando batemos a cabeça, e há objetos visíveis que 
interpretamos como sendo distintos do que são, como as aparições de discos voadores nos 
céus. O sentido do tato parece ter mais importância na determinação de que algo é real. 
Vemos um arco-íris mas não conseguimos pegá-lo: será que ele é real? Quando todo mundo 
observa o mesmo objeto, há mais razões para considerarmos que o objeto é real, mas mesmo 
observações privadas, como o lampejo ilusório ou uma dor no calcanhar, são indício de um 
evento real em nosso corpo. 
2) Invariante. Ao tratar de entidades inobserváveis, o critério de invariância adquire 
muita importância. Aquilo que permanece constante ante transformações de coordenadas ou 
de perspectivas costuma ser considerado real. Na teoria da relatividade restrita, comprimentos 
e durações temporais variam com o referencial, mas há um “intervalo espaço-temporal” que 
permanece invariante, sugerindo que seja mais real do que o espaço e o tempo separados, 
apesar de estes serem observados. Na teoria quântica, a função de onda ψ(r) é invariante ante 
mudanças no aparelho de medição, ou seja, ante mudanças no observável sendo medido. Isso 
faz alguns autores admitirem que a “onda de probabilidade” ψ(r) seja real, mas os críticos 
desta opinião argumentam que ela não é diretamente observável e nem satisfaz o critério 
seguinte, não sendo por isso real. 
3) Concebível. Outro critério importante para aceitarmos que um conceito corresponda 
a algo real é que ele possa ser representado de maneira não-problemática em uma teoria. A 
 
53 Uma discussão semelhante, sobre o que é “fisicamente real”, é apresentada em NAGEL (1961), op. cit. (nota 
28), pp. 146 ff. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 54
função de onda mencionada no parágrafo anterior estaria sujeita a “colapsos não-locais” 
(falaremos sobre a localidade na seção VIII.4), e para duas partículas correlacionadas ψ(r1,r2) 
seria definida em seis dimensões, o que é problemática teoricamente. A maioria dos cientistas 
não acredita em fantasmas porque (entre outras razões) estes não são explicáveis pela teoria 
física atual. Na física, podemos aceitar que a energia cinética de uma bala seja real porque 
esse termo teórico está presente em leis científicas bem confirmadas e aceitas. NAGEL 
salienta também que se um termo teórico aparecer em diferentes leis experimentais, aumenta 
nossa confiança em sua realidade. 
4) Causalmente potente. Se um objeto apresenta “poderes causais”, isso aumenta 
nossa crença em sua realidade. Se uma bruxa consegue lançar um encantamento e quebrar 
uma vidraça, passamos a levar seriamente que seu encantamento é real. Em discussões sobre a 
realidade do mental (como sendo distinto do corporal ou cerebral), às vezes utiliza-se o 
argumento de que seriam os estados mentais (e não prioritariamente os correspondentes 
estados cerebrais) que causariam nossas ações, de forma que tais estados seriam reais (e não 
meros “epifenômenos” do cerebral). Em filosofia da biologia, discute-se qual é o “nível de 
seleção” que tem realidade (o gene, o indivíduo ou o grupo) a partir de seu poder causal. 
Na presente discussão, enfocamos objetos individuais, mas há também uma longa 
discussão sobre a realidade de entidades envolvendo mais de um indivíduo, como conjuntos 
de indivíduos (um conjunto existe ou é apenas uma representação), ou propriedades universais 
e entidades matemáticas, que examinamos na seção I.4. 
 
 
2. Ampère e o Magnetismo como Epifenômeno 
 
Em julho de 1820, o dinamarquês Hans Christian Ørsted descobriu que, ao colocar um 
fio de platina, condutor de corrente galvânica, próximo e paralelamente a uma bússola, esta 
tendia a girar para uma posição quase perpendicular ao fio (o efeito não era completo devido 
ao campo magnético da Terra). Com isso, enunciou sua lei fundamental do eletromagnetismo: 
“o efeito magnético da corrente elétrica tem um movimento circular em torno dela”.54 
 
 
 
 
Figura IX.1: Forças entre imãs e entre espiras de corrente equivalentes. 
 
54 MARTINS, R.A. (1986), “Ørsted e a Descoberta do Eletromagnetismo”, Cadernos de História e Filosofia da 
Ciência 10, pp. 89-114. Este artigo é seguido pela tradução do texto original de Ørsted”. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 55
Em Paris, em setembro, André-Marie Ampère construiu o primeiro galvanômetro e 
mostrou que dois fios paralelos, carregando corrente no mesmo sentido, se atraem. Em 
outubro, François Arago construiu os primeiros solenóides e Jean Baptiste Biot & Félix 
Savart anunciaram a lei de força entre uma corrente e um imã. Em 1821, em Londres, Michael 
Faraday conseguiu produzir um movimento circular constante de um imã em torno de uma 
corrente (e vice-versa). 
A maioria dos cientistas dava igual importância aos efeitos elétricos, de um lado, e aos 
efeitos magnéticos, de outro. Podemos dizer que eletricidade e magnetismo tinham o mesmo 
“estatuto ontológico”, ou seja, considerava-se que ambos existiam na realidade. Ampère, 
porém, impressionou-se com a equivalência da ação de um imã e de uma espira de corrente 
elétrica. A Fig. IX.1 apresenta as forças que surgem entre dois imãs, em diferentes disposi-
ções, e as análogas forças entre duas espiras de corrente. Ampère, então, lançou a hipótese de 
que a ação magnética nada mais é do que a ação de espiras elétricas de dimensões atômicas! 
Em outras palavras, os efeitos magnéticos seriam apenas“epifenômenos” dos elétricos, ou 
seja, no fundo nada mais seriam do que conseqüências de correntes elétricas fechadas. 
Como explicar, porém, o fato de que uma agulha de ferro pode não estar imantada, mas 
que ao entrar em contato com um imã, torna-se magnética? Ampère postulou que cada átomo de 
ferro, nas condições normais em que não está magnetizado, teria correntes dispostas de acordo 
com a superfície de uma maçã (Fig. IX.2a). O resultando desta disposição seria um campo 
magnético interno ao átomo (na forma de um círculo passando por dentro das espiras), mas um 
campo nulo no exterior do átomo. No entanto, se o ferro fosse aproximado de um imã e se 
magnetizasse, o que ocorreria, segundo Ampère, seria uma deformação como a da Fig. IX.2b, 
gerando um campo magnético fora do átomo, perpendicular ao plano do desenho.55 
 
 
 
 
 
 
Figura IX.2: Modelo pictórico de um 
átomo de ferro, segundo Ampère. As 
linhas referem-se a correntes elétricas nos 
átomos. O caso (a) representa a situação 
sem magnetização, e o caso (b) o átomo 
magnetizado. Neste último caso o campo 
magnético é perpendicular ao plano do 
desenho. 
 
 
Hoje em dia, a tese de que o magnetismo dos materiais é devido a correntes atômicas 
pode ser sustentada, mas a explicação é estatística. A circulação de elétrons em um átomo de 
ferro pode ser visto como gerando um campo magnético, mas se tais átomos estiverem 
orientados ao acaso, o efeito magnético global será nulo. Com a aproximação de um imã, o que 
ocorre é um alinhamento dos átomos, de tal forma que seus campos magnéticos apontam mais 
ou menos na mesma direção e sentido, gerando uma magnetização do material como um todo. 
Um problema para a tese de Ampère é o fenômeno do momento magnético intrínseco 
de elétrons, chamado de “spin”. É como se um elétron fosse um minúsculo imã. Para tentar 
 
55 As Figs. IX.2 e IX.3 foram adaptadas de TRICKER, R.A.R. (1965), Early Electrodynamics, Pergamon, Oxford, 
pp. 29-30 e 43. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 56
explicar esse magnetismo a partir do movimento de cargas elétricas, pensou-se no elétron 
como uma esfera elétrica em rotação, mas os cálculos mostraram que a velocidade de rotação 
necessária para gerar o spin do elétron violaria a teoria da relatividade restrita. É possível, 
porém, elaborar outros modelos para o spin do elétron56, de maneira a salvar a tese de Ampère 
do primado ontológico da eletricidade. 
Recentemente, André Assis apresentou um argumento contra a realidade do campo 
magnético57, baseado no princípio de razão suficiente de Leibniz (ver seção V.4). Se 
considerarmos uma espira circular em um plano, qualquer força gerada por este sistema em 
alguma carga localizada no plano estará direcionada paralela ao plano (nunca para fora do 
plano). Que razão teríamos, então, para postular a existência de um vetor de indução 
magnética apontada para fora do plano? Que razão teríamos para estipular que este vetor está 
apontado “para cima” do plano e não “para baixo”? Não haveria razão para quebrar essa 
simetria. Logo, o campo magnético não existiria. 
 
 
3. Forças Magnéticas violam o Princípio de Ação e Reação? 
 
Ampère buscou construir uma teoria eletromagnética que satisfizesse os princípios da 
mecânica de Newton, concebendo que os elementos infinitesimais de corrente se atrairiam ou 
se repeliriam segundo uma força central, satisfazendo o princípio de ação e reação (3a lei de 
Newton). Para exprimir a ação entre uma espira elétrica e um imã (ou entre dois imãs), 
Ampère substituía o imã pela espira equivalente, aplicava sua lei de força para cada par de 
elementos de corrente, fazia a integração ao longo de cada circuito fechado, e obtinha a força 
resultante entre os dois sistemas. 
Este, porém, era um método diferente daquele introduzido por Biot & Savart, que em 
outubro de 1820 obtiveram uma lei de força entre um elemento de corrente e um imã. Para 
este tipo de interação, a lei de Biot-Savart, ou sua reformulação por Grassmann (1845), foi 
adotada pela maioria dos físicos, mas ela tinha a característica peculiar de nem sempre 
satisfazer o princípio de ação e reação. A Fig. IX.3 ilustra esta violação para dois elementos 
de corrente. Usando a regra da mão direita, vemos que o elemento 1 gera um campo 
magnético 21B
r
 no elemento 2, o que resulta na força 21F
r
 indicada, que não é central. Por outro 
lado, o campo magnético exercido por 2 em 1 é nulo, de forma que não haveria força 
resultante em 2. Temos assim uma clara violação do princípio de ação e reação! 
 
 
 
 
Figura IX.3: Forças entre elementos de corrente segundo Biot & Savart. 
 
56 Ver referências em PESSOA JR., O. (2003), Conceitos de Física Quântica, vol. 1, Livraria da Física, São Paulo, 
pp. 145-6. 
 
57 ASSIS, A.K.T. (1999), “Arguments in favour of Action at a Distance”, in Chubykalo, A.E.; Pope, V. & 
Smirnov-Rueda, R. (orgs.), Instantaneous Action at a Distance in Modern Physics – “Pro” and “Contra”, Nova 
Science, Commack (Nova Iorque), pp. 45-56; ver p. 54. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 57
O curioso é que os dois métodos, o de Ampère e o de Biot-Savart, quando aplicados 
para circuitos inteiros fechados (o que envolve a integração da contribuição de todos os 
elementos), resultam sempre no mesmo resultado! 
Após a descoberta da indução eletromagnética por Faraday e Joseph Henry, em 1831, 
tornou-se necessário formular uma teoria mais abrangente para o eletromagnetismo. Isso foi 
feito por Franz Neumann, em 1845, por Wilhelm Weber, a partir de 1846, e por James 
Maxwell, a partir de 1856. Nesse período, a oposição entre as estratégias de Biot-Savart e 
Ampère se manteve. Biot-Savart e Grassmann influenciaram a abordagem de Lorentz, de 
1892, que é apresentada na maioria dos textos didáticos, juntamente com a teoria de Maxwell. 
Já a abordagem de Ampère foi retomada por Weber, que manteve a 3a lei de Newton, e 
acabou formulando uma teoria empiricamente equivalente à de Maxwell. Uma comparação da 
lei de força de Lorentz, segundo a expansão aproximativa de Liénard-Schwarzschild, e a de 
Weber, é apresentada por André Assis (que mencionamos na seção anterior), um seguidor 
contemporâneo da tradição de Ampère e Weber. Ambas as leis de força fornecem os mesmos 
resultados, quando integradas ao longo de circuitos, a menos de um termo proporcional ao 
quadrado da velocidade. Tentativas para testar esta diferença não têm levado a resultados 
conclusivos.58 
 
 
4. Campos e a Ação por Contato, ou Localidade 
 
Quando falamos em um “campo” na física, como o campo elétrico ou o campo 
gravitacional, pensamos em uma função matemática geralmente definida em todos os pontos 
do espaço e do tempo, como E(r,t). Atribuímos realidade para esse campo porque se no 
instante t colocarmos uma carga q de massa m no ponto r, concebemos que este campo causa 
uma aceleração a, cujo valor medido será tal que F = ma = q E(r,t). Notamos que a descrição 
do movimento da carga depende só de uma entidade postulada (o campo) presente localmente 
em torno do ponto r, no instante t. É verdade que tal campo é gerado por cargas presentes em 
outras regiões, mas a “causa próxima” do movimento da carga seria o campo, e não as 
entidades localizadas à distância. 
Para testar esta última afirmação, pode-se imaginar o que aconteceria se um 
“demônio” (ver seção VI.2) arrancasse o Sol de sua posição com a maior aceleração possível. 
Segundo a teoria da relatividade geral, demoraria 8 minutos (mais 19 ± 8 s) para que a Terra 
sentisse o baque. A ação ocorrida no Sol não afeta instantaneamente aTerra, mas se propaga a 
uma velocidade finita igual à da luz. Vemos assim que a noção de campo está intimamente 
ligada à noção de ação por contato (ou por contigüidade): os efeitos causais não se propagam 
instantaneamente à distância, mas se propagam de vizinho em vizinho, a uma velocidade 
finita. Se o arranque do Sol afetasse a Terra instantaneamente, poderíamos dizer que a causa 
próxima do baque na Terra seria o afastamento do Sol. Neste caso, poderíamos trabalhar com 
uma função potencial gravitacional definida em todo espaço, U(r,t), como fez Poisson em 
1813, mas isso não seria um “campo”, no sentido estrito, pois envolve ação à distância. 
Um campo (no sentido estrito) teria então três características: 
(i) Seria definida em todos (ou quase todos) os pontos do espaço e do tempo de uma 
determinada região, correspondendo assim a uma entidade “espalhada”, podendo ser 
associada a uma energia. 
(ii) Em geral, tem um caráter meio abstrato ou fantasmagórico, pois não é diretamente 
observável (sua existência é inferida dos efeitos que causa), podendo ser caracterizado como 
 
58 ASSIS, A.K.T. (1995), Eletrodinâmica de Weber, Unicamp, Campinas. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 58
uma “potencialidade” no sentido aristotélico (seção II.3), o que justifica o uso do termo 
“potencial” na física matemática. 
(iii) Os efeitos se propagam a uma velocidade finita, numa ação por contato. Isso é 
também expresso pelo termo localidade. 
Esta última noção de ação por contato ou localidade estava presente na filosofia 
mecânica de Descartes e Huygens (seção III.4), e retornou à física a partir dos trabalhos de 
Faraday no eletromagnetismo. A teoria da relatividade geral de Einstein é uma teoria da 
gravitação com ação por contato. Assim, podemos dizer que em 1922 toda a física 
hegemônica era local. Isso é razoável: como é que algo que acontece no Sol poderia chegar 
até nós instantaneamente? 
No entanto, com a teoria quântica, especialmente a partir do teorema de Bell (1964), a 
não-localidade voltou a figurar nas discussões de física. É costume dizer que “Einstein estava 
errado” (no seu trabalho com Podolsky e Rosen, de 1935) e que a não-localidade se manifesta 
em pares de partículas “emaranhadas”. No entanto, a situação é mais sutil do que parece. A 
questão envolve uma escolha entre uma postura instrumentalista (positivista) e uma realista 
(seção IV.4). O teorema de Bell diz que se alguém adotar uma postura realista com relação à 
teoria quântica, ele é obrigado a aceitar a não-localidade (ação à distância). Por exemplo, se 
alguém atribui realidade à função de onda ψ(r) (que mencionamos na seção IX.1), então terá 
que aceitar a existência de colapsos não-locais. Porém, numa visão instrumentalista (para a 
qual ψ(r) é apenas um objeto matemático), o mundo se comporta de maneira local. Isso se 
reflete na impossibilidade de transmitir “informação” (algo macroscópico e observável) a uma 
velocidade maior do que a luz. 
 
 
5. O Potencial Vetor é um Campo Real? 
 
Em seu estudo das propriedades eletromagnéticas de um meio, Faraday concluiu que 
os efeitos eletromagnéticos se propagam por contato a partir de deformações do “estado 
eletrotônico” do meio. Maxwell matematizou esta noção (ver cap. X), levando ao conceito de 
potencial vetor A. Este campo possui as seguintes propriedades: 
(i) O rotacional de A é o campo magnético: ∇ × A = B. 
(ii) Ele é um potencial para o campo elétrico, juntamente com o potencial escalar φ: 
E = –∂A/∂t – ∇φ. 
(iii) A seguinte transformação de calibre altera A e φ, mas mantém os valores de E e 
B, para qualquer função escalar ψ : A → A + ∇ψ ; φ → φ – (1/c)∂ψ/∂t . Assim, tais 
transformações não alteram as medições experimentais. 
(iv) Fixando-se ∇·A = 0, pode-se calcular o valor de A a partir da densidade de 
corrente j: ∇2·A = –j/(ε0 c2), de forma que A seja paralelo a j. 
(v) A pode ser interpretado como um “momento reduzido”. Assim, em analogia com a 
2a lei de Newton, F = ma = ∂p/∂t, onde p é o momento linear, tem-se para a força elétrica: 
F = qE = ∂(–qA)/∂t, de forma que –qA age como um momento. 
(vi) Do potencial vetor pode-se derivar a energia do campo: U = ∫ j·A dV. 
(vii) Em alguns problemas complicados, as integrais envolvendo A são mais fáceis de 
trabalhar do que aquelas envolvendo B. 
(viii) Por fim, o potencial vetor reaparece da mecânica quântica, na teoria da 
relatividade e no princípio de mínima ação. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 59
Richard Feynman59 escreveu uma instrutiva apresentação ao conceito de campo, em 
que discute a questão de se o potencial vetor A do eletromagnetismo é um campo real ou não. 
Na verdade, seu conceito de “real” é um tanto instrumentalista. Ele escreve: “devemos 
dizer que a frase ‘um campo real’ não tem muito significado”, mas ele diz isso basicamente 
por causa do critério de observação (da seção IX.1): “você não pode pôr sua mão e sentir o 
campo magnético”. Para Feynman, “um campo ‘real’ é portanto um conjunto de números que 
especificamos de tal maneira que o que acontece num ponto depende apenas dos números 
naquele ponto.” A discussão do físico norte-americano é pertinente mesmo que adotemos 
uma concepção mais realista de “real”. 
O principal argumento utilizado contra a realidade do potencial vetor A é que seu valor 
não é único (item iii acima), mas se levarmos em conta a teoria da relatividade (seção 
seguinte), o mesmo se aplicaria para os campos elétricos e magnéticos usuais. Outro 
argumento contra a realidade é que A não aparece explicitamente em expressões de força, 
como F = q(E + v × B); se tivermos uma região em que B = 0, não haverá força magnética 
mesmo se A ≠ 0. 
No entanto, com a física quântica, descobriu-se um efeito que só pode ser explicado, 
em termos locais, a partir do campo A! Este é o chamado efeito Aharonov-Bohm, formulado 
explicitamente por esses dois autores em 1959, mas já previsto em trabalho anterior de 
Ehrenberg & Siday (1949). Um feixe de elétrons passa em torno de um solenóide 
praticamente infinito (em outro arranjo possível, o solenóide tem forma toroidal), tendo-se o 
cuidado de blindar o solenóide para impedir a penetração de elétrons (Fig. IX.4). A física 
quântica prevê que neste experimento os elétrons se comportam como ondas, formando-se um 
padrão de interferência na tela, mesmo quando o solenóide está desligado. Neste arranjo, o 
campo magnético externo ao solenóide é nulo, e classicamente não se esperaria nenhum efeito 
sobre os elétrons propagando à volta do solenóide. Mas ao se ligar o solenóide, o que se 
observa é um deslocamento uniforme da franja de interferência, explicado por uma variação 
na fase relativa das amplitudes de onda que passam por um lado e por outro do solenóide. 
Como se dá esta alteração na fase relativa? 
 
 
 
 
Figura IX.4: Arranjo do experimento de Aharonov-Bohm. 
Quando o solenóide é ligado, as franjas sofrem um deslocamento. 
 
 
 
59 FEYNMAN, LEIGHTON & SANDS (1963), op. cit. (nota 40), vol. II, p. 15-7. Sobre o potencial vetor, ver também 
p. 14-10. 
FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo 
 
 60
Ora, esta fase é teoricamente expressa como [ ]∫ ⋅drA)(exp hie/ . Assim, a teoria nos 
diz que ela depende de uma integral em termos do valor do potencial vetor na região externa 
ao solenóide, por onde passa a onda eletrônica. O efeito assim é “local”. Isso então sugere que 
A tenha realidade, no sentindo usual atribuído a campos. 
No entanto, nemtodos os físicos estão dispostos a atribuir realidade ao potencial vetor. 
Assim, alguns preferem considerar que há um efeito não-local (ação à distância) do campo 
magnético dentro do solenóide em uma região distante, fora do solenóide. No entanto, tal 
ação não poderia ser instantânea.60 
 
 
6. Invariantes da Teoria da Relatividade 
 
Não cabe aqui fazer uma exposição da teoria da relatividade restrita, mas vale a pena 
salientar uma discussão filosófica que surge com esta teoria, a respeito da realidade do espaço 
e do tempo. O que ocorre, segundo esta teoria desenvolvida por Einstein em 1905, é que as 
medições de comprimento ∆l que são realizadas em um certo objeto, ou as medições de 
tempo ∆t entre dois eventos, terão valores diferentes conforme o referencial inercial R ou R’ 
em que se encontra o observador. No entanto, há uma grandeza conhecida como “intervalo 
espaço-temporal” ∆I, que pode ser definido a partir de ∆I 2 := c2 ∆t 2 – ∆l 2, onde c é uma 
constante que equivale à velocidade da luz. Este intervalo ∆I é invariante com relação ao 
referencial do observador, o que, segundo os critérios de realidade propostos na seção VIII.1, 
sugere que ele tenha realidade. O comprimento de um determinado objeto seria medido de 
maneiras diferentes (conforme o referencial) porque cada referencial observa o objeto numa 
perspectiva diferente (o mesmo valeria para medições temporais). Segundo os livros 
didáticos, o espaço-tempo é absoluto (tem o mesmo valor quando calculado por diferentes 
observadores inerciais, é um “invariante de Lorentz”), ao passo que o espaço e o tempo 
(tomados individualmente) são relativos.61 
A tese filosófica de que o que tem realidade é o intervalo espaço-temporal, e que 
espaço e tempo são apenas visões em perspectiva do intervalo, não é aceita por todos, e há 
uma discussão na literatura a este respeito. 
Nossa intenção aqui, porém, é estender a “interpretação perpectivista” para as 
entidades eletromagnéticas. O campo magnético B, gerado por um elétron em movimento 
uniforme, terá valor nulo em um referencial que se move juntamente com o elétron. O campo 
elétrico E medido também variará conforme o referencial do observador. O que se mostra na 
teoria da relatividade é que há dois invariantes de Lorentz, que nomearemos I1 e I2 (não 
confundir com o intervalo espaço-temporal I): I1 := E2 – c2B2 , e I2 := (E·B)2 . Seriam 
apenas essas grandezas que teriam realidade, segundo a interpretação perspectivista. 
 
 
 
60 Um relato do experimento de Aharonov-Bohm encontra-se em TONOMURA, A. (1993), Electron Holography, 
Springer, Berlim, pp. 57-67. Ver também OLARIU, S. & POPESCU, I.I. (1985), “Quantum Effects of 
Electromagnetic Fluxes”, Reviews of Modern Physics 57, 339. 
 
61 Ver, por exemplo: GAZZINELLI, R. (2005), Teoria da Relatividade Especial, Blücher, São Paulo, p. 83. Sobre 
os invariantes do eletromagnetismo, ver p. 113.

Mais conteúdos dessa disciplina