Buscar

Doutrina Espirita e as Chamadas Ciencias Ordinarias (Ademir L. Xavier Jr)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 2817 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 2817 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 2817 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

... Ademir L. Xavier Jr.
> Doutrina Espírita e as chamadas Ciências Ordinárias
Artigos
As fronteiras de contato entre a Doutrina Espírita e as chamadas ciências ordinárias são 
compreensivelmente amplas, a demonstrar a existência de um enorne potencial para 
trabalhos futuros. Entendemos, porém, que o Espiritismo guarda uma firme 
independência em relação a interpretações desta ou daquelas teorias em voga, em parte 
porque os rumos que as ciências tomam estão constantemente a se alterar, seja diante de 
novos fatos experimentais ou da proposição de novas teorias. O Codificador da 
Doutrina Espírita, Allan Kardec, com admirável sabedoria – mesmo para os dias de hoje 
– soube muito bem separar a Doutrina Espírita do estado do conhecimento científico de 
sua época. Tivesse ele tomado o caminho inverso, de há muito o Espiritismo teria 
sucumbido.
O Espiritismo trata em sua essência do elemento espiritual. É seu objetivo fornecer a 
nós, Espíritos encarnados em diferentes graus de entendimento, uma visão 
suficientemente coesa da vida além túmulo para que possa sustentar os objetivos 
maiores da Doutrina que é a reforma – ainda que tardia – do espírito humano em suas 
manifestações morais. O Espiritismo parece ter sido feito para os que não se satisfazem 
com explicações sustentadas em autoridade ou tradição religiosa. Mas para os que 
entendem a essência do pensamento espírita, essa visão certamente é imperfeita, na 
medida que virá a ser completada ou suprimida em futuro que hoje ninguém poderia 
precisar com certeza absoluta, da mesma forma que as descrições da ciência são revistas 
quase que a cada minuto. 
O debate que se pode estabelecer entre disciplinas com objetivos diferentes como é o 
caso do Espiritismo e da Física, por exemplo, deve acontecer sempre tendo-se em mente 
que apenas marginalmente seremos capazes de manipular os conceitos fundamentais em 
ambos os lados. Do nosso ponto de vista esse debate satisfaz mais ao intelecto, que se 
acostumou – porque foi treinado na área – a lidar com idéias e jeito de pensar das 
ciências ordinárias, onde tais conceitos tem alto grau de flexibilidade. 
Preocupa-nos porém a utilidade desse debate para os que não tem esse treinamento. 
Nesse caso, como soarão em seus ouvidos a descrição dessas extrapolações ou novas 
interpretações? Parecem ecoar muito mais absolutas, por isso mesmo despertando vivo 
interesse que, às vezes, torna-se exagerado e contraproducente. Por isso que, nós no 
Conselho Editorial do Grupo de Estudos Avançados Espíritas - GEAE, procuramos ter o 
cuidado de revisar com os autores a exposição dessas idéias não com o objetivo de 
censurar, mas muito mais seguindo os moldes das revistas científicas onde as idéias –
antes de serem publicadas – passam por um processo de revisão (as vezes muito lento) 
que pode inclusive concluir pela impossibilidade de publicar o texto nos Boletins. 
Essa revisão, necessariamente, leva em conta nossa linha editorial, como exposta no 
FAQ do grupo, que se preocupa principalmente com a necessidade de promovermos o 
estudo fraterno da Doutrina sem entrarmos em polêmicas improdutivas ou cairmos em 
disputas pessoais.
Gostaríamos assim de sugerir a todos os autores que se propõem a escrever sobre a 
relação Espiritismo X Ciência que atentem principalmente para os objetivos de seus 
trabalhos, assim como para o impacto que terão frente ao público que não está 
familiarizado com a terminologia técnica e com a flexibilidade das concepções 
científicas como discutimos acima. Pedimos que – tanto quanto possível - tais textos 
sejam escritos em linguagem acessível, pedagógica, que tenham um foco e que sejam 
plenamente embasados na concepção maior de que as ciências ordinárias estudam o 
princípio material, enquanto que o Espiritismo trata do princípio espiritual. Que 
procurem chamar a atenção para a alta dependência das idéias científicas de suas 
teorias e que guardem zelo pela Doutrina – como a única que temos haja vista não 
existirem provas de que ela hoje tenha que ser suplantada por uma outra. 
http://www.geae.inf.br/ 
Muita paz, 
Ademir L. Xavier Jr
... Ademir L. Xavier Jr.
> Vendo o Invisível
Artigos
Uma revisão rápida de alguns métodos de se observar o que não é acessível 
aos sentidos comuns
Resumo
Durante séculos, os homens sonharam em observar o invisível, em ter 
acesso a coisas ocultas, em devassar aquilo que aparentemente estaria fora 
do alcance dos sentidos comuns. Entretanto, a evolução natural da Ciência 
mostrou que há fenômenos que nunca podem ser captados por nossos 
sentidos ordinários, mas que podem se tornar tangíveis por meio de 
transdutores ou meios especiais. O papel desses meios é de ser um 
intermediário entre o fenômeno e os sentidos comuns. Nesse texto fazemos 
uma revisão comentada de alguns métodos de observação do invisível (a 
partir de exemplos da física). Em particular, analisamos em detalhes o 
fenômeno das fotos Kirlian. Obviamente essa discussão também pode 
trazer subsídios ao futuro da pesquisa espírita experimental como discutido 
na conclusão deste texto.
Contéudo
1 - Introdução classificatória dos fenômenos naturais
2 - Acessando o "imponderável"
3 - Radiações invisíveis (causas materiais)
· Raio X
· Ondas de Rádio
4 - Fenômenos limiares (causas materiais)
· Câmara de Nuvens
· Câmera Schlieren
· Câmera Kirlian
5 - Comentários finais
6 - Referências
1 - Introdução classificatória dos fenômenos naturais
O universo que vivemos é um tecido de fenômenos distintos, muitos deles 
cíclicos, outros esporádicos. Da grande classe de fenômenos existentes 
descobriu-se, ao longo do progresso da ciência, que apenas uma parcela 
ínfima deles é acessível à observação comum. Podemos dividir os 
fenômenos, quanto à acessibilidade pelos sentidos ordinários em grandes 
classes:
· Fenômenos observáveis pelos sentidos comuns, faceis de se observar, 
cíclicos, facilmente previsíveis e de grande impacto: por exemplo, eclipses 
do sol, da Lua, a passagem e o fluxo das coisas da Natureza mais próxima -
são o grupo de fenômenos que forma nossa vizinhança comum e de onde 
extraímos nossas principais experiências de vida;
· Fenômenos observáveis pelos sentidos comuns mas no limiar da resolução 
de captação desses sentidos. Por exemplo, o ruído dos morcegos (a 
freqüências sonoras muito altas - acima de 20KHz, mas modulados de 
forma a serem parte audíveis); fenômenos celestes no limite de acuidade
visual;
· Fenômenos observáveis mais muito raros e aperiódicos: são aqueles que 
se podem acessar pelos sentidos mas que contam com reduzidas 
testemunhas. Por exemplo, os famosos "raios em bola" [6] - descargas 
atmosféricas em forma de esferas que surgem durante as tempestades. 
Outro exemplo é a queda de meteoritos. Em geral, esses fenômenos são de 
difícil descrição teórica justamente porque não ocorrem sempre, por isso a 
aceitação geral deles é tardia ou limitada;
· Fenômenos não observáveis pelos sentidos comuns e cíclicos. A imensa 
maioria dos fenômenos naturais encontra-se nessa classe: emissão de ondas 
de raio, raios X pelo Sol, estrelas e corpos celestes, o ruído em infrasom 
dos insetos, os ruídos supersônicos além do limiar audível, radiações e 
partículas invisíveis que banham a Terra vindas do espaço ou de corpos 
radioativos;
· Fenômenos não observáveis pelos sentidos comuns e aperiódicos. São os 
fenômenos mais difíceis aparentemente. A ciclicidade dos fenômenos está 
fortemente ligada as causas dos mesmos. Em geral, fenômenos cíclicos tem 
causas concebivelmente simples: o farfalhar das folhas de uma árvore se 
deve a ação do vento, a mudança das estações à mudança da altura aparente 
do sol ao longo do ano etc. Já os fenômenos aperiódicos são de mais difícil 
explicação. Fenômenos não acessíveis aos sensos comuns, aperíodicos e 
raros formariam a classemais difícil de teorização. Os fenômenos espíritas 
pertencem a classe dos fenômenos não acessíveis aos sentidos comuns, 
aperiódicos mas não raros. Estão fora do alcance dos sentidos ordinários 
(ainda que possam ser acessados por um aperfeiçoamento desses sentidos -
a mediunidade) mas sua aciclicidade não se deve a uma causa 
necessariamente complexa mas sim inteligente.
A fig. 1 mostra um quadro resumo dos tipos existentes de fenômenos 
segundo essa classificação
Fig. 1 Esboço de uma classificação geral dos fenômenos naturais segundo a 
acessibilidade aos sentidos ordinários, freqüência de ocorrência e causa.
2 - Acessando o "imponderável"
O fato de um determinado fenômeno tornar-se acessível por meio de uma 
transformação natural (por exemplo, numa reação química entre dois 
reagentes incolores produzindo um outro com uma cor muito viva) ou de 
um dispositivo intermediário - um médium - cerca o executor da operação 
ou o próprio dispositivo de uma aura de mistério. Isso porque, muitas 
vezes, a teoria por detrás do fenômenos é desconhecida. Sabemos que 
grande parte do conhecimento científico está na forma teórica - o que 
significa que fenômenos devem estar harmonicamente ligados às teorias 
que os pretendem explicar. Assim sendo, abrir os sentidos humanos a esses 
fenômenos (aqueles de difícil aceitação por interagirem fracamente com 
nossos sentidos) também abre perpectivas teóricas antes inimagináveis 
pois, muitas vezes, esses fenômenos inacessíveis são regidos por leis 
particulares distintas dos fenômenos ordinários. A história das ciências está 
repleta de muitos exemplos nesse sentido. De modo geral, todos os 
fenômenos ou ocorrências não ordinárias (para além dos limites sensoriais), 
para se tornarem conhecidos, envolvem algum tipo de meio ou sistema 
intermediário que é responsável por acessar diretamente os sentidos 
humanos. E não poderia ser de outra forma uma vez que nosso vínculo com 
o mundo externo está ligado exclusivamente a posse desses sentidos (fig. 
2). As teorias científicas devem não só explicar os fenômenos naturais mas 
também prover subsídios para que possamos compreender como tais 
fenômenos podem influenciar nossos sentidos (quais os meios para isso, 
ainda que indiretos). De acordo com a Fig. 2, podemos ver que não temos 
acesso diretamente aos fenômenos, mas sim aos sinais por eles gerados.
Nesse processo de transmissão de sinais, há obviamente interferências 
externas e atenuações que modificam o quadro aparente dos fenômenos 
para o observador.
Assim sendo, para "acessar o imponderável" precisamos de um dispositivo 
ou meio que faça a conversão entre os sinais característicos da ocorrência 
"não-sensorial" e os nossos próprios sentidos. Precisamos, antes disso, de 
uma ciência que nos permita entender como isso é possível. Analisemos 
brevemente aqui o mecanismo de alguns desses dispositivos - com origem 
material - para depois inferir regras gerais para a busca e pesquisa dos 
fenômenos espíritas em particular sobre a possibilidade de se dispensar o 
mecanismo humano - os médiuns com instrumentos por excelence da 
pesquisa espírita. Para tanto vamos examinar resumidamente a descoberta 
de algumas radiações e o mecanismo de funcionamente de dispositivos que 
servem à pesquisa da matéria que não impressiona os sentidos ordinários 
mostrados na Fig. 2.
3 - Radiações invisíveis (causas materiais)
Raio X
A 8 de Novembro de 1895, o professor alemão Wilhelm Conrad Röntgen 
(1845-1923), enquanto trabalhava em seu laboratório em Wurzburg, 
prestou atenção a irradiações luminosas que partiam de uma tela 
emulsionada com platinocianeto de bário, todas as vezes que ligava um dos 
seus "tubos de Crookes", um dispositivo de raios catódicos inventado por 
William Crookes (1832-1919). A tela estava localizada longe do tubo e 
sempre reluzia ainda que qualquer outro objeto fosse colocado na linha que 
a ligava ao tubo. Röntgen foi capaz de mostrar a propriedade de penetração 
desses raios, fornecendo ao mundo a primeira "radiografia" e um método 
eficaz de pesquisa médica e física.
A descoberta de Röntgen foi totalmente acidental pois os raios emitidos 
pelo tubo de Crookes são completamente invisíveis. Hoje sabemos que se 
devem à colisões de minúsculas partículas (elétrons) na parede do tubo que 
os gera. Na época de Röntgen a realidade dessas partículas (igualmente 
invisíveis) era absolutamente desconhecida. Atentando para o desenho da 
Fig. 3, vemos que a “realidade” (no sentido de sua impressão a um sentido 
ordinário – a visão) foi inferida indiretamente por meio da placa 
emulsionada com o sal de bário que tem a propriedade de emitir luz toda 
vez que atingida pelos raios X. Acidentalmente também, Röntgen 
descobriu que esses raios não eram barrados por obstruções materiais. 
Trocando a placa por uma chapa fotográfica e o objeto por um membro do 
corpo humano, a radiografia médica estava inventada.
Fig. 3 Esquema da descoberta de Röntgen (Raios X)
Ondas de Rádio
A base teórica para compreensão e previsão da existência de ondas de rádio 
foi feita por James Clerk Maxwell em 1873 em seu artigo "A dynamical 
theory of the electromagnetic field" publicado na Royal Society. De acordo 
com [1], David Hughes em 1878 mostrou que sua balança de indução 
provocava ruídos em um telefone construído em casa por ele. Na época, 
sua descoberta foi desqualificada como sendo efeito de indução de 
correntes. Entre 1886 e 1888, Heinrich R Hertz validou a teoria de 
Maxwell por experimentação, demonstrando que a radiação gerada por ele 
tinha característica de ondas. No Brasil, o padre Landell de Moura 
conduziu experimentos por volta de 1893 sobre um dispositivo de rádio 
primitivo.
Na essência do experimento de Hertz estava a produção de um tipo de 
radiação invisível que não se poderia explicar usando o paradigma de 
indução de correntes (¹). Hoje sabemos que a indução de correntes pode ser 
usada na explicação da excitação elétrica provocada nas antenas de rádio 
mas acoplada à idéia da propagação das ondas eletromagnéticas. Na época 
a realidade dessas ondas não era conhecida, e muito menos que se tratava 
de um tipo de radiação da mesma natureza da luz.
Fig. 4 Esquema da demostração de Hertz sobre ondas eletromagnéticas 
(OEM).
A Fig. 4 traz um desenho muito simplificado do experimento de Hertz. 
Usando uma bobina de indução (semelhante a usada por Röentgen), faíscas 
são geradas em dois terminais acoplados a um sistema capacitivo (que 
armazena eletricidade até ocorrer uma faísca). A faísca gera ondas 
eletromagnéticas que se propagam pelo espaço (ondas de rádio). Essas 
ondas são detectadas a distância por um outro dispositivo chamado 
resonador. O resonador produz faíscas cuja intensidade depende de sua 
distância da bobina. Com esse arranjo, Hertz foi capaz de mostrar a 
“natureza ondulatória” da radiação eletromagnética, demostrando, inclusive 
a existência de polarização nas ondas de rádio (²).
Além da possibilidade de “ver o invisível” presente em todo espectro 
eletromagnético (Fig. 5), para além do violeta e abaixo do vermelho, 
sistemas de comunicação eficientes foram desenvolvidos com considerável 
sofisticação na região das ondas de rádio. O esquema inferior da Fig. 5 
(explicando a comunicação via rádio) pode ter todos os constituintes 
equivalentes da Fig. 2 plenamente evidenciados. Analisemos os 
experimentos de Röntgen e Hertz de acordo com a perpectiva de interação 
sensorial explícita na Fig. 2. Tanto o raio X como as ondas de rádio - que 
hoje sabemos ter a mesma natureza, a despeito da diferença de uma 
propriedade fundamental, o comprimento de onda - não geram fenômenos 
registráveis pelos sentidos descritos na Fig. 2. Houve uma longa cadeia de 
raciocínios e ponderações (com consideráveis trabalhos teóricos) até que seconcluísse serem os dois experimentos explicáveis por uma mesma causa. 
Não se pode dizer que os raios X ou as ondas de rádio tornaram-se 
conhecidas para nós por meio desses experimentos, sem levar em 
consideração os trabalhos teóricos da época. Podemos dizer que eles 
evidenciam hoje, diante de uma teoria consideravelmente aceita e bem 
desenvolvida - e de forma totalmente indireta aos nossos sentidos humanos 
- a existência de uma causa comum que nos é insensível. Esses arranjos 
experimentais (e outros mais sofisticados) são meios que nos possibilitam 
hoje interagir com radiações invisíveis, através de sistemas que geram 
sinais detectáveis por nossos sentidos ordinários.
Fig. 5 Espectro eletromagnético e uma explicação de como funciona o 
sistema de comunicação via rádio.
Referências
[1] http://en.wikipedia.org/wiki/Radio
¹ Diz respeito ao aparecimento de correntes em condutores devido a ação 
de outras correntes próximas ou magnetos em movimento.
² Fenômeno típico da radiação luminosa que se sabia, na época, ter origem 
na natureza ondulatória da luz.
4 - Fenômenos limiares (causas materiais)
Os dispositivos descritos na seção anterior envolvem algum tipo de 
radiação invisível. Aqui vamos discutir dispositivos ou sistemas que 
permitem “observar” ou inferir a presença de outro tipo de corpo invisível 
utilizando propriedades de estado da matéria.
Câmara de Nuvens
O desenvolvimento da câmera de nuvens, também conhecida como câmera 
de Wilson, representou um passo importante na física do século XX. Uma 
variante da câmera de Wilson é a câmera de bolhas que emprega líquido ao 
invés de vapor. O objetivo desse dispositivo é observar traços de partículas 
carregadas eletricamente. Naturalmente, partículas elementares são 
invisíveis. Por isso, esses dispositivos foram desenvolvidos, pois permitem 
observar indiretamente o traçado dessas partículas. Considerando ainda que 
existem partículas desconhecidas, muitas delas cuja existência foi prevista 
teoricamente muito antes da evidência experimental, a câmera de bolhas foi 
um dispositivo eficiente na comprovação experimental de novas 
descobertas. Charles T. R. Wilson e Arthur H. Compton receberam o 
prêmio Nobel de Física por suas descobertas utilizando a câmara de nuvens 
em 1927.
O princípio de funcionamento da câmera de nuvens é bem simples [2][3]. 
Um gás ou vapor é colocado a uma pressão superior a pressão de ponto de 
saturação (a partir de onde começa uma transição de fase de vapor para 
líquido). Esse tipo de fenômeno é conhecido como “meta-estabilidade”. 
Basta uma pequena perturbação para que haja condensação do vapor na
forma líquida que, então, pode ser observada. Essa perturbação pode ser 
causada pela presença de íons (partículas carregadas). Uma avalanche de 
condensação ocorre ao longo da trajetória da partícula gerando gotas que 
ficam em suspensão e que podem ser fotografadas.
O arranjo experimental da câmera de nuvens é mostrado na Fig.6a. A 
câmara armazena o vapor à pressão correta. Um campo magnético pode 
cobrir a região de observação do fenômeno. Com isso, é possível saber a 
carga e medir a energia com que a partícula ou íon atravessa o espaço. Ao 
atingir a câmara, o vapor se condensa na trajetória da partícula ou íon, o 
que pode ser fotografado ou mesmo visualizado. A Fig. 6b traz uma 
imagem negativa de um traçado obtido em uma câmara de nuvens onde se 
podem distinguir as trajetórias de diversas partículas facilmente (inclusive 
os famosos mésons pi).
A
Fig. 6 Arranjo básico de uma câmera de núvens (a).
B
Exemplo de traço de partículas obtido onde se evidencia a existência de 
píons e outras partículas elementares.
A câmera de nuvens só funciona porque as partículas carregadas interagem 
com o vapor saturado. Partículas neutras não geram traçado algum (como 
se pode ver na Fig. 6b nos traçados em branco da partículas lambda e K 
que são neutras).
Câmera Schlieren
Hoje sabemos que o som é uma forma de vibração mecânica que se 
propaga no ar. Essa vibração tem freqüência particular (³) e impressiona 
diretamente nossos ouvidos constituindo o rico universo sonoro. Sabemos 
também que a sensação de calor advém das vibrações mecânicas das 
moléculas de ar ao nosso redor (que tem uma energia de movimento 
superior ao de um ambiente mais frio). O calor também se “propaga” como 
radiação: as vibrações moleculares podem ser “excitadas” por um tipo de 
luz invisível - a radiação infravermelha distante - que nada mais é do que 
um tipo de radiação eletromagética semelhante à luz ordinária mas 
invisível. É assim que recebemos o calor diretamente do sol, pois o espaço 
entre a Terra e nossa estrela mais próxima não tem densidade de matéria 
para possibilitar o transporte de calor por meio mecânico (colisão entre 
moléculas).
Tanto o som como o calor são acessíveis aos sentidos humanos por meio 
de sentidos distintos da visão. Entretanto existe um meio de tornar tanto o 
som como o calor visíveis. Essa é a tarefa de um dispositivo conhecido 
como câmera Schlieren [4] (do alemão “estrias”), que gostaríamos de 
comentar como próximo exemplo. O princípio de funcionamento e 
esquema de uma câmara Schlieren é mostrado na Fig. 7. Uma fonte de luz 
pontual é colocada no foco (ponto de convergência de raios do infinito) de 
uma lente convexa L1. Há uma certa distância de L1 uma outra lente 
convexa L2 (que pode ser idêntica a L1) é colocada de tal forma que seu 
foco coincida com a posição de um anteparo em forma de lâmina.
Fig. 7 Esquema óptico de funcionamento de uma câmera Schlieren
Um objeto é colocado entre as lentes L1 e L2. Esse objeto está colocado há 
uma certa distância de L2 de tal forma que sua imagem (se não existisse o 
anteparo em canto) é formada sobre o anteparo ou câmera fotográfica. 
Porque o anteparo em canto é colocado exatamente sobre o foco da lente 
L2, qualquer variação na posição do canto causa o obscurecimento da tela e 
nenhuma imagem é observada. O mesmo efeito acontece se houver uma 
variação nas propriedades ópticas do meio onde o objeto é colocado. Uma 
pequena variação nessa propriedade (conhecida como “índice de refração”, 
que mede o grau com que a luz é desviada pela matéria - sendo uma 
propriedade da matéria e da cor da luz) é amplificada pelo arranjo óptico e 
localização do anteparo. Assim, se na região de teste (onde se coloca o 
objeto) fizermos som se propagar a uma freqüência e intensidade definida 
(usando um gerador de som) podemos observar no anteparo as variações de 
pressão causadas pelas ondas sonoras que também podem ser descritas 
como ondas de pressão. O som torna-se visível! A câmera Schlieren é 
utilizada em laboratórios mundiais na pesquisa de sistemas de 
aquecimento, combustão de gases, sistemas aerodinâmicos e outros [5]. 
Fotos desse tipo permitem visualizar fenômenos que acontecem em meios 
transparentes (o que inclui líquidos).
Além disso, qualquer variação térmica no fluído da região de teste torna-se 
visível no anteparo da câmera. A Fig. 8 trás duas fotos Schieren 
particularmente interessantes. Na Fig. 8(a) uma pessoa tosse. O fluido 
expelido (a uma temperadura maior que ambiente) produz eflúvios 
térmicos fácilmente visíveis. Pode-se notar também que o calor que emana 
da cabeça da pessoa provoca ondas de convecção que sobem por serem 
menos densas. Na Fig. 8(b) uma foto Schlieren de uma mão “recém-aberta” 
mostra eflúvios térmicos emanando da palma extendida.
(a)
Fig. 8 Imagens Schlieren mostrando eflúvios térmicos de uma pessoa 
tossindo (a)
(b)
e de uma mão “recém aberta” (b). Crédito: Dr. Gary Settles/ Science photo 
libray.
Os dois exemplos mostrados mostram como explorando propriedades de 
mudança de estado de sistemas pode-se amplificar perturbações muito 
pequenas e tornar acessível aos sentidoscomuns objetos ou coisas 
relacionados as causas das perturbações pequenas. No caso da câmera de 
bolhas, a metaestabilidade do líquido permite rastrear íons carregados 
tornando “visíveis” partículas ínfimas. No caso Schlieren, a região de foco 
onde se coloca o anteparo em canto é para onde convergem todos os raios 
da fonte luminosa que foram colimados pela lente L1. Portanto, qualquer 
variação da área provocada pela colocação de um anteparo provoca grandes 
oscilações no nível de luz no anteparo final. Variações pequenas no índice 
de refração do meio transparente são assim amplificadas permitindo a 
visualização tanto de fenômenos sonoros como térmicos.
Referências
3. Na verdade qualquer som, a menos que seja “puro”, tem uma 
distribuição de freqüências típicas.
Câmera Kirlian
Propositalmente incluímos no final desse texto uma breve análise de um 
fenômeno ou técnica fotográfica que se tornou bastante popular nas 
décadas de 70 e 80, sendo utilizada para realização de diagnósticos 
médicos, a despeito de soar suspeita à comunidade acadêmica. Trata-se do 
método de fotografia elétrica (eletrografia) descoberto por Semyon Kirlian, 
um técnico de eletrônica russo, por volta de 1939.
Antes de analisar as explicações e os propósitos da foto Kirlian, vamos 
descrever com algum detalhe a técnica fotográfica Kirlian.
Fig. 9 Esquema com os elementos básicos de uma câmera Kirlian clássica
Na técnica clássica de fotografia Kirlian, um objeto “biológico” ou amostra 
com razoável condutividade elétrica (obviamente pode-se colocar um 
objeto não vivo, por exemplo, uma moeda) é colocado sobre o filme que 
toca a superfície de uma placa metálica. Essa placa é conectada a um 
gerador de alta tensão alternada (que pode ser um bobina de Tesla, 
transformador de alta tensão, isto é, a voltagem elétrica final é uma função 
oscilante no tempo com uma certa distribuição de frequências). 
Freqüências típicas giram em torno de 70KHz. Os potenciais envolvidos 
são bastante elevados, mas a corrente total que circula no circuito da Fig. 9 
é regulada de forma a ser pequena (para evitar choque elétrico ou 
descaracterização da amostra). A amostra biológica é conectada a um fio 
terra para reduzir seu potencial. O objeto biológico (que pode ser o dedo de 
uma pessoa) toca a superfície onde o material sensível à luz é depositado. 
Ao se ligar o gerador de alta tensão por alguns segundos (o tempo de 
exposição depende da sensibilidade do filme), uma imagem da descarga 
elétrica é revelada (Fig. 10).
a)
b)
Fig. 10 Exemplo de fotos Kirlian (a) um negativo preto e branco do efeito 
corona em torno de uma moeda,
(b) Foto Kirlian em filme fotográfico do dedo de uma pessoa revelando 
tonalidade de cores bem diferentes do efeito corona
É possível observar a vista desarmada o surgimento de uma coroa de raios, 
por isso o nome “descarga corona”, em torno do objeto. Essa coroa tem a 
cor azulada, típica de fenômeno elétrico de alta tensão. Deve-se a ionização 
de gases presentes em torno do objeto, isto é, o campo de rádio frequência 
(RF) “excita” o ar em torno do objeto. Muitos dos constituintes do ar tem 
moléculas que se tornam ionizadas, isto é, perdem elétrons tornando-se 
carregadas positivamente. Os elétrons oscilam “livremente”, isto é de 
acordo com o campo elétrico, eventualmente encontrando íons positivos e 
se ligando a eles. Esse processo gera luz visível, ou seja, a descarga corona 
é um mecanismo pouco eficiente de conversão de energia eletromagnética 
em luz. Se pudessemos computar o total de energia por segundo (em Watts) 
envolvido no fenômeno (fornecido pelo gerador de alta tensão) diríamos 
que uma parte é transformada em luz, outra em calor (colisão de elétrons 
com a rede cristalina do metal a potencial oscilante, que gera calor) e a 
imensa quantidade está presente no próprio campo de RF, ou seja, nunca 
deixa de ser energia elétrica mesmo e é carregada pelos elétrons. A cor azul 
que se vê a vista desarmada - como a que se vê na Fig. 10 (b) - é 
característica do tipo de gás que envolve o objeto, o ar, na imensa maioria 
nitrogênio e oxigênio ionizados e compostos, a mesma cor que se pode ver 
nas chamas de fogão ou nos relâmpagos das tempestades.
Ocorre que outros tipos de cores e tonalidades (não visíveis) aparecem no 
filme fotográfico, Fig. 10(b). A que se deve isso? Uma quantidade grande 
de especulações e teses foram levantadas, na falta de uma teoria que 
unifique todos os arranjos experimentais possíveis e forneça uma
explicação para o aparecimento das cores. Em todo ramo do conhecimento 
científico onde aparecem fissuras teóricas, é provável também a exploração 
de fenômenos pouco conhecidos de forma considerada “pouco científica”. 
Por “científico” aqui no referimos tão somente à existência de uma teoria 
bem desenvolvida. No caso da foto Kirlian, a deficiência teórica está 
localizada na dificuldade de se unir duas grandes áreas da ciência: a física 
e a química. Existem lacunas consideráveis na explicação de reatividade 
química de gases submetidos à potenciais oscilantes elevados [6], como 
eles interagem com um depósito de sais fotosensíveis e como esses sais 
eventualmente interagem com esse mesmo campo elétrico oscilante. Além 
disso físicos e químicos utilizam linguagens e abordagens bem diferentes 
para tratar um mesmo fenômeno. Para químicos, reações químicas 
complexas ocorrem no ar excitado pelo campo elétrico (que aumenta a 
reatividade química dos constituintes do ar) enquanto que, para físicos, a 
descarga corona é um tipo de plasma frio (4). Isso aliado ao pouco interesse 
acadêmico das fotos Kirlian, contribui para tornar a situação ainda mais 
desoladora.
Nesse ambiente de aridez teórica surgem então explicações dos mais 
variados tipos, algumas que pretendem “esgotar” completamente o tópico, 
outras meramente ligadas a aspectos comerciais que exploram outras 
hipóteses. Uma rápida busca na internet levanta explicações como citadas 
abaixo:
1. Uma câmera que coloca sua aura ou campo de energia no filme 
instantaneamente. Descubra sua freqüência vibracional pessoal através da 
fotografia Kirlian. [7]
2. A fotografia Kirlian é uma ferramenta valiosa que produz fotos, videos 
ou imagens computadorizadas do fluxo de energia. [8]
3. “...o que é ionizado pelas descargas elétricas são os gases e/ou vapores 
exalados pelas papilas digitais. Como esses gases e/ou vapores são 
produzidos pelo metabolismo celular, está claro que indicarão como se 
encontra o estado de saúde orgânica e psíquica da pessoa, inclusive, até 
mesmo, sua sexualidade, devido à exalação dos feromônios.”[9]
4. …Um método de investigação de objetos biológicos, baseado na 
interpretação da imagem em descarga corona obtida durante exposição a 
um campo de alta freqüência, de alta voltagem, que é gravado seja em 
filme fotográfico ou por equipamentos de gravação de vídeo modernos. Seu 
principal uso é fornecer um meio rápido, barato e relativamente não 
invasivo de diagnóstico de estados fisiológicos e psicológicos.
Pode-se dividir os tipos de explicações para as fotos Kirlian em dois tipos: 
a) explicações não físicas b) explicações físico-patológicas. O primeiro tipo 
pretende dizer que as cores ou mesmo a própria imagem de raios corona 
está ligado “a aura” do indivíduo, sendo uma imagem desta. Obviamente 
esse tipo de “explicação” tem nítidos objetivos comerciais - em (1) e (2) o 
objetivo é vender “máquinas Kirlian” - sendo uma maneira de se explorar 
indiscriminadamente a idéia que se capturar com máquinas objetos de 
natureza “não material”. Naturalmente, isso não causa prejuízos a
existência do fenômeno de avistamento de halos ou figuras luminosas em 
torno de pessoas ou Espíritos, que é bastante comum na literatura espírita 
ou mesmo religiosa antiga. Trata-se esse último deum tipo de fenômeno 
relacionado ao estado de vidência mediúnica e de natureza muito distinta 
do que estamos analisando aqui.
Particularmente em (2) fala-se em um “fluxo de energia”. É de certa forma 
correto dizer que uma foto Kirlian representa um impressão fotográfica “do 
campo de energia”, apenas devendo-se acrescentar “energia elétrica”. O 
potencial elétrico alternado em torno do objeto nas proximidades da placa 
metálica energizada tem seus valores mais elevados justamente na região 
vizinhas ao objeto, um potencial suficiente para que haja ruptura das 
moléculas (excitação) e conversão em luz. O efeito corona é assim um 
mapa das regiões de maior intensidade desse campo, que não se limita a 
essas regiões entretanto, semelhantemente ao que ocorre com a câmara de 
nuvens e Schlieren descritas anteriormente. Em (2) a palavra “energia” é 
utilizada sem referência alguma ao tipo, explorando uma possível falta de 
conhecimento do leitor do real significado dessa palavra. Além disso a 
expressão “freqüência vibracional pessoal” carece de qualquer significado. 
Definitivamente, fotos Kirlian não são um mecanismo de se acessar o 
invisível dessa maneira.
Explicações “físico-patológicas” tiveram início com o próprio Kirlian e se 
desenvolveram na extinta União Soviética através da criação da idéia de 
“bioplasma”. Em “Photography by means of high-frequency currents” [11], 
Semyon Kirlian e Valentina Kh. Kirlian descrevem:
“Um organismo vivo (por exemplo, a folha de uma planta) que foi colocada 
em um campo elétrico de um oscilador distorce o campo de acordo com sua 
natureza dielétrica. Não importa quantas espécies de plantas são 
fotografadas sob as mesmas condições, cada espécie dará uma imagem de 
caráter único.”
A seguir ainda comenta:
“Podemos concluir que a condição biológica dos objetos vivos, quando 
fotografados com a corrente de alta freqüência, é representada em 
magnitudes elétricas que esse sistema eletro-óptico é capaz de gravar essa 
topografia.
Estabelecendo-se a conexão entre a mudança no estado elétrico e a 
anatomia e fisiologia do objeto vivo, o método da fotografia de altas 
freqüências pode ter aplicações científicas variadas. Por exemplo, em 
agricultura, ela pode ser usada para determinar o grau de maturidade de 
uma planta, a produtividade de uma plantação, processos patológicos etc."
A origem da aplicação de Kirlian (que se tornou a razão de suas pesquisas) 
foi a relação que existe entre as constantes dielétricas (5) e impedância 
superficial a altas freqüências dos materiais (no caso seres animados) e seu 
estado interno. Naturalmente, é concebível que o efeito corona seja
modificado se essas propriedades se alterem. Assim, ao se fotografar uma 
folha de um vegetal recém cortado, folha que contem razoável quantidade 
de água, pode-se observar uma redução do efeito corona ao longo do 
tempo, a medida que a água ou outras substâncias abandonam a folha em 
estado de decomposição. Da mesma forma, o efeito Kirlian observado ao 
redor do dedo de uma cadáver, deve evoluir no tempo na direção de um 
padrão comum à medida que o estado de decomposição se acelera, uma vez 
que, com o fim do metabolismo, muitas substâncias deixam de ser 
produzidas, outras passam a existir, o tecido se modifica, causando uma 
conseqüente variação nas constantes dielétricas. Essa variação na 
luminosidade do padrão de um corpo vivo em decomposição, não pode de 
forma alguma ser interpretada como o “abandono do Espírito” desse corpo, 
como muitos interpretaram. A essência da interpretação físico-patológica é 
correta, uma vez que existe uma ligação clara prevista em teoria entre as 
propriedades elétricas dos materiais e o efeito Kirlian.
Entretanto, pouco se sabe se essa relação permite utilizar o efeito Kirlian 
como um método de diagnóstico médico. Assim na frase (3) da referência 
[9] o “está claro que” - grifo nosso - ainda deve ser melhor explorada. Não 
está claro que o efeito corona é sensível suficiente para que um sistema 
seguro de diagnóstico seja possível. Para estudos recentes nesse sentido ver 
[12][13].
O efeito Kirlian pode assim representar um dispositivo capaz de evidenciar 
visualmente o estado biológico de seres vivos de acordo com a idéia 
original de Kirlian. Essa relação é totalmente material: da mesma forma 
que a câmara Schlieren pode revelar os eflúvios térmicos da mão de uma 
pessoa viva, o efeito Kirlian também pode (mas de outra forma), o que 
seria uma indicação indireta da atividade biológica nesse ser. Entretanto, 
poucos estamos autorizados a afirmar que uma ferramente precisa de 
diagnóstico existe nas interpretações das imagens Kirlian, ou que seja 
possível correlacionar o estado psicológico de indivíduos com esses 
padrões.
Fig. 11
O quadro resumo da Fig. 11 é uma sumário da atual situação quanto ao 
desenvolvimento científico da pesquisa com o efeito Kirlian. Claro está que 
se trata de pesquisa multidisciplinar, envolvendo a física, química, biologia 
e medicina. Quase nada sabemos da relação entre as constantes elétricas 
dos materiais vivos e os constituintes químicos, pois cada um desses 
objetos teóricos é descrito por disciplina diferente. Assim a conclusão final 
obtida pela cadeia de afirmações em branco na Fig. 11 não pode ser 
categoricamente afirmada.
5 - Comentários finais
Os arranjos experimentais aqui descritos são muito simples e existe uma 
teoria muito bem desenvolvida para explicá-los (com excessão à câmera 
Kirlian). Isso faz parte do jogo da ciência, onde teoria deve antecipar e 
prever corretamente fenômenos naturais. O conhecimento da teoria e dos 
fenômenos que ocorrem ciclicamente ou não permitem realizar arranjos 
que amplifiquem ou tornem visíveis fenômenos não percebidos 
sensorialmente por meios normais. Essa mesma teoria que explica os 
arranjos (como aqui descritos) também valida resultados de medidas 
obtidos por ele. Assim sendo, a teoria óptica valida as images como na Fig. 
8(a) e 8(b) não permitindo que sejam interpretadas como meras ilusões de 
óptica.
Também é importante considerar que, a despeito das teorias que hoje se 
adequam harmonicamente aos arranjos, a geração de sinais sensíveis aos 
olhos ou aos sentidos humanos só é possível indiretamente. Assim, existem 
elementos transdutores - em todos os exemplos discutidos até aqui - que 
fazem a conversão dos sinais não sensoriais em equivalentes sensoriais. 
Assim, enfatizamos como corolário:
Em todo e qualquer sistema natural onde tais elementos transdutores 
existam garantidos por uma teoria bem desenvolvida, a observação, por 
meio dos sentidos ordinários, de fenômenos ou ocorrências relacionados a 
sinais não sensíveis é possível.
Ressaltamos que isso só é possível se uma teoria completa da comunicação 
dos sinais for plenamente desenvolvida. Faz parte da busca técnica pós 
teoria o desenvolvimento desses dispositivos, o que consiste uma ciência a 
parte. Assim a existência de computadores e telefones celulares só apareceu 
muito depois da teoria dos circuitos elétricos, que só apareceram depois 
que as leis básicas de fluxo de correntes em condutores foi desenvolvida.
No caso do efeito Kirlian, podemos certamente afirmar que se trata de um 
fenômeno que permite observar visualmente variações nas constantes 
dielétricas, impedância superficial e outras propriedades de corpos vivos. 
Entretanto, resta ainda uma longa pesquisa interdisciplinar para validar 
afirmações de que se trata de um método eficaz de diagnóstico ou de 
conhecimento do estado psicológico de indivíduos (um meio de se acessar 
o “invisível”)
Nosso objetivo aqui foi demonstrar que a existência de transdutores ou 
dispositivos que permitem acessar radiações e influências que não existem 
para os sentidos ordinários só é possível (isto é, se torna parte integranteda 
técnica e da engenharia) quando uma teoria bem desenvolvida existe. Esse 
é o caso dos inúmeros equipamentos de pesquisa científica que utilizam 
correntes elétricas, luz, substância químicas, arranjos termodinâmicos e 
outros para possibilitar inferir quantidades de constituintes da Natureza. A 
medida dessas quantidades está sujeita a erros uma vez que outros fatores 
também influenciam e é necessário garantir o controle dentro de limites 
especificados de todos eles.
Na ausência de uma base teórica sólida, a proposição de equipamentos para 
determinados fins como elementos transdutores é seriamente comprometida 
pois sempre existirão opiniões e explicações contraditórias que podem 
invalidar o propósito para o qual os equipamentos foram construídos.
Esse texto tem como objetivo também motivar o leitor a ponderar sobre 
interpretações diversas do famoso “Fenômeno das vozes eletrônicas” 
(EVP) ou “Transcomunicação instrumental” (TCI), como ficaram 
conhecidas as técnicas eletrônicas de gravação de vozes e imagens vindo 
dos desencarnados [14][15]. Trata-se, certamente, de métodos de se acessar 
o “invisível”. Deixamos ao leitor uma análise mais detalhada do assunto e a 
tarefa de aplicar alguns conceitos discutidos nesse texto ao caso da TCI e 
EVP. Para motivar ainda mais perguntamos: é possível descartar a 
necessidade de um médium na produção do fenômento TCI ou EVP? 
Trataremos desse fenômeno em particular em um texto mais abrangente a 
ser publicado em breve.
O autor gostaria de receber críticas e comentários sobre este texto. Envie 
suas mensagens para editor@geae.inf.br.
Agradecimentos: gostaria de agradecer ao Alexandre de Almeida por 
discussões e várias referências sobre o efeito Kirlian.
4. De maneira muito simplificada, um plasma em física caracteriza um 
estado físico de elétrons e íons positivos altamente influenciável por 
campos eletromagnéticos. O plasma foi reconhecido como um novo estado 
da matéria por Sir Willian Crookes, famoso cientista espiritualista inglês.
5. A constante dielétrica é uma variável que descreve a resposta elétrica dos 
materiais. Em materiais isolantes ela é responsável pelo aparecimento de 
um estado de polariazação elétrica que é utilizado em larga escala na 
indústria eletrônica em capacitores e outros dispositivos de armazenagem 
de energia. Impedância mede a resposta em potêncial elétrico de um 
material, sistema ou superfície frente a um estímulo de corrente elétrica.
6 - Referências
[1] http://en.wikipedia.org/wiki/Radio
[2] http://www.lnf.infn.it/kloe/Lectures/wilson.pdf
[3] http://en.wikipedia.org/wiki/Cloud_chamber
[4] G. S. Settles, “Schlieren and shadowgraph techniques - visualizing 
phenomena in transparent media”. Springer 2001.
[5] Para uma galeria de fotos Schlieren ver:
http://www1.dfrc.nasa.gov/gallery/photo/Schlieren/HTML/
http://www.sciencephoto.com/html_tech_archive/schlie.html
[6] D.Turner, “The missing science of Ball Lightning”, Journal of 
Scientific Exploration, vol. 17, n. 3, p 435 (2003);
[7] http://www.kirlian.org/kirlian_camera.htm
[8] http://www.kirlian.org/kirlian.htm
[9] Newton Milhomens em http://www.kirlian.com.br/
[10] http://www.psy.aau.dk/bioelec/ (não disponível). Texto original: “...a 
method of investigation for biological objects, based on the interpretation 
of the corona-discharge image obtained during exposure to a high-
frequency, high-voltage electromagnetic field which is recorded either on 
photopaper or by modern video recording equipment. Its main use is as a 
fast, inexpensive and relatively non-invasive means for the diagnostic 
evaluation of physiological and psychological states”.
[11] "The Kirlian Aura, Photographing the galaxies of life”. Editado por S. 
Krippner e D. Rubin. Anchor press/Doubleday (1974)
[12] P. V. Bundzen, K. G. Korotkov, A. K. Korotkova, V. A. Mukhin, e N. 
S. Priyatkin Psychophysiological correlates of athletic success in athletes 
training for the olympics. Fiziologia Cheloveka (Human Physiology (in 
English) 3, 2005.
[13] P. O. Gagua, E. G. Gedevanishvili, L. G. Georgobiani, K G. Korotkov 
KG, S. A. Korotkina, G. G. Achmeteli, E. V. Kriganivski EV. 
“Experimental study of the GDV technique application in oncology”.
[14] "Espiritismo e Transcomunicação", Djalma M Argollo, Ed. Mnêmio 
Túlio 1994
[15] "Os Espíiritos comunicam-se por gravadores", Peter Bander, Col. 
Científica Edicel 4, 2a edição 1976.
Grupo de Estudos Avançados Espíritas
Ano 14 Número 503 a 506
30 de Novembro de 2005
http://www.geae.inf.br/pt/boletins/geae503.html
... Ademir L. Xavier Jr.
> A Informação na Estruturação Inteligente do Universo
Artigos
“Ora, como todo efeito inteligente há de por força derivar de uma causa inteligente, 
ficou evidenciado que, mesmo admitindo-se em tais casos, a interveção da eletricidade 
ou de qualquer outro fluido, outra causa a essa se achava associada .”
Allan Kardec [1]
---------------------------------------------------------------
1. Introdução
Quando falamos em materialismo, sempre nos lembramos das idéias que somente 
reconhecem a matéria como a única base essencial de constituição do universo. Tal 
como apreendemos com nossos sentidos, a matéria é algo bem delimitado no espaço e 
no tempo, algo que podemos sentir, apalpar, carregar, que impressiona nossos sentidos. 
Hoje, contudo, mesmo os materialistas mais ferrenhos são obrigados a aceitar que essa 
noção de matéria está longe de ser o constituinte exclusivo do Universo. A física 
demonstrou a importância de outros ingredientes dentre os quais destacamos a energia. 
Mas a energia é apenas uma forma diferente (dentro das teorias da física) de se 
caracterizar a matéria. Pode-se encontrar facilmente o equivalente "energético" de 
qualquer quantidade de matéria (definida por uma massa, densidade etc). Nesse texto, 
chamamos a atenção para um tipo de ingrediente que apenas recentemente (nos últimos 
60 anos) foi reconhecido como de importância fundamental na estruturação do mundo: a 
informação. Mas a informação é algo imaterial, portanto, já estamos longe das antigas 
proposições materialistas de que o Universo é constituído apenas do que podemos ver, 
ou ainda, daquilo que a ciência poderia medir através de seus aparelhos. Esse 
reconhecimento é um passo importante na direção da aceitação do ingrediente espiritual 
como o terceiro grande constituinte do universo. Aventuramo-nos aqui em imaginar que 
a informação é um importante parâmetro capaz de distinguir univocamente o grau de 
"vivificação" da matéria, isto é, quanto distante do estado "inanimado" ela se encontra. 
Um problema recente é a questão se é possível haver criação de informação a partir de 
sistemas puramente físicos (isto é, inanimados). Uma eventual resposta a essa indagação 
pode nos levar bem longe de onde estamos conceitualmente.
Antes, porém, de iniciar essa aventura, devemos examinar um pouco mais 
detalhadamente o significado do conceito de informação e de como ela se transmite de 
um sistema a outro. Os ingrediente básicos de um sistema de comunicação 
completamente geral podem ser representados como mostra a figura abaixo:
Fig. 1 Modelo simples de processo de comunicação aplicável a uma ampla gama de 
sistemas naturais ou artificiais.
O conteúdo da mensagem é algo imaterial que existe em princípio, na mente 
(Espírito). O transmissor é a unidade responsável pela transmissão da mensagem. Ela 
faz isso "codificando", isto é, escrevendo sob uma convenção pré estabelecida que pode 
ser lida por outros sistemas semelhantes. O meio ou canal de transmissão é o "medium" 
no sentido comum, isto é, o subsistema responsável por transmitir aquilo em que foi 
codificada a mensagem. O "Receptor" é uma unidade capaz de decodificar a mensagem 
e transformá-la em algo compreensível pelo "destino da mensagem". Esse modelo 
aplica-sea uma vasta quantidade de sistemas materiais como telefones (celulares ou 
fixos), transmissão de dados pela internet, comunicação falada etc. No caso de duas 
pessoas conversando o "meio" é o ar pois os sinais imateriais são transformados em 
ondas de pressão que emanam do transmissor e se propagam livremente pelo ar. No 
caso de comunicações feitas com sinais luminosos (p. ex. transmissão de sinais 
marítimos) o meio é a própria luz. 
Lembramos que esse modelo também aplica-se às comunicações mediúnicas. Nele 
identificamos o conteúdo da mensagem e seu impacto no destino como idéias impressas 
na mente dos Espíritos que enviam e dos que recebem as mensagens. O 
transmissor/receptor são os Espíritos envolvidos na comunicação, enquanto que o 
"meio" é o médium que serve de canal (o conjunto de equipamentos físicos colocados 
a disposição). A codificação da mensagem depende do tipo de mediunidade envolvida. 
Se for de efeitos físicos, a codificação obedece a simbologias convencionadas, a 
sistemas tiptográficos etc. Nas mediunidades já desenvolvidas de efeitos inteligentes, a 
codificação da mensagem se dá por mecanismos desconhecidos entre as mentes do 
médium e do Espírito comunicante. 
Fig. 2 Influenciação do ruído no processo de comunicação.
A Fig. 2 mostra exatamente como inserir ruído no modelo. Ruído é qualquer 
perturbação no processo de comunicação ou transporte de informação que leva a 
degradação do conteúdo da mensagem. O ruído atinge o canal de transmissão. 
Também as comunicações mediúnicas sofrem com ação do ruído (proveniente da 
própria mente do médium ou da ação de outros Espíritos) que obliteram o conteúdo da 
mensagem. Em sistemas artificiais (p. ex. comunicação celular), o ruído pode tornar o 
processo de comunicação inviável. Nesses casos pode-se falar em eficiência de 
transmissão de informação como função da razão entre a intensidade do ruído e a 
intensidade do sinal transmitido, a famosa relação sinal-ruído. 
2. Uma definição simples de informação
Todos nós temos noção primitiva de informação. Quando alguém nos faz uma pergunta 
que só requer um "sim" ou "não" estamos dispostos a passar um conteúdo informativo 
em relação à resposta equivalente a uma unidade primitiva de informação (conhecida 
como "bit"). Nessa forma muito simples, informação é um conceito passível de 
quantificação. Se desejamos saber se a luz do quarto está acesa ou não então são 
necessários apenas 1 bit para se adquirir a informação necessária. Semelhantemente, 
questões mais complexas requerem quantidades maiores de informação. Importa-nos 
aqui lembrar que a "informação" é algo invisível, não palpável, que se pode transportar 
de um lugar para outro independentemente do meio material (ou de qualquer meio 
imaginável). O reconhecimento do "status" independente da informação veio apenas 
recentemente. Informação é algo que se transfere de um lugar para o outro, que se 
armazena (logo ocupa volume), que se mede embora sempre relativamente. Podemos 
apenas falar em ganho ou perda de informação, nunca em um valor absoluto para o 
conhecimento informativo de acordo com essa definição primitiva.
As modernas teorias sobre processamento de informação (sinais) quantificam-na de 
tal forma que podemos falar de "pacotes" de informação. Assim para o conjunto de 256 
possibilidades de informação é utilizado a designação "bytes". Para quantidades maiores 
de informação adiciona-se os prefixos latinos de quantificação Kilo, Mega, Giga, etc 
para designiar respectivamente 1000, 1.000.000, 1.000.000.000 etc bytes de informação. 
Por que o número 256? Para isso é necessário considerar que a maior parte da 
quantificação da informação é feita por meio de uma base que requer sua representação 
na forma de respostas simples como "sim" e "não". Como só existem 2 respostas 
possíveis, o número 256 vem do número de possibilidades de resposta quando 
coexistem 8 "canais" de informação possíveis. Por exemplo, suponha que queiramos 
armazenar a quantidade necessária de informação necessária para saber que a luz da sala 
de uma casa está acesa e que a porta principal esta fechada. Nesse caso temos 4 
possibilidades conforme mostra a sequência abaixo:
1) A luz da sala está acesa e a porta está aberta;
2) A luz da sala está acesa e a porta está fechada;
3) A luz da sala está apagada e a porta está aberta;
4) A luz da sala está apagada e a porta está fechada.
Essas possibilidades são armazenas na forma de 2 bits pois podemos considerar cada 
uma das afirmação acima como tendo valor "falso" ou "verdadeiro" ("sim" ou "não"). 
Ora 4 é o resultado de se elevar 2 ao número de "perguntas" existentes (ou número de 
bits). Se fizessemos mais uma pergunta, por exemplo, se o cachorro na casa foi 
alimentado às 8 horas da manhã, teríamos 3 perguntas e, daí, o conteúdo de informação 
necessário para responter satisfatóriamente as 3 inquirições (3 bits) seria 3. Da mesma 
forma um gabarito do tipo "falso"/"verdadeiro" com 8 perguntas exige que tenhamos 
disponíveis 2^8 possibilidades = 256 ou 1 byte como afirmado acima, e equivalente 
portanto a 8 bits de informação. Bits e bytes tornaram-se unidades importantes na 
definição e tratamento de informação por sistemas digitais justamente porque 
computadores só trabalham fundamentalmente com a base falso/verdadeiro em suas 
estruturas internas. Note que a quantidade de informação diz respeito ao número de bits 
necessário para armazenar todas as possibilidades uma vez que as sentenças no caso 
acima tem respostas não dependentes. Se a resposta de uma já definisse a solução de 
outra, então o conteúdo seria obviamente menor.
Essas noções primitivas de informação (totalmente dependentes do tipo de sinal 
utilizado para armazená-la) foram formalizadas por Claude Shannon em 1940 através de 
um formalismo conhecido como "Teoria da Informação" (também chamada "Teoria 
clássica da Informação") [2]. O nome “informação” aqui está mal empregado pois a 
teoria de Shannon é, de fato, uma teoria sobre sinais uma vez que o conteúdo 
informativo da “informação de Shannon” não é importante. O objetivo principal da 
teoria da informação era fornecer subsídios teóricos para o desenvolvimento de uma 
teoria geral de comunicações frente a agentes externos de atenuação de sinal e ruído. 
Essa teoria finalmente acabou constituindo-se no arcabouço fundamental dos modernos 
sistemas digitais e de comunicação "wireless" ou com fio (telefonia celular, redes de 
computadores etc). A informação definida segunda a equação (por Shannon) onde log² é 
o logaritmo na base 2 e N é o número de possíveis resultados ou símbolos. É um 
conceito puramente quantitativo que se presta mais a determinação da quantidade de 
espaço de memória necessário para se armazenar um determinada quantidade de dados. 
No caso do questionário com 8 questões, existem 256 possibilidades (N=256), logo I=8 
bits. 
Para o cômputo dessa quantidade de memória, é irrelevante o tipo de informação, muito 
menos ainda a qualidade da mesma. Dada duas sentenças:
1) AXGKP TOFFZAXXTAB OPPQ
2)BEATI PAUPERES SPIRITUS
Qual delas tem um significado mais familiar? Certamente a segunda que é a versão 
latina de "Bem aventurado os pobres de espírito". Para o conceito de quantidade de 
informação de Shannon, as duas sentenças tem o mesmo status, pois correspondem a 
mesma quantidade de informação. Assim não existe conexão alguma entre esse conceito 
de informação e a qualidade da mesma entendida como conhecimento. Mas a definição 
de Shannon é útil pois correponde ao que poderíamos chamar de primeira camada ou 
nível de descrição da informação (nível estatístico). Nesse nível, não existe sintaxe nem 
semântica. Fala-se apenas na probabilidade de uma determinada letra do alfabeto ou 
símbolo aparecer. Para simplificar, consideremos o alfabeto formado pelas seguintes 
letras:
a b c d e f g h i j k l m n o p q r s t u v x y w z " "Onde " " representa o espaço em branco. Em uma primeira análise, se quisermos enviar 
uma mensagem escrita em um idioma que use esses símbolos, podemos falar que há 
probabilidade 1/26 de que a primeira letra da mensagem seja qualquer uma daquelas 
acima relacionadas. Dessa forma precisamos de 
I = - log2 (1/26) = 4.7 bits de informação/símbolo
para enviar uma mensagem com esse alfabeto. Isso é, para cada letra. Para uma palavra 
com 5 letras seria necessário 5 x 4.7 = 23.5 bits de informação e assim sucessivamente. 
Note que não interessa para essa idéia quantitativa de "informação" se a mensagem 
formada pela seqüência de 5 símbolos representa a palavra "logos" ou "xksiw", o 
conteúdo informativo nos dois casos é o mesmo. O que diferencia um idioma de outro 
(além do grupo de símbolos que representa a mensagem) é algo imaterial, que não se 
pode quantificar através da informação de Shannon. O máximo de diferenciação 
mensurável por I está embutido na distribuição de probabilidades de ocorrência desses 
símbolos. (mas os idiomas se diferenciam antes pelos símbolos que usam). Por 
exemplo, na lingua inglesa a probabilidade de a letra "h" suceder a letra "t" é muito 
grande, pois há várias palavras com o sequência "th" (como no artigo "the" ou em 
"thanks") . Do mesmo modo, no português, a probabilidade de a letra "a" suceder "ç" é 
grande e, nessa ocorrência, é grande também a chance de aparecer a letra "o" (como em 
"ação"). Assim o cálculo exato da quantidade de informação para suprir uma 
definciência de memória no armazenamento de uma mensagem não é simples de se 
fazer .As probabilidades funcionam como pesos estatísticos e cada idioma tem sua 
distribuição própria. Na ocorrência de dois idiomas que utilizem o mesmo conjunto de 
símbolos, é possível reconhecer o idioma simplesmente calculando-se a distribuição de 
ocorrência de letras, mas isso é tudo que podemos extrair do conceito de informação de 
Shannon que é largamente utilizado nas ciências da computação. 
3. Examinando de perto o processo de transmissão de informação. Computadores 
como manipuladores de sinais.
A transmissão de informação de um sistema a outro (utilizando o conceito de Shannon) 
pode ser descrita de maneira muito simples, e é relevante para o que discutiremos 
posteriormente. Nosso objetivo é compreender claramente a informação genuína como 
um dos atributos de um sistema inteligente; algo que é por ele gerado e manipulado, 
embora o conceito de informação que utilizamos aqui não leve em consideração o 
conteúdo da mensagem. Veremos que onde há informação há inteligência, embora seja 
possível criar sistema aparentemente inteligentes pelo fato de poderem manipular 
informação.
Consideremos inicialmente dois sistemas idênticos. O que os diferencia além de suas 
características próprias? Usemos o exemplo anterior, a casa com a sala e a porta. Duas 
casas idênticas com a mesma sala e porta diferem entretanto pelo estado em que se 
encontra a lâmpada da sala (se acesa ou apagada) e a porta (se aberta ou fechada). 
Nessas duas casas idênticas aquela em que conhecemos o estado da lâmpada e da porta 
é a casa com maior conteúdo de informação simplesmente porque, para descrever 
qualquer outro aspecto da casa, precisamos de menos informação com essa casa do que 
com a outra sobre a qual nada sabemos. De outra forma, podemos também dizer que no 
caso da primeira casa (que sabemos a luz estar acesa e a porta fechada) nossa ignorância 
é menor do que no caso da segunda casa. Note-se que o conteúdo da informação está 
contido na sequência de perguntas e suas respectivas respostas. 
Examinemos agora detalhadamente o processo de comunicação. A figura abaixo 
representa uma versão simplificada de um processo desse tipo com os componentes da 
fig. 1.
Fig. 3 Comunicação como acréscimo de conteúdo informativo.
Uma mensagem (constituída por uma seqüência de símbolos) é enviada pelo 
transmissor para o receptor. Não importa aqui qual o tipo de processo (se eletrônico, 
sonoro, luminoso, mediúnico etc). Toda vez que um símbolo é percebido pelo receptor 
seu conteúdo de informação "aumenta" exatamente de I (usando o alfabeto anterior 
como exemplo, esse ganho de informação é de aproximadamente 4.7 bits para cada 
símbolo). Uma outra medida é utilizada pela teoria da informação para quantificar o 
conteúdo informativo de uma mensagem. Essa medida é conhecida como Entropia e é 
definida simplesmente como a média ponderada pelos pesos estatísticos da quantidade 
de informacão:
Entropia de informação = <I>= - ( p1*log2 p1+p2*log2 p2+...+pN log2 pN ) 
onde p1, p2, .. , pN são os pesos de cada símbolo. A entropia de informação definida 
dessa forma é uma quantidade que cresce com o número de símbolos usados para 
codificar a mensagem. Cresce também com o tamanho da mensagem e, como no caso 
da informação de Shannon, não serve para mensurar o conteúdo sintático de uma 
mensagem, muito menos seu conteúdo tal como os seres humanos internamente o 
compreendem.
No processo de comunicação descrito pela Fig. 3, não explicitamos a origem da 
informação. Consideremos inicialmente que essa origem seja “inteligente”. Imaginemos 
que o processo seja interceptado por um sistema mecânico (autômata) que possa 
acrescentar ou modificar a seqüência de símbolos original. A fig. 4 ilustra o processo 
modificado por esse agente externo. 
Fig. 4 Processo de comunicação interceptado por um autômata.
O autômata é capaz de acrescentar símbolos à seqüência original de forma 
independente. Isso ele faz recorrendo a um banco de símbolos que permite a reprodução 
infinita de qualquer tipo de símbolo pertencente ao alfabeto convencionado pelo 
processo de comunicação. Além disso para uma dada seqüência de símbolos, a ordem 
ou disposição pode ser artificialemente modificada por uma seqüência de comandos 
lógicos chamados “algoritmos”. Não importa para nós aqui a origem dos algoritmos 
(embora sabemos que sua construção obedece a regras dos seres humanos). Chamamos 
a atenção com o processo modificado de comunicação da Fig. 3 que o autômata pode 
aumentar arbitrariamente o conteúdo informativo da mensagem original somente no 
sentido da teoria da informação de Shannon que não leva em consideração o significado 
da mesma para o destino último da mensagem. Afirmamos explicitamente: não importa 
a complexidade, grau de manipulação dos “algoritmos” previamente programados no 
autômata, qualquer que seja a natureza e resultado do conjunto de instruções o conteúdo 
verdadeiramente informativo da mensagem original não é aumentado. Isso vale para 
qualquer tipo de autômata. De fato, podemos representar o conjunto de operações sobre 
cada bit original como a aplicação de uma função genérica G(u) onde u é bit de entrada: 
Para a sequência original: u1, u2, u3 de símbolos pertencentes ao alfabeto, o resultado 
final é G(u1), G(u2), G(u3), ...até o último bit enviado. Em particular o processo de 
“comunicação” do receptor final com o autômata pode ser descrito para uma seqüência 
de entradas nulas. Assim sendo, não existe comunicação no sentido genuíno de troca de 
informação do autômato para com o receptor final suposto inteligente (embora esse 
último possa ter a impressão de que isso ocorra de fato). 
Longe de gerar informação, computadores são sistemas que apenas conseguem 
manipular ou gerar sinais baseados em algoritmos. Todo o conteúdo aparentemente 
inteligente (cognitivo) das mensagens ou da manipulação de informação por 
computadores advém da inteligência (Espírito) dos seres humanos que os programaram.
4. Informação e o princípio inteligente.
Nosso principal problema é a inexistência de uma definição suficientemente abrangente 
para a idéia de informação. Podemos entretanto definir alguns de seus atributos. Para 
isso baseamo-nos em considerações do matemático Wernher Gitt [3]. Ele descreve esses 
atributos do processo de transmissãode informação em cinco camadas:
1- Estatística: referente ao número e probabilidades de ocorrência de símbolos ou sinais 
com uma linguagem previamente estabelecida para realizar o processo de comunicação. 
É o nível de descrição de Shannon como vimos anteriormente;
2- Sintaxe: referente ao seqüenciamento dos símbolos formando palavras e frases. 
Dependendo da ordem com que são transmitidos, um conjunto de símbolos podem 
formar palavras diferentes. Como vimos nem essa seqüência é importante na teoria dos 
sinais de Shannon;
3- Semântica: que diz respeito ao significado das palavras. Pelo fato de o nível 
semântico ser de caracterização quantitativa inexistente, o preço dos telegramas só 
depende da quantidade de símbolos (palavras) que ele porta e não de seu conteúdo;
4- Pragmática: que diz respeito à intenção do transmissor com o conteúdo informativo 
da mensagem e seu impacto no receptor. A fim de que o receptor tenha determinada 
reação, o transmissor reveste sua informação de conteúdo pragmático
5- Abobética: nível último representado pelo objetivo da mensagem. A abobética tem a 
haver com o objetivo último do transmissor em enviar a informação no processo de 
comunicação. Segundo Witt os dois últimos níveis se confundem várias vezes. Abrimos 
um parêntese aqui para salientar o valor abobético das mensagens dos Espíritos 
superiores. Longe de representar simples estórias contadas com o objetivo de 
entretetimento, as mensagens verdadeiramente instrutivas são carregadas de conteúdo 
moral e tem o objetivo de educar eticamente os receptores. Além do nível abobético 
poderíamos acrescentar um outro nível superior quando o conteúdo da mensagem 
comunicada não é suficiente para representar completamente o objetivo do transmissor 
e impacto real sobre o receptor. Falamos do conteúdo das mensagens criptografadas que 
fazem parte desse nível. Essas são mensagens que devem ser re-interpretadas por um 
código a fim de que seu conteúdo seja compreendido. Outros exemplos podem ser 
encontrados na linguagem poética e metafórica, onde a mensagem original só é 
plenamente compreendida quando comparada pelo receptor a um conjunto de culturas e 
conhecimentos (tácitos) não carregados em princípio pela mensagem original.
Que Kardec utilizou essas propriedades na caracterização das mensagens mediúnicas 
não resta dúvida. Examinemos, por exemplo, o parágrafo 66 de “O Livro dos Médiuns” 
no Capítulo III, “Das manifestações inteligentes”:
“Para uma manifestação ser inteligente, indispensável não é que seja eloqüente, 
espirituosa, ou sábia, basta que prove ser de um ato livre e voluntário, exprimindo uma 
intenção, ou respondendo a um pensamento. Decerto, quando uma ventoinha se move, 
toda gente sabe que apenas obedece a uma impulsão mecânica: à do vento; mas, se se 
reconhecem nos seus movimentos sinais de serem eles intencionais, se ela girasse para a 
direita ou para a esquerda, depressa ou devagar, conforme se lhe ordenasse, forçoso 
seria admitir-se, não que a ventoinha era inteligente, porém, que obedecia a uma 
inteligência. Isso o que se deu com a mesa.”
Muito além de seu tempo, Kardec soube caracterizar as propriedades superiores das 
mensagens de conteúdo informativo inteligente que hoje é largamente utilizada na 
pesquisa por sinais inteligentes vindos do espaço ou na análise do processo de 
comunicação dos animais. De acordo com esses cinco níveis (que levam em conta a 
intenção do comunicante), podemos excluir a grande classe de sistemas naturais 
mecânicos (físicos) como geradores de informação. É o que Kardec diz quando utiliza 
do exemplo da ventoinha. No máximo tais sistemas gerariam sinais no nível estatístico 
sem significado. Por outro lado, a Natureza está cheia de criaturas capazes de se 
comunicar nos cinco níveis descritos acima. Sabemos que os animais se comunicam 
(consideremos as linguagens químicas das formigas ou o canto das baleias), logo trocam 
informação. O processo de comunicação nesses seres se dá muito de acordo com o 
modelo da Fig. 1 e nos cinco níveis descrito, onde podemos identificar cada um dos 
elementos da cadeia comunicativa. Machos de várias espécies de pássaros cantam para 
as fêmeas para chamar a atenção ou para reinvidicar território (um exemplo de 
comunicação até o nível pragmático). Mesmo com as plantas - embora muito 
limitadamente - há comunicação (consideremos os fenômenos de polinização com o 
esforço das flores em se tornarem atraentes aos insetos). Visto pura e simplesmente do 
ponto de vista do que temos discutido aqui, os seres humanos (Espíritos encarnados) 
podem ser vistos como seres vivos capazes de transformar energia química em 
informação. Essa definição é amplamente aceita na comunidade acadêmica (embora 
haja divergências quanto ao significado do termo informação) pois corresponde 
exatamente aos fatos. O problema aqui é saber onde está a origem da informação. Como 
vimos, depois de eliminar os sistemas mecânicos (o que inclui sistemas químicos ou 
bioquímicos reduzidos aos seus componentes atômicos), o que nos sobra? 
Informação como fonte no princípio inteligente: somente o espírito, tendo como 
atributo o princípio inteligente, é capaz de gerar, armazenar e manipular a informação 
que só pode ser compreendida cognitivamente por outra entidade que disponha desse 
mesmo atributo.
Em outros termos propomos que a origem de toda informação, tal como descrita em 
seus atributos pelos níveis estatístico, sintático, semântico e abobético, está no espírito. 
Obvimente por “linguagem” não nos restringimos exclusivamente às representações 
gráficas e fonéticas de símbolos que nós, Espíritos encarnados em evolução, inventamos 
para facilitar o processo de comunicação. Seres considerados inferiores, mas que 
dispõem de princípio inteligente, comunicam-se por linguagem que podemos considerar 
primitiva (códigos químicos ou bioquímicos), o que propomos como uma evidência de 
sua natureza espiritual. A Natureza bruta não gera informação. Como Kardec na sua 
análise das manifestações inteligentes, hoje podemos dizer que forçoso é admitir-se, não 
que a matéria nesses casos seja inteligente, mas que obedeçe a uma inteligência. Essa 
inteligência é um atributo do Espírito.
5. Algumas considerações
Exobiologia.
Há um debate recente sobre a possibilidade de se descobrir vida inteligente em outros 
planetas para além de nosso sistema solar. Sabemos que a Doutrina Espírita previou 
com grande antecedência essa possibilidade. Atualmente, um programa de pesquisa 
bastante audacioso [4] está em andamento visando detectar vida extraterrestre 
totalmente baseados em sinais de rádio. A parte do problema de escolha de canal de 
transmissão, para que sejam aceitos como prova da existência dessas civilizações, esses 
sinais devem satisfazer um conjunto de critérios que passam pela análise da verificação 
dos atributos descritos na parte 4. A grande maioria dos sinais detectados via rádio 
obedecem padrões meramente estatísticos, isto é, não se caracterizam como sinais 
inteligentes pois são geradas por fontes naturais (estrelas, nuvens interestelares etc). 
Para que o sejam devem ter um objetivo contido na própria mensagem. Reconhe-se 
assim o caráter não físico das mensagem genuinamente inteligentes. 
Biologia. 
A biologia moderna descobriu que a chave para a estrutura dos seres vivos está no 
código genético. O DNA ou RNA são longas cadeias moledulares que descreveriam 
bioquimicamente os constituintes últimos dos seres vivos. O código genético é uma 
molécula com conteúdo altamente informativo (do ponto de vista da informação de 
Shannon, o DNA humano contém mais informação que todos os livros já editados na 
Terra). Um debate recente tem acontecido na comunidade acadêmica sobre a origem 
dessa cadeia. Já se calculou corretamente que a probabilidade de os átomos do DNA 
humano apresentarem seu arranjo característico por mera chanceser ínfimo. Isso deu 
origem a clamores recentes por parte dos neocriacionistas [3] de que a estrutura do 
DNA ter sido “dada por Deus”. Os opositores, baseados em modelos computacionais, 
puderam mostrar que essa sequência poderia ter sido gerada por chance se esta fosse 
assitida por algum mecanismo externo. De uma maneira muito simplificada imagina-se 
que a Natureza tenha uma função resposta que resulta em pesos altos caso a chance vá 
na direção correta (embora não se especifique quem seja o responsável por especificar 
qual seja essa direção). De maneira geral acredita-se que mecanismos de evolução das 
espécies, mutações e seleção natural tenham sido os responsáveis ao longo do tempo 
pela forma final da molécula. 
De nossa parte acreditamos que o argumento de “dada por Deus” é naturalmente válido 
pois Deus é a causa primária de todas as coisas. Porém podemos imaginar que o DNA 
represente hoje uma espécie de “documento material” que ateste o processo de evolução 
conjunta (através dos milhares de anos) do princípio espiritual com a matéria. Assim a 
origem do conteúdo informativo da molécula DNA e de outras proteínas importantes no 
metabolismos dos seres seria o próprio princípio espiritual em sua viagem de evolução 
ao longo de múltiplos renascimentos na matéria. Essa proposição parece ser atestada por 
muitos autores espirituais [5].
A física desbancada?
O reconhecimento da importância da informação no Universo (assim como a matéria e a 
energia) e sua origem no princípio inteligente é um profundo golpe no reducionismo 
que previa ser possível reduzir todo nosso conhecimento das ciências às interações 
físicas entre seus constituintes. Mostra também que a descrição da “matéria viva” não 
pode ser feita baseando-se exclusivamente em princípios mecânicos ou quanto-
mecânicos. Sistemas auto-organizáveis [6] têm sido propostos como modelos para a 
matéria viva, entretanto, à luz do que estamos expondo, esses sistemas são meros 
geradores de ordem (diminuição da entropia por serem sistemas abertos longe do 
equilíbrio) e não de informação. Essa conclusão pode ser revista no futuro pois o 
problema da origem da informação só muito recentemente recebeu atenção devida e não 
faz parte do programa normal de pesquisa da física. 
6. Nota conclusiva.
Isso posto concluímos que o princípio utilizado pelo codificador da Doutrina Espírita, 
Allan Kardec, que viu uma causa inteligente nas mensagens inteligentes [1] e com isso 
descobriu a origem não material das inteligências por detrás das mensagens pode ser 
expandido para toda a Natureza. Ousamos dizer que se a origem das comunicações 
mediúnicas foi atestadamente demonstrada como tendo origem em inteligências 
incorpóreas, então, muito provavelmente, a origem de toda informação com conteúdo 
verdadeiramente cognitivo não pode ser atribuída à matéria. Isso se extende a todos os 
fenômenos existentes que podemos classificar como tendo um objetivo ou inteligência. 
Referências
[1] O Livro dos Médiums, Parágrafo 65, Capítulo III, Das manifestações inteligentes. 
54ª Edição da Federação Espírita Brasileira, Tradução de Guillon Ribeiro. Ver também 
Ref. [7] “Prolegômenos”. 
[2] C. E. Shannon, ``A mathematical theory of communication,'' Bell System Technical 
Journal, 27, pp. 379-423 and 623-656,. Julho e Outubro de 1948.
[3] Werner Gitt “Information, science and biology”. Publicado em Technical Journal 10 
(2): 181-187. Agosto de 1996.
[4] Ver www.seti.org (SETI - “Search for Extraterrestrial Inteligence”). “The mission of 
the SETI Institute is to explore, understand and explain the origin, nature and 
prevalence of life in the universe.” A missão do intituto SETI é explorar, compreender e 
explicar a origem, naturesa e prevalência de vida no Universo.
[5] André Luiz, Evolução em Dois Mundos, Cap. VII, “Evolução da Hereditariedade”, 
4ª edição. Federação Espírita Brasileira (1977).
[6] Ver Press Release: The 1977 Nobel Prize of Chemistry (nobelprize.org). Nota para a 
imprensa sobre o prêmio Nobel de 1977 concedido a Ilya Prigogine por suas 
colaborações em termodinâmica fora do equilíbrio e estruturas dissipativas. 
[7] A Kardec, O Livro dos Espíritos, Tradução de Guillon Ribeiro, 71ª edição. 
Federação Espírita Brasileira (1991).
http://www.geae.inf.br/pt/boletins/geae485.html
... Ademir L. Xavier Jr.
> O que a Genética e a Astrologia tem em comum?
Artigos
Resumo
Ainda que distantes em importância na sociedade moderna, algumas extrapolações de 
pensamento por detrás das modernas pesquisas genéticas e da velha astrologia têm 
muito em comum. Fazemos aqui uma comparação entre essas diferentes disciplinas e 
analisamos tais características comuns segundo a visão espírita, apontando a causa 
dessa situação[1]. 
1. Introdução
É muito comum encontrarmos hoje em dia discussões sobre as questões da 
consciência, sobre como a mente se estabelece e opera. Esse renovado debate 
(encontradas em respeitadas revistas de divulgação científica) reflete o grau crescente 
de interesse de alguns ramos do conhecimento científico com relação às questões do 
espírito. O ponto de vista subjacente que orienta as discussões ainda é materialista, 
apoiado principalmente por um grande contingente de biologistas (evolucionistas, 
fisiologistas, zoólogos, geneticistas etc). A crença geral desses grupos sustenta que a 
mente humana – e, como conseqüência toda individualidade humana – é o resultado de 
interações e conexões de entidades moleculares componentes da parte material, visível 
ou mensurável pelas técnicas de diagnóstico moderno, o cérebro. Não discutiremos aqui 
as difíceis propostas de modificação dessa concepção materialista, que têm sido 
levantadas mesmo dentro de círculos acadêmicos[2]. Tomemos apenas a idéia 
materialista descrita acima e analisemos suas conseqüências para o homem, dentro do 
âmbito de algumas especulações a partir de partes da biologia, em particular a que trata 
dos mecanismos de perpetuação das espécies. 
Esse posicionamento adquire grande interesse popular diante das aventadas 
extrapolações e implicações da genética. Através de seus princípios, a genética teve 
grande importância no esclarecimento dos mecanismos de aparecimento e 
desenvolvimento das espécies, fatos que não estavam tão claros na obra revolucionária 
de Charles Darwin de 1859, “Sobre a origem das espécies por meio da evolução 
natural”. Na verdade a comunidade científica da época dobrou-se às evidências práticas 
fornecidas por Darwin a favor da seleção natural que ele conseguiu junto à 
paleontologia e a biogeografia. Em contrapartida, o desenvolvimento posterior da teoria 
de Darwin dinamizada pela genética deu origem a diversas especulações em torno da 
natureza do homem (e das espécies humanas), de seu mecanismo de desenvolvimento e 
até mesmo de suas conseqüências éticas. Nasceu a idéia de que os genes (entidades no 
limite entre o muito pequeno e o atômico) seriam responsáveis não só pelos caracteres
morfológicos de um ser vivo – que é princípio na genética – mas também de toda sua 
bagagem comportamental. Aplicada ao homem, essa forma radical de interpretação 
genética adquiriu enorme força na forma da “sociobiologia” ou “darwinismo social”. 
Foram lançados então os fundamentos para o desenvolvimento de um doutrina dentro 
das disciplinas consideradas científicas, que seria capaz de explicar completamente o 
indivíduo. A base de tal proposta seria a lei de perpetuação de um determinado gene 
como determinante de uma certa característica – seja morfológica ou comportamental 
mas principalmente esta última quando trouxesse vantagens claramente desejáveis a 
toda espécie. A perpetuação do gene favoreceria diretamente a perpetuação da própria 
espécie. Como corolário desse princípio (que é válido para os caracteres morfológicos), 
seria possível alterar o comportamento dos indivíduos pela manipulação genética.

Continue navegando