Baixe o app para aproveitar ainda mais
Prévia do material em texto
... Ademir L. Xavier Jr. > Doutrina Espírita e as chamadas Ciências Ordinárias Artigos As fronteiras de contato entre a Doutrina Espírita e as chamadas ciências ordinárias são compreensivelmente amplas, a demonstrar a existência de um enorne potencial para trabalhos futuros. Entendemos, porém, que o Espiritismo guarda uma firme independência em relação a interpretações desta ou daquelas teorias em voga, em parte porque os rumos que as ciências tomam estão constantemente a se alterar, seja diante de novos fatos experimentais ou da proposição de novas teorias. O Codificador da Doutrina Espírita, Allan Kardec, com admirável sabedoria – mesmo para os dias de hoje – soube muito bem separar a Doutrina Espírita do estado do conhecimento científico de sua época. Tivesse ele tomado o caminho inverso, de há muito o Espiritismo teria sucumbido. O Espiritismo trata em sua essência do elemento espiritual. É seu objetivo fornecer a nós, Espíritos encarnados em diferentes graus de entendimento, uma visão suficientemente coesa da vida além túmulo para que possa sustentar os objetivos maiores da Doutrina que é a reforma – ainda que tardia – do espírito humano em suas manifestações morais. O Espiritismo parece ter sido feito para os que não se satisfazem com explicações sustentadas em autoridade ou tradição religiosa. Mas para os que entendem a essência do pensamento espírita, essa visão certamente é imperfeita, na medida que virá a ser completada ou suprimida em futuro que hoje ninguém poderia precisar com certeza absoluta, da mesma forma que as descrições da ciência são revistas quase que a cada minuto. O debate que se pode estabelecer entre disciplinas com objetivos diferentes como é o caso do Espiritismo e da Física, por exemplo, deve acontecer sempre tendo-se em mente que apenas marginalmente seremos capazes de manipular os conceitos fundamentais em ambos os lados. Do nosso ponto de vista esse debate satisfaz mais ao intelecto, que se acostumou – porque foi treinado na área – a lidar com idéias e jeito de pensar das ciências ordinárias, onde tais conceitos tem alto grau de flexibilidade. Preocupa-nos porém a utilidade desse debate para os que não tem esse treinamento. Nesse caso, como soarão em seus ouvidos a descrição dessas extrapolações ou novas interpretações? Parecem ecoar muito mais absolutas, por isso mesmo despertando vivo interesse que, às vezes, torna-se exagerado e contraproducente. Por isso que, nós no Conselho Editorial do Grupo de Estudos Avançados Espíritas - GEAE, procuramos ter o cuidado de revisar com os autores a exposição dessas idéias não com o objetivo de censurar, mas muito mais seguindo os moldes das revistas científicas onde as idéias – antes de serem publicadas – passam por um processo de revisão (as vezes muito lento) que pode inclusive concluir pela impossibilidade de publicar o texto nos Boletins. Essa revisão, necessariamente, leva em conta nossa linha editorial, como exposta no FAQ do grupo, que se preocupa principalmente com a necessidade de promovermos o estudo fraterno da Doutrina sem entrarmos em polêmicas improdutivas ou cairmos em disputas pessoais. Gostaríamos assim de sugerir a todos os autores que se propõem a escrever sobre a relação Espiritismo X Ciência que atentem principalmente para os objetivos de seus trabalhos, assim como para o impacto que terão frente ao público que não está familiarizado com a terminologia técnica e com a flexibilidade das concepções científicas como discutimos acima. Pedimos que – tanto quanto possível - tais textos sejam escritos em linguagem acessível, pedagógica, que tenham um foco e que sejam plenamente embasados na concepção maior de que as ciências ordinárias estudam o princípio material, enquanto que o Espiritismo trata do princípio espiritual. Que procurem chamar a atenção para a alta dependência das idéias científicas de suas teorias e que guardem zelo pela Doutrina – como a única que temos haja vista não existirem provas de que ela hoje tenha que ser suplantada por uma outra. http://www.geae.inf.br/ Muita paz, Ademir L. Xavier Jr ... Ademir L. Xavier Jr. > Vendo o Invisível Artigos Uma revisão rápida de alguns métodos de se observar o que não é acessível aos sentidos comuns Resumo Durante séculos, os homens sonharam em observar o invisível, em ter acesso a coisas ocultas, em devassar aquilo que aparentemente estaria fora do alcance dos sentidos comuns. Entretanto, a evolução natural da Ciência mostrou que há fenômenos que nunca podem ser captados por nossos sentidos ordinários, mas que podem se tornar tangíveis por meio de transdutores ou meios especiais. O papel desses meios é de ser um intermediário entre o fenômeno e os sentidos comuns. Nesse texto fazemos uma revisão comentada de alguns métodos de observação do invisível (a partir de exemplos da física). Em particular, analisamos em detalhes o fenômeno das fotos Kirlian. Obviamente essa discussão também pode trazer subsídios ao futuro da pesquisa espírita experimental como discutido na conclusão deste texto. Contéudo 1 - Introdução classificatória dos fenômenos naturais 2 - Acessando o "imponderável" 3 - Radiações invisíveis (causas materiais) · Raio X · Ondas de Rádio 4 - Fenômenos limiares (causas materiais) · Câmara de Nuvens · Câmera Schlieren · Câmera Kirlian 5 - Comentários finais 6 - Referências 1 - Introdução classificatória dos fenômenos naturais O universo que vivemos é um tecido de fenômenos distintos, muitos deles cíclicos, outros esporádicos. Da grande classe de fenômenos existentes descobriu-se, ao longo do progresso da ciência, que apenas uma parcela ínfima deles é acessível à observação comum. Podemos dividir os fenômenos, quanto à acessibilidade pelos sentidos ordinários em grandes classes: · Fenômenos observáveis pelos sentidos comuns, faceis de se observar, cíclicos, facilmente previsíveis e de grande impacto: por exemplo, eclipses do sol, da Lua, a passagem e o fluxo das coisas da Natureza mais próxima - são o grupo de fenômenos que forma nossa vizinhança comum e de onde extraímos nossas principais experiências de vida; · Fenômenos observáveis pelos sentidos comuns mas no limiar da resolução de captação desses sentidos. Por exemplo, o ruído dos morcegos (a freqüências sonoras muito altas - acima de 20KHz, mas modulados de forma a serem parte audíveis); fenômenos celestes no limite de acuidade visual; · Fenômenos observáveis mais muito raros e aperiódicos: são aqueles que se podem acessar pelos sentidos mas que contam com reduzidas testemunhas. Por exemplo, os famosos "raios em bola" [6] - descargas atmosféricas em forma de esferas que surgem durante as tempestades. Outro exemplo é a queda de meteoritos. Em geral, esses fenômenos são de difícil descrição teórica justamente porque não ocorrem sempre, por isso a aceitação geral deles é tardia ou limitada; · Fenômenos não observáveis pelos sentidos comuns e cíclicos. A imensa maioria dos fenômenos naturais encontra-se nessa classe: emissão de ondas de raio, raios X pelo Sol, estrelas e corpos celestes, o ruído em infrasom dos insetos, os ruídos supersônicos além do limiar audível, radiações e partículas invisíveis que banham a Terra vindas do espaço ou de corpos radioativos; · Fenômenos não observáveis pelos sentidos comuns e aperiódicos. São os fenômenos mais difíceis aparentemente. A ciclicidade dos fenômenos está fortemente ligada as causas dos mesmos. Em geral, fenômenos cíclicos tem causas concebivelmente simples: o farfalhar das folhas de uma árvore se deve a ação do vento, a mudança das estações à mudança da altura aparente do sol ao longo do ano etc. Já os fenômenos aperiódicos são de mais difícil explicação. Fenômenos não acessíveis aos sensos comuns, aperíodicos e raros formariam a classemais difícil de teorização. Os fenômenos espíritas pertencem a classe dos fenômenos não acessíveis aos sentidos comuns, aperiódicos mas não raros. Estão fora do alcance dos sentidos ordinários (ainda que possam ser acessados por um aperfeiçoamento desses sentidos - a mediunidade) mas sua aciclicidade não se deve a uma causa necessariamente complexa mas sim inteligente. A fig. 1 mostra um quadro resumo dos tipos existentes de fenômenos segundo essa classificação Fig. 1 Esboço de uma classificação geral dos fenômenos naturais segundo a acessibilidade aos sentidos ordinários, freqüência de ocorrência e causa. 2 - Acessando o "imponderável" O fato de um determinado fenômeno tornar-se acessível por meio de uma transformação natural (por exemplo, numa reação química entre dois reagentes incolores produzindo um outro com uma cor muito viva) ou de um dispositivo intermediário - um médium - cerca o executor da operação ou o próprio dispositivo de uma aura de mistério. Isso porque, muitas vezes, a teoria por detrás do fenômenos é desconhecida. Sabemos que grande parte do conhecimento científico está na forma teórica - o que significa que fenômenos devem estar harmonicamente ligados às teorias que os pretendem explicar. Assim sendo, abrir os sentidos humanos a esses fenômenos (aqueles de difícil aceitação por interagirem fracamente com nossos sentidos) também abre perpectivas teóricas antes inimagináveis pois, muitas vezes, esses fenômenos inacessíveis são regidos por leis particulares distintas dos fenômenos ordinários. A história das ciências está repleta de muitos exemplos nesse sentido. De modo geral, todos os fenômenos ou ocorrências não ordinárias (para além dos limites sensoriais), para se tornarem conhecidos, envolvem algum tipo de meio ou sistema intermediário que é responsável por acessar diretamente os sentidos humanos. E não poderia ser de outra forma uma vez que nosso vínculo com o mundo externo está ligado exclusivamente a posse desses sentidos (fig. 2). As teorias científicas devem não só explicar os fenômenos naturais mas também prover subsídios para que possamos compreender como tais fenômenos podem influenciar nossos sentidos (quais os meios para isso, ainda que indiretos). De acordo com a Fig. 2, podemos ver que não temos acesso diretamente aos fenômenos, mas sim aos sinais por eles gerados. Nesse processo de transmissão de sinais, há obviamente interferências externas e atenuações que modificam o quadro aparente dos fenômenos para o observador. Assim sendo, para "acessar o imponderável" precisamos de um dispositivo ou meio que faça a conversão entre os sinais característicos da ocorrência "não-sensorial" e os nossos próprios sentidos. Precisamos, antes disso, de uma ciência que nos permita entender como isso é possível. Analisemos brevemente aqui o mecanismo de alguns desses dispositivos - com origem material - para depois inferir regras gerais para a busca e pesquisa dos fenômenos espíritas em particular sobre a possibilidade de se dispensar o mecanismo humano - os médiuns com instrumentos por excelence da pesquisa espírita. Para tanto vamos examinar resumidamente a descoberta de algumas radiações e o mecanismo de funcionamente de dispositivos que servem à pesquisa da matéria que não impressiona os sentidos ordinários mostrados na Fig. 2. 3 - Radiações invisíveis (causas materiais) Raio X A 8 de Novembro de 1895, o professor alemão Wilhelm Conrad Röntgen (1845-1923), enquanto trabalhava em seu laboratório em Wurzburg, prestou atenção a irradiações luminosas que partiam de uma tela emulsionada com platinocianeto de bário, todas as vezes que ligava um dos seus "tubos de Crookes", um dispositivo de raios catódicos inventado por William Crookes (1832-1919). A tela estava localizada longe do tubo e sempre reluzia ainda que qualquer outro objeto fosse colocado na linha que a ligava ao tubo. Röntgen foi capaz de mostrar a propriedade de penetração desses raios, fornecendo ao mundo a primeira "radiografia" e um método eficaz de pesquisa médica e física. A descoberta de Röntgen foi totalmente acidental pois os raios emitidos pelo tubo de Crookes são completamente invisíveis. Hoje sabemos que se devem à colisões de minúsculas partículas (elétrons) na parede do tubo que os gera. Na época de Röntgen a realidade dessas partículas (igualmente invisíveis) era absolutamente desconhecida. Atentando para o desenho da Fig. 3, vemos que a “realidade” (no sentido de sua impressão a um sentido ordinário – a visão) foi inferida indiretamente por meio da placa emulsionada com o sal de bário que tem a propriedade de emitir luz toda vez que atingida pelos raios X. Acidentalmente também, Röntgen descobriu que esses raios não eram barrados por obstruções materiais. Trocando a placa por uma chapa fotográfica e o objeto por um membro do corpo humano, a radiografia médica estava inventada. Fig. 3 Esquema da descoberta de Röntgen (Raios X) Ondas de Rádio A base teórica para compreensão e previsão da existência de ondas de rádio foi feita por James Clerk Maxwell em 1873 em seu artigo "A dynamical theory of the electromagnetic field" publicado na Royal Society. De acordo com [1], David Hughes em 1878 mostrou que sua balança de indução provocava ruídos em um telefone construído em casa por ele. Na época, sua descoberta foi desqualificada como sendo efeito de indução de correntes. Entre 1886 e 1888, Heinrich R Hertz validou a teoria de Maxwell por experimentação, demonstrando que a radiação gerada por ele tinha característica de ondas. No Brasil, o padre Landell de Moura conduziu experimentos por volta de 1893 sobre um dispositivo de rádio primitivo. Na essência do experimento de Hertz estava a produção de um tipo de radiação invisível que não se poderia explicar usando o paradigma de indução de correntes (¹). Hoje sabemos que a indução de correntes pode ser usada na explicação da excitação elétrica provocada nas antenas de rádio mas acoplada à idéia da propagação das ondas eletromagnéticas. Na época a realidade dessas ondas não era conhecida, e muito menos que se tratava de um tipo de radiação da mesma natureza da luz. Fig. 4 Esquema da demostração de Hertz sobre ondas eletromagnéticas (OEM). A Fig. 4 traz um desenho muito simplificado do experimento de Hertz. Usando uma bobina de indução (semelhante a usada por Röentgen), faíscas são geradas em dois terminais acoplados a um sistema capacitivo (que armazena eletricidade até ocorrer uma faísca). A faísca gera ondas eletromagnéticas que se propagam pelo espaço (ondas de rádio). Essas ondas são detectadas a distância por um outro dispositivo chamado resonador. O resonador produz faíscas cuja intensidade depende de sua distância da bobina. Com esse arranjo, Hertz foi capaz de mostrar a “natureza ondulatória” da radiação eletromagnética, demostrando, inclusive a existência de polarização nas ondas de rádio (²). Além da possibilidade de “ver o invisível” presente em todo espectro eletromagnético (Fig. 5), para além do violeta e abaixo do vermelho, sistemas de comunicação eficientes foram desenvolvidos com considerável sofisticação na região das ondas de rádio. O esquema inferior da Fig. 5 (explicando a comunicação via rádio) pode ter todos os constituintes equivalentes da Fig. 2 plenamente evidenciados. Analisemos os experimentos de Röntgen e Hertz de acordo com a perpectiva de interação sensorial explícita na Fig. 2. Tanto o raio X como as ondas de rádio - que hoje sabemos ter a mesma natureza, a despeito da diferença de uma propriedade fundamental, o comprimento de onda - não geram fenômenos registráveis pelos sentidos descritos na Fig. 2. Houve uma longa cadeia de raciocínios e ponderações (com consideráveis trabalhos teóricos) até que seconcluísse serem os dois experimentos explicáveis por uma mesma causa. Não se pode dizer que os raios X ou as ondas de rádio tornaram-se conhecidas para nós por meio desses experimentos, sem levar em consideração os trabalhos teóricos da época. Podemos dizer que eles evidenciam hoje, diante de uma teoria consideravelmente aceita e bem desenvolvida - e de forma totalmente indireta aos nossos sentidos humanos - a existência de uma causa comum que nos é insensível. Esses arranjos experimentais (e outros mais sofisticados) são meios que nos possibilitam hoje interagir com radiações invisíveis, através de sistemas que geram sinais detectáveis por nossos sentidos ordinários. Fig. 5 Espectro eletromagnético e uma explicação de como funciona o sistema de comunicação via rádio. Referências [1] http://en.wikipedia.org/wiki/Radio ¹ Diz respeito ao aparecimento de correntes em condutores devido a ação de outras correntes próximas ou magnetos em movimento. ² Fenômeno típico da radiação luminosa que se sabia, na época, ter origem na natureza ondulatória da luz. 4 - Fenômenos limiares (causas materiais) Os dispositivos descritos na seção anterior envolvem algum tipo de radiação invisível. Aqui vamos discutir dispositivos ou sistemas que permitem “observar” ou inferir a presença de outro tipo de corpo invisível utilizando propriedades de estado da matéria. Câmara de Nuvens O desenvolvimento da câmera de nuvens, também conhecida como câmera de Wilson, representou um passo importante na física do século XX. Uma variante da câmera de Wilson é a câmera de bolhas que emprega líquido ao invés de vapor. O objetivo desse dispositivo é observar traços de partículas carregadas eletricamente. Naturalmente, partículas elementares são invisíveis. Por isso, esses dispositivos foram desenvolvidos, pois permitem observar indiretamente o traçado dessas partículas. Considerando ainda que existem partículas desconhecidas, muitas delas cuja existência foi prevista teoricamente muito antes da evidência experimental, a câmera de bolhas foi um dispositivo eficiente na comprovação experimental de novas descobertas. Charles T. R. Wilson e Arthur H. Compton receberam o prêmio Nobel de Física por suas descobertas utilizando a câmara de nuvens em 1927. O princípio de funcionamento da câmera de nuvens é bem simples [2][3]. Um gás ou vapor é colocado a uma pressão superior a pressão de ponto de saturação (a partir de onde começa uma transição de fase de vapor para líquido). Esse tipo de fenômeno é conhecido como “meta-estabilidade”. Basta uma pequena perturbação para que haja condensação do vapor na forma líquida que, então, pode ser observada. Essa perturbação pode ser causada pela presença de íons (partículas carregadas). Uma avalanche de condensação ocorre ao longo da trajetória da partícula gerando gotas que ficam em suspensão e que podem ser fotografadas. O arranjo experimental da câmera de nuvens é mostrado na Fig.6a. A câmara armazena o vapor à pressão correta. Um campo magnético pode cobrir a região de observação do fenômeno. Com isso, é possível saber a carga e medir a energia com que a partícula ou íon atravessa o espaço. Ao atingir a câmara, o vapor se condensa na trajetória da partícula ou íon, o que pode ser fotografado ou mesmo visualizado. A Fig. 6b traz uma imagem negativa de um traçado obtido em uma câmara de nuvens onde se podem distinguir as trajetórias de diversas partículas facilmente (inclusive os famosos mésons pi). A Fig. 6 Arranjo básico de uma câmera de núvens (a). B Exemplo de traço de partículas obtido onde se evidencia a existência de píons e outras partículas elementares. A câmera de nuvens só funciona porque as partículas carregadas interagem com o vapor saturado. Partículas neutras não geram traçado algum (como se pode ver na Fig. 6b nos traçados em branco da partículas lambda e K que são neutras). Câmera Schlieren Hoje sabemos que o som é uma forma de vibração mecânica que se propaga no ar. Essa vibração tem freqüência particular (³) e impressiona diretamente nossos ouvidos constituindo o rico universo sonoro. Sabemos também que a sensação de calor advém das vibrações mecânicas das moléculas de ar ao nosso redor (que tem uma energia de movimento superior ao de um ambiente mais frio). O calor também se “propaga” como radiação: as vibrações moleculares podem ser “excitadas” por um tipo de luz invisível - a radiação infravermelha distante - que nada mais é do que um tipo de radiação eletromagética semelhante à luz ordinária mas invisível. É assim que recebemos o calor diretamente do sol, pois o espaço entre a Terra e nossa estrela mais próxima não tem densidade de matéria para possibilitar o transporte de calor por meio mecânico (colisão entre moléculas). Tanto o som como o calor são acessíveis aos sentidos humanos por meio de sentidos distintos da visão. Entretanto existe um meio de tornar tanto o som como o calor visíveis. Essa é a tarefa de um dispositivo conhecido como câmera Schlieren [4] (do alemão “estrias”), que gostaríamos de comentar como próximo exemplo. O princípio de funcionamento e esquema de uma câmara Schlieren é mostrado na Fig. 7. Uma fonte de luz pontual é colocada no foco (ponto de convergência de raios do infinito) de uma lente convexa L1. Há uma certa distância de L1 uma outra lente convexa L2 (que pode ser idêntica a L1) é colocada de tal forma que seu foco coincida com a posição de um anteparo em forma de lâmina. Fig. 7 Esquema óptico de funcionamento de uma câmera Schlieren Um objeto é colocado entre as lentes L1 e L2. Esse objeto está colocado há uma certa distância de L2 de tal forma que sua imagem (se não existisse o anteparo em canto) é formada sobre o anteparo ou câmera fotográfica. Porque o anteparo em canto é colocado exatamente sobre o foco da lente L2, qualquer variação na posição do canto causa o obscurecimento da tela e nenhuma imagem é observada. O mesmo efeito acontece se houver uma variação nas propriedades ópticas do meio onde o objeto é colocado. Uma pequena variação nessa propriedade (conhecida como “índice de refração”, que mede o grau com que a luz é desviada pela matéria - sendo uma propriedade da matéria e da cor da luz) é amplificada pelo arranjo óptico e localização do anteparo. Assim, se na região de teste (onde se coloca o objeto) fizermos som se propagar a uma freqüência e intensidade definida (usando um gerador de som) podemos observar no anteparo as variações de pressão causadas pelas ondas sonoras que também podem ser descritas como ondas de pressão. O som torna-se visível! A câmera Schlieren é utilizada em laboratórios mundiais na pesquisa de sistemas de aquecimento, combustão de gases, sistemas aerodinâmicos e outros [5]. Fotos desse tipo permitem visualizar fenômenos que acontecem em meios transparentes (o que inclui líquidos). Além disso, qualquer variação térmica no fluído da região de teste torna-se visível no anteparo da câmera. A Fig. 8 trás duas fotos Schieren particularmente interessantes. Na Fig. 8(a) uma pessoa tosse. O fluido expelido (a uma temperadura maior que ambiente) produz eflúvios térmicos fácilmente visíveis. Pode-se notar também que o calor que emana da cabeça da pessoa provoca ondas de convecção que sobem por serem menos densas. Na Fig. 8(b) uma foto Schlieren de uma mão “recém-aberta” mostra eflúvios térmicos emanando da palma extendida. (a) Fig. 8 Imagens Schlieren mostrando eflúvios térmicos de uma pessoa tossindo (a) (b) e de uma mão “recém aberta” (b). Crédito: Dr. Gary Settles/ Science photo libray. Os dois exemplos mostrados mostram como explorando propriedades de mudança de estado de sistemas pode-se amplificar perturbações muito pequenas e tornar acessível aos sentidoscomuns objetos ou coisas relacionados as causas das perturbações pequenas. No caso da câmera de bolhas, a metaestabilidade do líquido permite rastrear íons carregados tornando “visíveis” partículas ínfimas. No caso Schlieren, a região de foco onde se coloca o anteparo em canto é para onde convergem todos os raios da fonte luminosa que foram colimados pela lente L1. Portanto, qualquer variação da área provocada pela colocação de um anteparo provoca grandes oscilações no nível de luz no anteparo final. Variações pequenas no índice de refração do meio transparente são assim amplificadas permitindo a visualização tanto de fenômenos sonoros como térmicos. Referências 3. Na verdade qualquer som, a menos que seja “puro”, tem uma distribuição de freqüências típicas. Câmera Kirlian Propositalmente incluímos no final desse texto uma breve análise de um fenômeno ou técnica fotográfica que se tornou bastante popular nas décadas de 70 e 80, sendo utilizada para realização de diagnósticos médicos, a despeito de soar suspeita à comunidade acadêmica. Trata-se do método de fotografia elétrica (eletrografia) descoberto por Semyon Kirlian, um técnico de eletrônica russo, por volta de 1939. Antes de analisar as explicações e os propósitos da foto Kirlian, vamos descrever com algum detalhe a técnica fotográfica Kirlian. Fig. 9 Esquema com os elementos básicos de uma câmera Kirlian clássica Na técnica clássica de fotografia Kirlian, um objeto “biológico” ou amostra com razoável condutividade elétrica (obviamente pode-se colocar um objeto não vivo, por exemplo, uma moeda) é colocado sobre o filme que toca a superfície de uma placa metálica. Essa placa é conectada a um gerador de alta tensão alternada (que pode ser um bobina de Tesla, transformador de alta tensão, isto é, a voltagem elétrica final é uma função oscilante no tempo com uma certa distribuição de frequências). Freqüências típicas giram em torno de 70KHz. Os potenciais envolvidos são bastante elevados, mas a corrente total que circula no circuito da Fig. 9 é regulada de forma a ser pequena (para evitar choque elétrico ou descaracterização da amostra). A amostra biológica é conectada a um fio terra para reduzir seu potencial. O objeto biológico (que pode ser o dedo de uma pessoa) toca a superfície onde o material sensível à luz é depositado. Ao se ligar o gerador de alta tensão por alguns segundos (o tempo de exposição depende da sensibilidade do filme), uma imagem da descarga elétrica é revelada (Fig. 10). a) b) Fig. 10 Exemplo de fotos Kirlian (a) um negativo preto e branco do efeito corona em torno de uma moeda, (b) Foto Kirlian em filme fotográfico do dedo de uma pessoa revelando tonalidade de cores bem diferentes do efeito corona É possível observar a vista desarmada o surgimento de uma coroa de raios, por isso o nome “descarga corona”, em torno do objeto. Essa coroa tem a cor azulada, típica de fenômeno elétrico de alta tensão. Deve-se a ionização de gases presentes em torno do objeto, isto é, o campo de rádio frequência (RF) “excita” o ar em torno do objeto. Muitos dos constituintes do ar tem moléculas que se tornam ionizadas, isto é, perdem elétrons tornando-se carregadas positivamente. Os elétrons oscilam “livremente”, isto é de acordo com o campo elétrico, eventualmente encontrando íons positivos e se ligando a eles. Esse processo gera luz visível, ou seja, a descarga corona é um mecanismo pouco eficiente de conversão de energia eletromagnética em luz. Se pudessemos computar o total de energia por segundo (em Watts) envolvido no fenômeno (fornecido pelo gerador de alta tensão) diríamos que uma parte é transformada em luz, outra em calor (colisão de elétrons com a rede cristalina do metal a potencial oscilante, que gera calor) e a imensa quantidade está presente no próprio campo de RF, ou seja, nunca deixa de ser energia elétrica mesmo e é carregada pelos elétrons. A cor azul que se vê a vista desarmada - como a que se vê na Fig. 10 (b) - é característica do tipo de gás que envolve o objeto, o ar, na imensa maioria nitrogênio e oxigênio ionizados e compostos, a mesma cor que se pode ver nas chamas de fogão ou nos relâmpagos das tempestades. Ocorre que outros tipos de cores e tonalidades (não visíveis) aparecem no filme fotográfico, Fig. 10(b). A que se deve isso? Uma quantidade grande de especulações e teses foram levantadas, na falta de uma teoria que unifique todos os arranjos experimentais possíveis e forneça uma explicação para o aparecimento das cores. Em todo ramo do conhecimento científico onde aparecem fissuras teóricas, é provável também a exploração de fenômenos pouco conhecidos de forma considerada “pouco científica”. Por “científico” aqui no referimos tão somente à existência de uma teoria bem desenvolvida. No caso da foto Kirlian, a deficiência teórica está localizada na dificuldade de se unir duas grandes áreas da ciência: a física e a química. Existem lacunas consideráveis na explicação de reatividade química de gases submetidos à potenciais oscilantes elevados [6], como eles interagem com um depósito de sais fotosensíveis e como esses sais eventualmente interagem com esse mesmo campo elétrico oscilante. Além disso físicos e químicos utilizam linguagens e abordagens bem diferentes para tratar um mesmo fenômeno. Para químicos, reações químicas complexas ocorrem no ar excitado pelo campo elétrico (que aumenta a reatividade química dos constituintes do ar) enquanto que, para físicos, a descarga corona é um tipo de plasma frio (4). Isso aliado ao pouco interesse acadêmico das fotos Kirlian, contribui para tornar a situação ainda mais desoladora. Nesse ambiente de aridez teórica surgem então explicações dos mais variados tipos, algumas que pretendem “esgotar” completamente o tópico, outras meramente ligadas a aspectos comerciais que exploram outras hipóteses. Uma rápida busca na internet levanta explicações como citadas abaixo: 1. Uma câmera que coloca sua aura ou campo de energia no filme instantaneamente. Descubra sua freqüência vibracional pessoal através da fotografia Kirlian. [7] 2. A fotografia Kirlian é uma ferramenta valiosa que produz fotos, videos ou imagens computadorizadas do fluxo de energia. [8] 3. “...o que é ionizado pelas descargas elétricas são os gases e/ou vapores exalados pelas papilas digitais. Como esses gases e/ou vapores são produzidos pelo metabolismo celular, está claro que indicarão como se encontra o estado de saúde orgânica e psíquica da pessoa, inclusive, até mesmo, sua sexualidade, devido à exalação dos feromônios.”[9] 4. …Um método de investigação de objetos biológicos, baseado na interpretação da imagem em descarga corona obtida durante exposição a um campo de alta freqüência, de alta voltagem, que é gravado seja em filme fotográfico ou por equipamentos de gravação de vídeo modernos. Seu principal uso é fornecer um meio rápido, barato e relativamente não invasivo de diagnóstico de estados fisiológicos e psicológicos. Pode-se dividir os tipos de explicações para as fotos Kirlian em dois tipos: a) explicações não físicas b) explicações físico-patológicas. O primeiro tipo pretende dizer que as cores ou mesmo a própria imagem de raios corona está ligado “a aura” do indivíduo, sendo uma imagem desta. Obviamente esse tipo de “explicação” tem nítidos objetivos comerciais - em (1) e (2) o objetivo é vender “máquinas Kirlian” - sendo uma maneira de se explorar indiscriminadamente a idéia que se capturar com máquinas objetos de natureza “não material”. Naturalmente, isso não causa prejuízos a existência do fenômeno de avistamento de halos ou figuras luminosas em torno de pessoas ou Espíritos, que é bastante comum na literatura espírita ou mesmo religiosa antiga. Trata-se esse último deum tipo de fenômeno relacionado ao estado de vidência mediúnica e de natureza muito distinta do que estamos analisando aqui. Particularmente em (2) fala-se em um “fluxo de energia”. É de certa forma correto dizer que uma foto Kirlian representa um impressão fotográfica “do campo de energia”, apenas devendo-se acrescentar “energia elétrica”. O potencial elétrico alternado em torno do objeto nas proximidades da placa metálica energizada tem seus valores mais elevados justamente na região vizinhas ao objeto, um potencial suficiente para que haja ruptura das moléculas (excitação) e conversão em luz. O efeito corona é assim um mapa das regiões de maior intensidade desse campo, que não se limita a essas regiões entretanto, semelhantemente ao que ocorre com a câmara de nuvens e Schlieren descritas anteriormente. Em (2) a palavra “energia” é utilizada sem referência alguma ao tipo, explorando uma possível falta de conhecimento do leitor do real significado dessa palavra. Além disso a expressão “freqüência vibracional pessoal” carece de qualquer significado. Definitivamente, fotos Kirlian não são um mecanismo de se acessar o invisível dessa maneira. Explicações “físico-patológicas” tiveram início com o próprio Kirlian e se desenvolveram na extinta União Soviética através da criação da idéia de “bioplasma”. Em “Photography by means of high-frequency currents” [11], Semyon Kirlian e Valentina Kh. Kirlian descrevem: “Um organismo vivo (por exemplo, a folha de uma planta) que foi colocada em um campo elétrico de um oscilador distorce o campo de acordo com sua natureza dielétrica. Não importa quantas espécies de plantas são fotografadas sob as mesmas condições, cada espécie dará uma imagem de caráter único.” A seguir ainda comenta: “Podemos concluir que a condição biológica dos objetos vivos, quando fotografados com a corrente de alta freqüência, é representada em magnitudes elétricas que esse sistema eletro-óptico é capaz de gravar essa topografia. Estabelecendo-se a conexão entre a mudança no estado elétrico e a anatomia e fisiologia do objeto vivo, o método da fotografia de altas freqüências pode ter aplicações científicas variadas. Por exemplo, em agricultura, ela pode ser usada para determinar o grau de maturidade de uma planta, a produtividade de uma plantação, processos patológicos etc." A origem da aplicação de Kirlian (que se tornou a razão de suas pesquisas) foi a relação que existe entre as constantes dielétricas (5) e impedância superficial a altas freqüências dos materiais (no caso seres animados) e seu estado interno. Naturalmente, é concebível que o efeito corona seja modificado se essas propriedades se alterem. Assim, ao se fotografar uma folha de um vegetal recém cortado, folha que contem razoável quantidade de água, pode-se observar uma redução do efeito corona ao longo do tempo, a medida que a água ou outras substâncias abandonam a folha em estado de decomposição. Da mesma forma, o efeito Kirlian observado ao redor do dedo de uma cadáver, deve evoluir no tempo na direção de um padrão comum à medida que o estado de decomposição se acelera, uma vez que, com o fim do metabolismo, muitas substâncias deixam de ser produzidas, outras passam a existir, o tecido se modifica, causando uma conseqüente variação nas constantes dielétricas. Essa variação na luminosidade do padrão de um corpo vivo em decomposição, não pode de forma alguma ser interpretada como o “abandono do Espírito” desse corpo, como muitos interpretaram. A essência da interpretação físico-patológica é correta, uma vez que existe uma ligação clara prevista em teoria entre as propriedades elétricas dos materiais e o efeito Kirlian. Entretanto, pouco se sabe se essa relação permite utilizar o efeito Kirlian como um método de diagnóstico médico. Assim na frase (3) da referência [9] o “está claro que” - grifo nosso - ainda deve ser melhor explorada. Não está claro que o efeito corona é sensível suficiente para que um sistema seguro de diagnóstico seja possível. Para estudos recentes nesse sentido ver [12][13]. O efeito Kirlian pode assim representar um dispositivo capaz de evidenciar visualmente o estado biológico de seres vivos de acordo com a idéia original de Kirlian. Essa relação é totalmente material: da mesma forma que a câmara Schlieren pode revelar os eflúvios térmicos da mão de uma pessoa viva, o efeito Kirlian também pode (mas de outra forma), o que seria uma indicação indireta da atividade biológica nesse ser. Entretanto, poucos estamos autorizados a afirmar que uma ferramente precisa de diagnóstico existe nas interpretações das imagens Kirlian, ou que seja possível correlacionar o estado psicológico de indivíduos com esses padrões. Fig. 11 O quadro resumo da Fig. 11 é uma sumário da atual situação quanto ao desenvolvimento científico da pesquisa com o efeito Kirlian. Claro está que se trata de pesquisa multidisciplinar, envolvendo a física, química, biologia e medicina. Quase nada sabemos da relação entre as constantes elétricas dos materiais vivos e os constituintes químicos, pois cada um desses objetos teóricos é descrito por disciplina diferente. Assim a conclusão final obtida pela cadeia de afirmações em branco na Fig. 11 não pode ser categoricamente afirmada. 5 - Comentários finais Os arranjos experimentais aqui descritos são muito simples e existe uma teoria muito bem desenvolvida para explicá-los (com excessão à câmera Kirlian). Isso faz parte do jogo da ciência, onde teoria deve antecipar e prever corretamente fenômenos naturais. O conhecimento da teoria e dos fenômenos que ocorrem ciclicamente ou não permitem realizar arranjos que amplifiquem ou tornem visíveis fenômenos não percebidos sensorialmente por meios normais. Essa mesma teoria que explica os arranjos (como aqui descritos) também valida resultados de medidas obtidos por ele. Assim sendo, a teoria óptica valida as images como na Fig. 8(a) e 8(b) não permitindo que sejam interpretadas como meras ilusões de óptica. Também é importante considerar que, a despeito das teorias que hoje se adequam harmonicamente aos arranjos, a geração de sinais sensíveis aos olhos ou aos sentidos humanos só é possível indiretamente. Assim, existem elementos transdutores - em todos os exemplos discutidos até aqui - que fazem a conversão dos sinais não sensoriais em equivalentes sensoriais. Assim, enfatizamos como corolário: Em todo e qualquer sistema natural onde tais elementos transdutores existam garantidos por uma teoria bem desenvolvida, a observação, por meio dos sentidos ordinários, de fenômenos ou ocorrências relacionados a sinais não sensíveis é possível. Ressaltamos que isso só é possível se uma teoria completa da comunicação dos sinais for plenamente desenvolvida. Faz parte da busca técnica pós teoria o desenvolvimento desses dispositivos, o que consiste uma ciência a parte. Assim a existência de computadores e telefones celulares só apareceu muito depois da teoria dos circuitos elétricos, que só apareceram depois que as leis básicas de fluxo de correntes em condutores foi desenvolvida. No caso do efeito Kirlian, podemos certamente afirmar que se trata de um fenômeno que permite observar visualmente variações nas constantes dielétricas, impedância superficial e outras propriedades de corpos vivos. Entretanto, resta ainda uma longa pesquisa interdisciplinar para validar afirmações de que se trata de um método eficaz de diagnóstico ou de conhecimento do estado psicológico de indivíduos (um meio de se acessar o “invisível”) Nosso objetivo aqui foi demonstrar que a existência de transdutores ou dispositivos que permitem acessar radiações e influências que não existem para os sentidos ordinários só é possível (isto é, se torna parte integranteda técnica e da engenharia) quando uma teoria bem desenvolvida existe. Esse é o caso dos inúmeros equipamentos de pesquisa científica que utilizam correntes elétricas, luz, substância químicas, arranjos termodinâmicos e outros para possibilitar inferir quantidades de constituintes da Natureza. A medida dessas quantidades está sujeita a erros uma vez que outros fatores também influenciam e é necessário garantir o controle dentro de limites especificados de todos eles. Na ausência de uma base teórica sólida, a proposição de equipamentos para determinados fins como elementos transdutores é seriamente comprometida pois sempre existirão opiniões e explicações contraditórias que podem invalidar o propósito para o qual os equipamentos foram construídos. Esse texto tem como objetivo também motivar o leitor a ponderar sobre interpretações diversas do famoso “Fenômeno das vozes eletrônicas” (EVP) ou “Transcomunicação instrumental” (TCI), como ficaram conhecidas as técnicas eletrônicas de gravação de vozes e imagens vindo dos desencarnados [14][15]. Trata-se, certamente, de métodos de se acessar o “invisível”. Deixamos ao leitor uma análise mais detalhada do assunto e a tarefa de aplicar alguns conceitos discutidos nesse texto ao caso da TCI e EVP. Para motivar ainda mais perguntamos: é possível descartar a necessidade de um médium na produção do fenômento TCI ou EVP? Trataremos desse fenômeno em particular em um texto mais abrangente a ser publicado em breve. O autor gostaria de receber críticas e comentários sobre este texto. Envie suas mensagens para editor@geae.inf.br. Agradecimentos: gostaria de agradecer ao Alexandre de Almeida por discussões e várias referências sobre o efeito Kirlian. 4. De maneira muito simplificada, um plasma em física caracteriza um estado físico de elétrons e íons positivos altamente influenciável por campos eletromagnéticos. O plasma foi reconhecido como um novo estado da matéria por Sir Willian Crookes, famoso cientista espiritualista inglês. 5. A constante dielétrica é uma variável que descreve a resposta elétrica dos materiais. Em materiais isolantes ela é responsável pelo aparecimento de um estado de polariazação elétrica que é utilizado em larga escala na indústria eletrônica em capacitores e outros dispositivos de armazenagem de energia. Impedância mede a resposta em potêncial elétrico de um material, sistema ou superfície frente a um estímulo de corrente elétrica. 6 - Referências [1] http://en.wikipedia.org/wiki/Radio [2] http://www.lnf.infn.it/kloe/Lectures/wilson.pdf [3] http://en.wikipedia.org/wiki/Cloud_chamber [4] G. S. Settles, “Schlieren and shadowgraph techniques - visualizing phenomena in transparent media”. Springer 2001. [5] Para uma galeria de fotos Schlieren ver: http://www1.dfrc.nasa.gov/gallery/photo/Schlieren/HTML/ http://www.sciencephoto.com/html_tech_archive/schlie.html [6] D.Turner, “The missing science of Ball Lightning”, Journal of Scientific Exploration, vol. 17, n. 3, p 435 (2003); [7] http://www.kirlian.org/kirlian_camera.htm [8] http://www.kirlian.org/kirlian.htm [9] Newton Milhomens em http://www.kirlian.com.br/ [10] http://www.psy.aau.dk/bioelec/ (não disponível). Texto original: “...a method of investigation for biological objects, based on the interpretation of the corona-discharge image obtained during exposure to a high- frequency, high-voltage electromagnetic field which is recorded either on photopaper or by modern video recording equipment. Its main use is as a fast, inexpensive and relatively non-invasive means for the diagnostic evaluation of physiological and psychological states”. [11] "The Kirlian Aura, Photographing the galaxies of life”. Editado por S. Krippner e D. Rubin. Anchor press/Doubleday (1974) [12] P. V. Bundzen, K. G. Korotkov, A. K. Korotkova, V. A. Mukhin, e N. S. Priyatkin Psychophysiological correlates of athletic success in athletes training for the olympics. Fiziologia Cheloveka (Human Physiology (in English) 3, 2005. [13] P. O. Gagua, E. G. Gedevanishvili, L. G. Georgobiani, K G. Korotkov KG, S. A. Korotkina, G. G. Achmeteli, E. V. Kriganivski EV. “Experimental study of the GDV technique application in oncology”. [14] "Espiritismo e Transcomunicação", Djalma M Argollo, Ed. Mnêmio Túlio 1994 [15] "Os Espíiritos comunicam-se por gravadores", Peter Bander, Col. Científica Edicel 4, 2a edição 1976. Grupo de Estudos Avançados Espíritas Ano 14 Número 503 a 506 30 de Novembro de 2005 http://www.geae.inf.br/pt/boletins/geae503.html ... Ademir L. Xavier Jr. > A Informação na Estruturação Inteligente do Universo Artigos “Ora, como todo efeito inteligente há de por força derivar de uma causa inteligente, ficou evidenciado que, mesmo admitindo-se em tais casos, a interveção da eletricidade ou de qualquer outro fluido, outra causa a essa se achava associada .” Allan Kardec [1] --------------------------------------------------------------- 1. Introdução Quando falamos em materialismo, sempre nos lembramos das idéias que somente reconhecem a matéria como a única base essencial de constituição do universo. Tal como apreendemos com nossos sentidos, a matéria é algo bem delimitado no espaço e no tempo, algo que podemos sentir, apalpar, carregar, que impressiona nossos sentidos. Hoje, contudo, mesmo os materialistas mais ferrenhos são obrigados a aceitar que essa noção de matéria está longe de ser o constituinte exclusivo do Universo. A física demonstrou a importância de outros ingredientes dentre os quais destacamos a energia. Mas a energia é apenas uma forma diferente (dentro das teorias da física) de se caracterizar a matéria. Pode-se encontrar facilmente o equivalente "energético" de qualquer quantidade de matéria (definida por uma massa, densidade etc). Nesse texto, chamamos a atenção para um tipo de ingrediente que apenas recentemente (nos últimos 60 anos) foi reconhecido como de importância fundamental na estruturação do mundo: a informação. Mas a informação é algo imaterial, portanto, já estamos longe das antigas proposições materialistas de que o Universo é constituído apenas do que podemos ver, ou ainda, daquilo que a ciência poderia medir através de seus aparelhos. Esse reconhecimento é um passo importante na direção da aceitação do ingrediente espiritual como o terceiro grande constituinte do universo. Aventuramo-nos aqui em imaginar que a informação é um importante parâmetro capaz de distinguir univocamente o grau de "vivificação" da matéria, isto é, quanto distante do estado "inanimado" ela se encontra. Um problema recente é a questão se é possível haver criação de informação a partir de sistemas puramente físicos (isto é, inanimados). Uma eventual resposta a essa indagação pode nos levar bem longe de onde estamos conceitualmente. Antes, porém, de iniciar essa aventura, devemos examinar um pouco mais detalhadamente o significado do conceito de informação e de como ela se transmite de um sistema a outro. Os ingrediente básicos de um sistema de comunicação completamente geral podem ser representados como mostra a figura abaixo: Fig. 1 Modelo simples de processo de comunicação aplicável a uma ampla gama de sistemas naturais ou artificiais. O conteúdo da mensagem é algo imaterial que existe em princípio, na mente (Espírito). O transmissor é a unidade responsável pela transmissão da mensagem. Ela faz isso "codificando", isto é, escrevendo sob uma convenção pré estabelecida que pode ser lida por outros sistemas semelhantes. O meio ou canal de transmissão é o "medium" no sentido comum, isto é, o subsistema responsável por transmitir aquilo em que foi codificada a mensagem. O "Receptor" é uma unidade capaz de decodificar a mensagem e transformá-la em algo compreensível pelo "destino da mensagem". Esse modelo aplica-sea uma vasta quantidade de sistemas materiais como telefones (celulares ou fixos), transmissão de dados pela internet, comunicação falada etc. No caso de duas pessoas conversando o "meio" é o ar pois os sinais imateriais são transformados em ondas de pressão que emanam do transmissor e se propagam livremente pelo ar. No caso de comunicações feitas com sinais luminosos (p. ex. transmissão de sinais marítimos) o meio é a própria luz. Lembramos que esse modelo também aplica-se às comunicações mediúnicas. Nele identificamos o conteúdo da mensagem e seu impacto no destino como idéias impressas na mente dos Espíritos que enviam e dos que recebem as mensagens. O transmissor/receptor são os Espíritos envolvidos na comunicação, enquanto que o "meio" é o médium que serve de canal (o conjunto de equipamentos físicos colocados a disposição). A codificação da mensagem depende do tipo de mediunidade envolvida. Se for de efeitos físicos, a codificação obedece a simbologias convencionadas, a sistemas tiptográficos etc. Nas mediunidades já desenvolvidas de efeitos inteligentes, a codificação da mensagem se dá por mecanismos desconhecidos entre as mentes do médium e do Espírito comunicante. Fig. 2 Influenciação do ruído no processo de comunicação. A Fig. 2 mostra exatamente como inserir ruído no modelo. Ruído é qualquer perturbação no processo de comunicação ou transporte de informação que leva a degradação do conteúdo da mensagem. O ruído atinge o canal de transmissão. Também as comunicações mediúnicas sofrem com ação do ruído (proveniente da própria mente do médium ou da ação de outros Espíritos) que obliteram o conteúdo da mensagem. Em sistemas artificiais (p. ex. comunicação celular), o ruído pode tornar o processo de comunicação inviável. Nesses casos pode-se falar em eficiência de transmissão de informação como função da razão entre a intensidade do ruído e a intensidade do sinal transmitido, a famosa relação sinal-ruído. 2. Uma definição simples de informação Todos nós temos noção primitiva de informação. Quando alguém nos faz uma pergunta que só requer um "sim" ou "não" estamos dispostos a passar um conteúdo informativo em relação à resposta equivalente a uma unidade primitiva de informação (conhecida como "bit"). Nessa forma muito simples, informação é um conceito passível de quantificação. Se desejamos saber se a luz do quarto está acesa ou não então são necessários apenas 1 bit para se adquirir a informação necessária. Semelhantemente, questões mais complexas requerem quantidades maiores de informação. Importa-nos aqui lembrar que a "informação" é algo invisível, não palpável, que se pode transportar de um lugar para outro independentemente do meio material (ou de qualquer meio imaginável). O reconhecimento do "status" independente da informação veio apenas recentemente. Informação é algo que se transfere de um lugar para o outro, que se armazena (logo ocupa volume), que se mede embora sempre relativamente. Podemos apenas falar em ganho ou perda de informação, nunca em um valor absoluto para o conhecimento informativo de acordo com essa definição primitiva. As modernas teorias sobre processamento de informação (sinais) quantificam-na de tal forma que podemos falar de "pacotes" de informação. Assim para o conjunto de 256 possibilidades de informação é utilizado a designação "bytes". Para quantidades maiores de informação adiciona-se os prefixos latinos de quantificação Kilo, Mega, Giga, etc para designiar respectivamente 1000, 1.000.000, 1.000.000.000 etc bytes de informação. Por que o número 256? Para isso é necessário considerar que a maior parte da quantificação da informação é feita por meio de uma base que requer sua representação na forma de respostas simples como "sim" e "não". Como só existem 2 respostas possíveis, o número 256 vem do número de possibilidades de resposta quando coexistem 8 "canais" de informação possíveis. Por exemplo, suponha que queiramos armazenar a quantidade necessária de informação necessária para saber que a luz da sala de uma casa está acesa e que a porta principal esta fechada. Nesse caso temos 4 possibilidades conforme mostra a sequência abaixo: 1) A luz da sala está acesa e a porta está aberta; 2) A luz da sala está acesa e a porta está fechada; 3) A luz da sala está apagada e a porta está aberta; 4) A luz da sala está apagada e a porta está fechada. Essas possibilidades são armazenas na forma de 2 bits pois podemos considerar cada uma das afirmação acima como tendo valor "falso" ou "verdadeiro" ("sim" ou "não"). Ora 4 é o resultado de se elevar 2 ao número de "perguntas" existentes (ou número de bits). Se fizessemos mais uma pergunta, por exemplo, se o cachorro na casa foi alimentado às 8 horas da manhã, teríamos 3 perguntas e, daí, o conteúdo de informação necessário para responter satisfatóriamente as 3 inquirições (3 bits) seria 3. Da mesma forma um gabarito do tipo "falso"/"verdadeiro" com 8 perguntas exige que tenhamos disponíveis 2^8 possibilidades = 256 ou 1 byte como afirmado acima, e equivalente portanto a 8 bits de informação. Bits e bytes tornaram-se unidades importantes na definição e tratamento de informação por sistemas digitais justamente porque computadores só trabalham fundamentalmente com a base falso/verdadeiro em suas estruturas internas. Note que a quantidade de informação diz respeito ao número de bits necessário para armazenar todas as possibilidades uma vez que as sentenças no caso acima tem respostas não dependentes. Se a resposta de uma já definisse a solução de outra, então o conteúdo seria obviamente menor. Essas noções primitivas de informação (totalmente dependentes do tipo de sinal utilizado para armazená-la) foram formalizadas por Claude Shannon em 1940 através de um formalismo conhecido como "Teoria da Informação" (também chamada "Teoria clássica da Informação") [2]. O nome “informação” aqui está mal empregado pois a teoria de Shannon é, de fato, uma teoria sobre sinais uma vez que o conteúdo informativo da “informação de Shannon” não é importante. O objetivo principal da teoria da informação era fornecer subsídios teóricos para o desenvolvimento de uma teoria geral de comunicações frente a agentes externos de atenuação de sinal e ruído. Essa teoria finalmente acabou constituindo-se no arcabouço fundamental dos modernos sistemas digitais e de comunicação "wireless" ou com fio (telefonia celular, redes de computadores etc). A informação definida segunda a equação (por Shannon) onde log² é o logaritmo na base 2 e N é o número de possíveis resultados ou símbolos. É um conceito puramente quantitativo que se presta mais a determinação da quantidade de espaço de memória necessário para se armazenar um determinada quantidade de dados. No caso do questionário com 8 questões, existem 256 possibilidades (N=256), logo I=8 bits. Para o cômputo dessa quantidade de memória, é irrelevante o tipo de informação, muito menos ainda a qualidade da mesma. Dada duas sentenças: 1) AXGKP TOFFZAXXTAB OPPQ 2)BEATI PAUPERES SPIRITUS Qual delas tem um significado mais familiar? Certamente a segunda que é a versão latina de "Bem aventurado os pobres de espírito". Para o conceito de quantidade de informação de Shannon, as duas sentenças tem o mesmo status, pois correspondem a mesma quantidade de informação. Assim não existe conexão alguma entre esse conceito de informação e a qualidade da mesma entendida como conhecimento. Mas a definição de Shannon é útil pois correponde ao que poderíamos chamar de primeira camada ou nível de descrição da informação (nível estatístico). Nesse nível, não existe sintaxe nem semântica. Fala-se apenas na probabilidade de uma determinada letra do alfabeto ou símbolo aparecer. Para simplificar, consideremos o alfabeto formado pelas seguintes letras: a b c d e f g h i j k l m n o p q r s t u v x y w z " "Onde " " representa o espaço em branco. Em uma primeira análise, se quisermos enviar uma mensagem escrita em um idioma que use esses símbolos, podemos falar que há probabilidade 1/26 de que a primeira letra da mensagem seja qualquer uma daquelas acima relacionadas. Dessa forma precisamos de I = - log2 (1/26) = 4.7 bits de informação/símbolo para enviar uma mensagem com esse alfabeto. Isso é, para cada letra. Para uma palavra com 5 letras seria necessário 5 x 4.7 = 23.5 bits de informação e assim sucessivamente. Note que não interessa para essa idéia quantitativa de "informação" se a mensagem formada pela seqüência de 5 símbolos representa a palavra "logos" ou "xksiw", o conteúdo informativo nos dois casos é o mesmo. O que diferencia um idioma de outro (além do grupo de símbolos que representa a mensagem) é algo imaterial, que não se pode quantificar através da informação de Shannon. O máximo de diferenciação mensurável por I está embutido na distribuição de probabilidades de ocorrência desses símbolos. (mas os idiomas se diferenciam antes pelos símbolos que usam). Por exemplo, na lingua inglesa a probabilidade de a letra "h" suceder a letra "t" é muito grande, pois há várias palavras com o sequência "th" (como no artigo "the" ou em "thanks") . Do mesmo modo, no português, a probabilidade de a letra "a" suceder "ç" é grande e, nessa ocorrência, é grande também a chance de aparecer a letra "o" (como em "ação"). Assim o cálculo exato da quantidade de informação para suprir uma definciência de memória no armazenamento de uma mensagem não é simples de se fazer .As probabilidades funcionam como pesos estatísticos e cada idioma tem sua distribuição própria. Na ocorrência de dois idiomas que utilizem o mesmo conjunto de símbolos, é possível reconhecer o idioma simplesmente calculando-se a distribuição de ocorrência de letras, mas isso é tudo que podemos extrair do conceito de informação de Shannon que é largamente utilizado nas ciências da computação. 3. Examinando de perto o processo de transmissão de informação. Computadores como manipuladores de sinais. A transmissão de informação de um sistema a outro (utilizando o conceito de Shannon) pode ser descrita de maneira muito simples, e é relevante para o que discutiremos posteriormente. Nosso objetivo é compreender claramente a informação genuína como um dos atributos de um sistema inteligente; algo que é por ele gerado e manipulado, embora o conceito de informação que utilizamos aqui não leve em consideração o conteúdo da mensagem. Veremos que onde há informação há inteligência, embora seja possível criar sistema aparentemente inteligentes pelo fato de poderem manipular informação. Consideremos inicialmente dois sistemas idênticos. O que os diferencia além de suas características próprias? Usemos o exemplo anterior, a casa com a sala e a porta. Duas casas idênticas com a mesma sala e porta diferem entretanto pelo estado em que se encontra a lâmpada da sala (se acesa ou apagada) e a porta (se aberta ou fechada). Nessas duas casas idênticas aquela em que conhecemos o estado da lâmpada e da porta é a casa com maior conteúdo de informação simplesmente porque, para descrever qualquer outro aspecto da casa, precisamos de menos informação com essa casa do que com a outra sobre a qual nada sabemos. De outra forma, podemos também dizer que no caso da primeira casa (que sabemos a luz estar acesa e a porta fechada) nossa ignorância é menor do que no caso da segunda casa. Note-se que o conteúdo da informação está contido na sequência de perguntas e suas respectivas respostas. Examinemos agora detalhadamente o processo de comunicação. A figura abaixo representa uma versão simplificada de um processo desse tipo com os componentes da fig. 1. Fig. 3 Comunicação como acréscimo de conteúdo informativo. Uma mensagem (constituída por uma seqüência de símbolos) é enviada pelo transmissor para o receptor. Não importa aqui qual o tipo de processo (se eletrônico, sonoro, luminoso, mediúnico etc). Toda vez que um símbolo é percebido pelo receptor seu conteúdo de informação "aumenta" exatamente de I (usando o alfabeto anterior como exemplo, esse ganho de informação é de aproximadamente 4.7 bits para cada símbolo). Uma outra medida é utilizada pela teoria da informação para quantificar o conteúdo informativo de uma mensagem. Essa medida é conhecida como Entropia e é definida simplesmente como a média ponderada pelos pesos estatísticos da quantidade de informacão: Entropia de informação = <I>= - ( p1*log2 p1+p2*log2 p2+...+pN log2 pN ) onde p1, p2, .. , pN são os pesos de cada símbolo. A entropia de informação definida dessa forma é uma quantidade que cresce com o número de símbolos usados para codificar a mensagem. Cresce também com o tamanho da mensagem e, como no caso da informação de Shannon, não serve para mensurar o conteúdo sintático de uma mensagem, muito menos seu conteúdo tal como os seres humanos internamente o compreendem. No processo de comunicação descrito pela Fig. 3, não explicitamos a origem da informação. Consideremos inicialmente que essa origem seja “inteligente”. Imaginemos que o processo seja interceptado por um sistema mecânico (autômata) que possa acrescentar ou modificar a seqüência de símbolos original. A fig. 4 ilustra o processo modificado por esse agente externo. Fig. 4 Processo de comunicação interceptado por um autômata. O autômata é capaz de acrescentar símbolos à seqüência original de forma independente. Isso ele faz recorrendo a um banco de símbolos que permite a reprodução infinita de qualquer tipo de símbolo pertencente ao alfabeto convencionado pelo processo de comunicação. Além disso para uma dada seqüência de símbolos, a ordem ou disposição pode ser artificialemente modificada por uma seqüência de comandos lógicos chamados “algoritmos”. Não importa para nós aqui a origem dos algoritmos (embora sabemos que sua construção obedece a regras dos seres humanos). Chamamos a atenção com o processo modificado de comunicação da Fig. 3 que o autômata pode aumentar arbitrariamente o conteúdo informativo da mensagem original somente no sentido da teoria da informação de Shannon que não leva em consideração o significado da mesma para o destino último da mensagem. Afirmamos explicitamente: não importa a complexidade, grau de manipulação dos “algoritmos” previamente programados no autômata, qualquer que seja a natureza e resultado do conjunto de instruções o conteúdo verdadeiramente informativo da mensagem original não é aumentado. Isso vale para qualquer tipo de autômata. De fato, podemos representar o conjunto de operações sobre cada bit original como a aplicação de uma função genérica G(u) onde u é bit de entrada: Para a sequência original: u1, u2, u3 de símbolos pertencentes ao alfabeto, o resultado final é G(u1), G(u2), G(u3), ...até o último bit enviado. Em particular o processo de “comunicação” do receptor final com o autômata pode ser descrito para uma seqüência de entradas nulas. Assim sendo, não existe comunicação no sentido genuíno de troca de informação do autômato para com o receptor final suposto inteligente (embora esse último possa ter a impressão de que isso ocorra de fato). Longe de gerar informação, computadores são sistemas que apenas conseguem manipular ou gerar sinais baseados em algoritmos. Todo o conteúdo aparentemente inteligente (cognitivo) das mensagens ou da manipulação de informação por computadores advém da inteligência (Espírito) dos seres humanos que os programaram. 4. Informação e o princípio inteligente. Nosso principal problema é a inexistência de uma definição suficientemente abrangente para a idéia de informação. Podemos entretanto definir alguns de seus atributos. Para isso baseamo-nos em considerações do matemático Wernher Gitt [3]. Ele descreve esses atributos do processo de transmissãode informação em cinco camadas: 1- Estatística: referente ao número e probabilidades de ocorrência de símbolos ou sinais com uma linguagem previamente estabelecida para realizar o processo de comunicação. É o nível de descrição de Shannon como vimos anteriormente; 2- Sintaxe: referente ao seqüenciamento dos símbolos formando palavras e frases. Dependendo da ordem com que são transmitidos, um conjunto de símbolos podem formar palavras diferentes. Como vimos nem essa seqüência é importante na teoria dos sinais de Shannon; 3- Semântica: que diz respeito ao significado das palavras. Pelo fato de o nível semântico ser de caracterização quantitativa inexistente, o preço dos telegramas só depende da quantidade de símbolos (palavras) que ele porta e não de seu conteúdo; 4- Pragmática: que diz respeito à intenção do transmissor com o conteúdo informativo da mensagem e seu impacto no receptor. A fim de que o receptor tenha determinada reação, o transmissor reveste sua informação de conteúdo pragmático 5- Abobética: nível último representado pelo objetivo da mensagem. A abobética tem a haver com o objetivo último do transmissor em enviar a informação no processo de comunicação. Segundo Witt os dois últimos níveis se confundem várias vezes. Abrimos um parêntese aqui para salientar o valor abobético das mensagens dos Espíritos superiores. Longe de representar simples estórias contadas com o objetivo de entretetimento, as mensagens verdadeiramente instrutivas são carregadas de conteúdo moral e tem o objetivo de educar eticamente os receptores. Além do nível abobético poderíamos acrescentar um outro nível superior quando o conteúdo da mensagem comunicada não é suficiente para representar completamente o objetivo do transmissor e impacto real sobre o receptor. Falamos do conteúdo das mensagens criptografadas que fazem parte desse nível. Essas são mensagens que devem ser re-interpretadas por um código a fim de que seu conteúdo seja compreendido. Outros exemplos podem ser encontrados na linguagem poética e metafórica, onde a mensagem original só é plenamente compreendida quando comparada pelo receptor a um conjunto de culturas e conhecimentos (tácitos) não carregados em princípio pela mensagem original. Que Kardec utilizou essas propriedades na caracterização das mensagens mediúnicas não resta dúvida. Examinemos, por exemplo, o parágrafo 66 de “O Livro dos Médiuns” no Capítulo III, “Das manifestações inteligentes”: “Para uma manifestação ser inteligente, indispensável não é que seja eloqüente, espirituosa, ou sábia, basta que prove ser de um ato livre e voluntário, exprimindo uma intenção, ou respondendo a um pensamento. Decerto, quando uma ventoinha se move, toda gente sabe que apenas obedece a uma impulsão mecânica: à do vento; mas, se se reconhecem nos seus movimentos sinais de serem eles intencionais, se ela girasse para a direita ou para a esquerda, depressa ou devagar, conforme se lhe ordenasse, forçoso seria admitir-se, não que a ventoinha era inteligente, porém, que obedecia a uma inteligência. Isso o que se deu com a mesa.” Muito além de seu tempo, Kardec soube caracterizar as propriedades superiores das mensagens de conteúdo informativo inteligente que hoje é largamente utilizada na pesquisa por sinais inteligentes vindos do espaço ou na análise do processo de comunicação dos animais. De acordo com esses cinco níveis (que levam em conta a intenção do comunicante), podemos excluir a grande classe de sistemas naturais mecânicos (físicos) como geradores de informação. É o que Kardec diz quando utiliza do exemplo da ventoinha. No máximo tais sistemas gerariam sinais no nível estatístico sem significado. Por outro lado, a Natureza está cheia de criaturas capazes de se comunicar nos cinco níveis descritos acima. Sabemos que os animais se comunicam (consideremos as linguagens químicas das formigas ou o canto das baleias), logo trocam informação. O processo de comunicação nesses seres se dá muito de acordo com o modelo da Fig. 1 e nos cinco níveis descrito, onde podemos identificar cada um dos elementos da cadeia comunicativa. Machos de várias espécies de pássaros cantam para as fêmeas para chamar a atenção ou para reinvidicar território (um exemplo de comunicação até o nível pragmático). Mesmo com as plantas - embora muito limitadamente - há comunicação (consideremos os fenômenos de polinização com o esforço das flores em se tornarem atraentes aos insetos). Visto pura e simplesmente do ponto de vista do que temos discutido aqui, os seres humanos (Espíritos encarnados) podem ser vistos como seres vivos capazes de transformar energia química em informação. Essa definição é amplamente aceita na comunidade acadêmica (embora haja divergências quanto ao significado do termo informação) pois corresponde exatamente aos fatos. O problema aqui é saber onde está a origem da informação. Como vimos, depois de eliminar os sistemas mecânicos (o que inclui sistemas químicos ou bioquímicos reduzidos aos seus componentes atômicos), o que nos sobra? Informação como fonte no princípio inteligente: somente o espírito, tendo como atributo o princípio inteligente, é capaz de gerar, armazenar e manipular a informação que só pode ser compreendida cognitivamente por outra entidade que disponha desse mesmo atributo. Em outros termos propomos que a origem de toda informação, tal como descrita em seus atributos pelos níveis estatístico, sintático, semântico e abobético, está no espírito. Obvimente por “linguagem” não nos restringimos exclusivamente às representações gráficas e fonéticas de símbolos que nós, Espíritos encarnados em evolução, inventamos para facilitar o processo de comunicação. Seres considerados inferiores, mas que dispõem de princípio inteligente, comunicam-se por linguagem que podemos considerar primitiva (códigos químicos ou bioquímicos), o que propomos como uma evidência de sua natureza espiritual. A Natureza bruta não gera informação. Como Kardec na sua análise das manifestações inteligentes, hoje podemos dizer que forçoso é admitir-se, não que a matéria nesses casos seja inteligente, mas que obedeçe a uma inteligência. Essa inteligência é um atributo do Espírito. 5. Algumas considerações Exobiologia. Há um debate recente sobre a possibilidade de se descobrir vida inteligente em outros planetas para além de nosso sistema solar. Sabemos que a Doutrina Espírita previou com grande antecedência essa possibilidade. Atualmente, um programa de pesquisa bastante audacioso [4] está em andamento visando detectar vida extraterrestre totalmente baseados em sinais de rádio. A parte do problema de escolha de canal de transmissão, para que sejam aceitos como prova da existência dessas civilizações, esses sinais devem satisfazer um conjunto de critérios que passam pela análise da verificação dos atributos descritos na parte 4. A grande maioria dos sinais detectados via rádio obedecem padrões meramente estatísticos, isto é, não se caracterizam como sinais inteligentes pois são geradas por fontes naturais (estrelas, nuvens interestelares etc). Para que o sejam devem ter um objetivo contido na própria mensagem. Reconhe-se assim o caráter não físico das mensagem genuinamente inteligentes. Biologia. A biologia moderna descobriu que a chave para a estrutura dos seres vivos está no código genético. O DNA ou RNA são longas cadeias moledulares que descreveriam bioquimicamente os constituintes últimos dos seres vivos. O código genético é uma molécula com conteúdo altamente informativo (do ponto de vista da informação de Shannon, o DNA humano contém mais informação que todos os livros já editados na Terra). Um debate recente tem acontecido na comunidade acadêmica sobre a origem dessa cadeia. Já se calculou corretamente que a probabilidade de os átomos do DNA humano apresentarem seu arranjo característico por mera chanceser ínfimo. Isso deu origem a clamores recentes por parte dos neocriacionistas [3] de que a estrutura do DNA ter sido “dada por Deus”. Os opositores, baseados em modelos computacionais, puderam mostrar que essa sequência poderia ter sido gerada por chance se esta fosse assitida por algum mecanismo externo. De uma maneira muito simplificada imagina-se que a Natureza tenha uma função resposta que resulta em pesos altos caso a chance vá na direção correta (embora não se especifique quem seja o responsável por especificar qual seja essa direção). De maneira geral acredita-se que mecanismos de evolução das espécies, mutações e seleção natural tenham sido os responsáveis ao longo do tempo pela forma final da molécula. De nossa parte acreditamos que o argumento de “dada por Deus” é naturalmente válido pois Deus é a causa primária de todas as coisas. Porém podemos imaginar que o DNA represente hoje uma espécie de “documento material” que ateste o processo de evolução conjunta (através dos milhares de anos) do princípio espiritual com a matéria. Assim a origem do conteúdo informativo da molécula DNA e de outras proteínas importantes no metabolismos dos seres seria o próprio princípio espiritual em sua viagem de evolução ao longo de múltiplos renascimentos na matéria. Essa proposição parece ser atestada por muitos autores espirituais [5]. A física desbancada? O reconhecimento da importância da informação no Universo (assim como a matéria e a energia) e sua origem no princípio inteligente é um profundo golpe no reducionismo que previa ser possível reduzir todo nosso conhecimento das ciências às interações físicas entre seus constituintes. Mostra também que a descrição da “matéria viva” não pode ser feita baseando-se exclusivamente em princípios mecânicos ou quanto- mecânicos. Sistemas auto-organizáveis [6] têm sido propostos como modelos para a matéria viva, entretanto, à luz do que estamos expondo, esses sistemas são meros geradores de ordem (diminuição da entropia por serem sistemas abertos longe do equilíbrio) e não de informação. Essa conclusão pode ser revista no futuro pois o problema da origem da informação só muito recentemente recebeu atenção devida e não faz parte do programa normal de pesquisa da física. 6. Nota conclusiva. Isso posto concluímos que o princípio utilizado pelo codificador da Doutrina Espírita, Allan Kardec, que viu uma causa inteligente nas mensagens inteligentes [1] e com isso descobriu a origem não material das inteligências por detrás das mensagens pode ser expandido para toda a Natureza. Ousamos dizer que se a origem das comunicações mediúnicas foi atestadamente demonstrada como tendo origem em inteligências incorpóreas, então, muito provavelmente, a origem de toda informação com conteúdo verdadeiramente cognitivo não pode ser atribuída à matéria. Isso se extende a todos os fenômenos existentes que podemos classificar como tendo um objetivo ou inteligência. Referências [1] O Livro dos Médiums, Parágrafo 65, Capítulo III, Das manifestações inteligentes. 54ª Edição da Federação Espírita Brasileira, Tradução de Guillon Ribeiro. Ver também Ref. [7] “Prolegômenos”. [2] C. E. Shannon, ``A mathematical theory of communication,'' Bell System Technical Journal, 27, pp. 379-423 and 623-656,. Julho e Outubro de 1948. [3] Werner Gitt “Information, science and biology”. Publicado em Technical Journal 10 (2): 181-187. Agosto de 1996. [4] Ver www.seti.org (SETI - “Search for Extraterrestrial Inteligence”). “The mission of the SETI Institute is to explore, understand and explain the origin, nature and prevalence of life in the universe.” A missão do intituto SETI é explorar, compreender e explicar a origem, naturesa e prevalência de vida no Universo. [5] André Luiz, Evolução em Dois Mundos, Cap. VII, “Evolução da Hereditariedade”, 4ª edição. Federação Espírita Brasileira (1977). [6] Ver Press Release: The 1977 Nobel Prize of Chemistry (nobelprize.org). Nota para a imprensa sobre o prêmio Nobel de 1977 concedido a Ilya Prigogine por suas colaborações em termodinâmica fora do equilíbrio e estruturas dissipativas. [7] A Kardec, O Livro dos Espíritos, Tradução de Guillon Ribeiro, 71ª edição. Federação Espírita Brasileira (1991). http://www.geae.inf.br/pt/boletins/geae485.html ... Ademir L. Xavier Jr. > O que a Genética e a Astrologia tem em comum? Artigos Resumo Ainda que distantes em importância na sociedade moderna, algumas extrapolações de pensamento por detrás das modernas pesquisas genéticas e da velha astrologia têm muito em comum. Fazemos aqui uma comparação entre essas diferentes disciplinas e analisamos tais características comuns segundo a visão espírita, apontando a causa dessa situação[1]. 1. Introdução É muito comum encontrarmos hoje em dia discussões sobre as questões da consciência, sobre como a mente se estabelece e opera. Esse renovado debate (encontradas em respeitadas revistas de divulgação científica) reflete o grau crescente de interesse de alguns ramos do conhecimento científico com relação às questões do espírito. O ponto de vista subjacente que orienta as discussões ainda é materialista, apoiado principalmente por um grande contingente de biologistas (evolucionistas, fisiologistas, zoólogos, geneticistas etc). A crença geral desses grupos sustenta que a mente humana – e, como conseqüência toda individualidade humana – é o resultado de interações e conexões de entidades moleculares componentes da parte material, visível ou mensurável pelas técnicas de diagnóstico moderno, o cérebro. Não discutiremos aqui as difíceis propostas de modificação dessa concepção materialista, que têm sido levantadas mesmo dentro de círculos acadêmicos[2]. Tomemos apenas a idéia materialista descrita acima e analisemos suas conseqüências para o homem, dentro do âmbito de algumas especulações a partir de partes da biologia, em particular a que trata dos mecanismos de perpetuação das espécies. Esse posicionamento adquire grande interesse popular diante das aventadas extrapolações e implicações da genética. Através de seus princípios, a genética teve grande importância no esclarecimento dos mecanismos de aparecimento e desenvolvimento das espécies, fatos que não estavam tão claros na obra revolucionária de Charles Darwin de 1859, “Sobre a origem das espécies por meio da evolução natural”. Na verdade a comunidade científica da época dobrou-se às evidências práticas fornecidas por Darwin a favor da seleção natural que ele conseguiu junto à paleontologia e a biogeografia. Em contrapartida, o desenvolvimento posterior da teoria de Darwin dinamizada pela genética deu origem a diversas especulações em torno da natureza do homem (e das espécies humanas), de seu mecanismo de desenvolvimento e até mesmo de suas conseqüências éticas. Nasceu a idéia de que os genes (entidades no limite entre o muito pequeno e o atômico) seriam responsáveis não só pelos caracteres morfológicos de um ser vivo – que é princípio na genética – mas também de toda sua bagagem comportamental. Aplicada ao homem, essa forma radical de interpretação genética adquiriu enorme força na forma da “sociobiologia” ou “darwinismo social”. Foram lançados então os fundamentos para o desenvolvimento de um doutrina dentro das disciplinas consideradas científicas, que seria capaz de explicar completamente o indivíduo. A base de tal proposta seria a lei de perpetuação de um determinado gene como determinante de uma certa característica – seja morfológica ou comportamental mas principalmente esta última quando trouxesse vantagens claramente desejáveis a toda espécie. A perpetuação do gene favoreceria diretamente a perpetuação da própria espécie. Como corolário desse princípio (que é válido para os caracteres morfológicos), seria possível alterar o comportamento dos indivíduos pela manipulação genética.
Compartilhar