Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DO PARÁ INSTITUTO DE CIÊNCIAS BIOLÓGICAS FACULDADE DE BIOTECNOLOGIA 1ª apostila da disciplina NANOBIOTECNOLOGIA do curso de BIOTECNOLOGIA. 16 de outubro de 2020. 1. Conceito de nanotecnologia Nano é derivado da palavra grega nάnoς<nános> que significa “anão”. Na acepção moderna dessa palavra, nano é um prefixocom valor igual a 10-9. Quando corresponde à unidade de comprimento, em metros, por exemplo, 1nm (=10-9m = 1/1.000.000.000 m) equivale, aproximadamente,a distância ocupada por 5 a 10 átomos empilhados de maneira a formar uma linha, e quando necessário, a quantidade nano pode ser multiplicado por qualquer outra unidade de medida. A palavra tecnologia tem um significado comum, também derivado do grego (τέχνη<téchnē> que significa: arte, ofício, prática + λόγος<lógos> = conhecimento, estudo, ciência), pode ser geralmente descrita como a aplicação do método científico com objetivos práticos e comerciais. Em muitos casos, quando pessoas falam de nanotecnologia estão se referindo à pesquisa científica, ou seja, o termo nanotecnologia geralmente significa nanociência. O termo nanotecnologia é uma expressão mais comum, apesar de sabermos que a distinção formal entre os termos nanociência e nanotecnologia é igualmente comparável à diferenciação entre ciência e tecnologia na acepção moderna de ambas as palavras. Quando se fala em nanotecnologia não significa necessariamente uma aplicação factível em curto prazo da nanociência, mas existe parte da nanotecnologia que se usa acrescentar melhoria direta em uma tecnologia já desenvolvida, ou seja, utilizando materiais já conhecidos, mascom suas propriedades melhoradas por serem constituídos de nanoestruturas, ou seja, unidades estruturais com tamanhos entre 1 e 100 nm, por exemplos, nanopartículas, nanoesferas (fulereno C60), nanofios, etc. Existem também materiais que não tem precedentes tecnológicos e, consequentemente, ainda não são conhecidos seus riscos, como por exemplo, os nanotubos de carbono. Devido à ampliação e a rápida evolução no conceito de nanotecnologia pelo aumentofrequente do número de áreas científicas e tecnológicas envolvidas, e também devido ser um tema relativamente recente, a nanotecnologia ainda não apresenta uma definição rigorosa e formal no meio científico, inclusive gerando um grande debate a esse respeito. As academias de ciências Royal Society e a Royal Academy of Engineering na Grã-Bretanha sugeriram uma definição da nanotecnologia como: “A nanotecnologia consiste na produção e aplicação de estruturas, dispositivos e sistemas controlando a forma e o tamanho na escala nanométrica”. A agência americana NNI (National Nanotechnology Initiative) sugere uma definição bastante ampla da nanotecnologia como “a compreensão e o controle da matéria em dimensões de cerca de 1-100 nm”. Apesar de diferentes definições da nanotecnologia de variadas agências e instituições de pesquisa, todas as definições convergem para o mesmo conceito central de que “a nanotecnologia é a ciência que envolve a manipulação controlada de materiais nanoestruturados (materiais constituídos de unidades estruturais com tamanhos entre 1 – 100 nm) e a compreensão de novos efeitos físicos e químicos (novas propriedades ou propriedades alteradas) devido à escala nanométrica”. A nanotecnologia é uma ciência multidisciplinar que inclui conhecimentos da biologia, química, física, matemática, engenharias, computação e de outros ramos da ciência. Os efeitos de tamanho de partículas descrevem propriedades físicas dos materiais nanoestruturados, como propriedades mecânicas, ópticas, elétricas, magnéticas, etc. Enquanto os 2 efeitos induzidos pelo aumento da área superficial, devido à diminuição de tamanho de partículas, provocam um aumento significativo na sua reatividade, contribuindo para menores pontos de fusão, menor temperatura de reação, maior condutividade térmica, etc. O veloz avanço da nanotecnologia surgiu a partir da invenção do microscópico de varredura por tunelamento (STM, do inglês Scanning Tunneling Microscopy), em 1981, o qual permite formar a imagem de um único átomo ou de uma única molécula de cada vez numa tela de computador. Embora os microscópios eletrônicos já forneciam imagens de átomos numa tela fosforescente nos anos de 1950,o microscópico de tunelamento é o primeiro instrumento que permite igualmente tocar, com sua pequena ponta, um único átomo de cada vez, e ao mesmo tempo deslocá-lo à vontade, ou seja, manipular átomos. A manipulação de átomo, ou nanomanipulação, foi conhecida pela primeira vez em 1989, onde o físico norte-americano Donald Eigler e seus colaboradores nos laboratórios da IBM (International Business Machines) de Zurique, na Suíça, conseguiram fazer um pequeníssimo logotipo dessa empresa reunindo 35 átomos de xenônio depositados sobre uma superfície de prata. Este evento comprovou, experimentalmente, o que o físico Richard Feynman proferiu, no dia 29 de Dezembro de 1959, em uma conferência no encontro anual da Sociedade Americana de Física. Feynman em seu discurso intitulado “Há muito espaço lá em baixo” (do inglês “There is plenty of room at the bottom”) defendeu que não existia nenhum obstáculo teórico à construção de pequenos dispositivos compostos por elementos muito pequenos, no limite de átomo a átomo. O princípio básico do microscópico STM é, ao aplicar uma diferença de potencial entre uma ponta metálica extremamente fina e uma superfície condutora, a geração de uma pequena corrente elétrica de tunelamento no espaço entre a ponta e superfície quando muito próximas. A ponta metálica é varrida sobre uma superfície com uma corrente de tunelamento cuja intensidade depende da distância e da voltagem aplicada entre essa ponta e a superfície da amostra. A tecnologia capaz de controlar a aproximação e a varredura da ponta sobre uma superfície consiste na tensão direcional aplicada ao um material piezelétrico que suporta a ponta. A alta resolução do STM depende fortemente da intensidade da corrente de tunelamento. Uma pequena variação na distância entre a ponta e a superfície causa uma enorme variação da corrente de tunelamento, por exemplo, em superfícies metálicas, uma variação de 2 a 5 Å causa uma variação na corrente ΔI de três ordens de grandeza. Como a microscopia de tunelamento é restrita no experimento da corrente de tunelamento entre a ponta metálica e uma superfície de um material condutor foi pensado algo para resolver esse problema. Foi inventada uma técnica que ao invés de medir a corrente de tunelamento media-se a força de interação entre átomos da extremidade da ponta e átomos da superfície da amostra, surge então a microscopia por força atômica (AFM, do inglês Atomic Force Microscopy) Com a microscopia AFM é possível controlar a força e a distância entre a ponta e a amostra, com isso, podendo fazer uma imagem não somente de superfícies de materiais condutores, mas também de materiais isolantes, semicondutores e até de células vivas. Esse tipo de microscopia é de grande vantagem para muitas áreas de pesquisa, inclusive a biologia. Atualmente é possível, por exemplo, colocar uma droga de interesse em cima de uma célula e ver, por meio da microscopia de AFM, se a célula responde ou não à aquela droga. O microscópio de força atômica também pode mapear propriedades adesivas e elásticas de uma superfície. Fica claro que o precursor do microscópico por força atômica (AFM) foi o microscópio de varredura por tunelamento (STM). Estas duas microscopias foram as duas primeiras precursoras do que hoje se chama “família de microscopias de varredura por sonda” (SPM, do inglês Scanning Probe Microscopy). Atualmente a microscopia SPM compõe mais de 10 técnicas de diferentes microscopias. Entre as microscopias SPM, a microscopia AFM é a mais notável por ter causado grande impacto nas ciências no estudo das propriedades de superfície de metais, cerâmicos,polímeros e produtos naturais. Nos sistemas biológicos, os microscópios SPM têm sido utilizados 3 para estudar tanto estruturas celulares, como propriedades físicas e químicas de biomoléculas aderidas em superfícies inertes ou em superfícies biológicas. A família de microscopia SPM abre uma janela muito ampla em termos da compreensão do que está acontecendo em diferentes ambientes, inclusive em meios líquidos, que se tornou muito importante no mundo biológico. 2. Evolução do conceito em nanotecnologia Nos anos de 1980, a nanotecnologia já era um sonho para todos aqueles que se sentiam preocupados com o futuro do planeta. Tornava-se evidente que um dia seria preciso reduzir a quantidade de matéria e energia consumidas para fabricar todas as nossas máquinas e produtos. A nanotecnologia, ainda engatinhando na época, tinha como modelo ideal de libertar totalmente a indústria da utilização de matérias-primas em massa para fazê-la entrar numa era de desenvolvimento sustentável. Assim, tinha a pretensão ideal de explorar somente novas tecnologias inofensivas ao meio ambiente em todas as vertentes industriais. Exemplos de tais trabalhos da época, os trabalhos de Kevin Ulmer, diretor de pesquisas da empresa Genex na Califórnia, que pretendia fabricar circuitos eletrônicos ultraminiaturizados à base de proteínas produzidas por bactérias geneticamente programadas. Forrest Carter, químico norte-americano do NRL (Naval Research Laboratory), imaginava diminuir o tamanho não apenas dos componentes, como também do circuito eletrônico inteiro, limitado a algumas moléculas. Esses projetos alimentavam a esperança de transformar a microeletrônica numa “nanoeletrônica” que viesse a moderar os efeitos ambientais gerados pela indústria eletrônica. Entre estes vislumbrantes sonhos, estavam os de Eric Drexler, jovem engenheiro do MIT (Massachusetts Institute of Technology) em Boston. Em seu livro Engines of Creation(“Máquinas da Criação”, numa tradução livre), publicado em 1986, ele descreve máquinas moleculares do futuro capazes de reciclar dejetos e produzir água pura e energia, fariam nossa civilização alcançar a tecnologia molecular. Eric Drexler foi atacado por um grande número de cientistas que criticavam a ausência de base científica em seus trabalhos. Resumindo, a ideia inicial de nanotecnologia era baseada na tecnologia Botton-up (de baixo para cima), também chamado de monumentalização, ou seja, envolvia manipulações de átomos, na formação de moléculas para a construção de estruturas maiores, como dispositivos e máquinas, com quantidade mínima suficiente de átomos para tais componentes realizarem suas tarefas. O conceito inicial da nanotecnologia foi evoluído para o sentido mais amplo, devido à busca do progresso em várias áreas de pesquisa e tecnologia de materiais. 3. Evolução do conceito em nanotecnologia II Em junho de 1992, a ecotecnologia foi tratada como uma das prioridades mundias na II Cúpula da Terra, realizada no Rio de Janeiro. A ânsia ecológica de um senador Tennesse, Albert Gore, vibrava tanto que, logo depois de seu retorno do Rio de Janeiro para os Estados Unidos, solicitou uma audiência no Senado, com os melhores especialistas norte-americanos sobre o tema das “novas tecnologias para um desenvolvimento sustentável”. Entre as pessoas ouvidas estava Eric Drexler. Seu livro renovara o interesse pelo assunto. Na verdade, na data de sua publicação, em 1986, a manipulação de átomos, que permitiria a realização de nanocomputadores e outras máquinas, não passava de uma possibilidade hipotética contestada por diversos cientistas. Porém, 1989, o mundo descobria que o microscópico de tunelamento podia deslocar átomos à vontade – isso conferiu credibilidade a Eric Drexler e à sua obra. Em 26 de junho de 1992, portanto, Eric Drexler foi convidado a pronunciar-se perante a comissão de senadores americanos reunida por Al Gore (Albert Gore). Na sua exposição declarou que o controle, molécula por molécula, da construção de uma máquina pode se tornar uma tecnologia mais limpa e eficiente que todas as outras conhecidas. Usou o nome de Richard Feynman para dar 4 um importante aval científico a esse projeto, alegando que o ilustre físico já previa a fabricação em escala nanométrica. Eric Drexler iria desempenhar o papel de um “Júlio Verne*” moderno, sobressaindo na previsão tecnológica. *Júlio Verne, em francês Jules Verne (1828-1905) foi um escritor francês. É considerado por críticos literários como o precursor do gênero de ficção científica, tendo feito predições em seus livros sobre o aparecimento de novos avanços científicos, como os submarinos, máquinas voadoras e viagem à Lua. Alguns dos filmes principais baseados em seus livros são: a volta ao mundo em 80 dias, viagem ao centro da terra, viagem à lua, 20.000 léguas submarinas. Eleito presidente em novembro de 1992, Bill Clinton confiou a responsabilidade pelas novas tecnologias a seu vice-presidente, Al Gore. Os Estados Unidos foram então obrigados a superar diversos desafios diferentes na época. O fim da Guerra Fria modificou as prioridades da pesquisa norte-americana, que foi obrigada a se adaptar à nova concorrência mundial. Não se tratava mais apenas de defender a pesquisa militar, mas de fortalecer os programas de pesquisa e desenvolvimento referentes aos bens de consumo civis. O excelente progresso das indústrias eletrônicas japonesas e coreanas dava calafrios nos industriais americanos. A partir de então, a revolução na nanotecnologia foi mais intensa, tornou-se mais ampla, muito além de seu objeto inicial (a manipulação dos átomos) e de seu projeto original (a ecotecnologia) mas elevando a importância da preservação do meio ambiente e da sustentabilidade ao longo do tempo. 4. Miniaturização A miniaturização, conhecida também como técnica top-down, utiliza métodos de erosão ou desgaste para produzir estruturas e/ou dispositivos a partir de uma peça maior. Como exemplo, a técnica de fotolitografia é utilizada para o processo de miniaturização de transistores e de outros componentes constituindo um chip (circuito integrado) a partir de um sólido semicondutor. Em seu primórdio, o telefone era inteiramente manual: numa central telefônica, cada operadora devia conectar e desconectar diversos plugues elétricos para pôr dois interlocutores em contato. Em todas as cidades do mundo aumentava incrivelmente o número de assinantes de telefones. Para responder à demanda, pensava-se em uma solução de automatizar as conexões nas centrais telefônicas. Os engenheiros recorreram inicialmente a pequenos relés eletromecânicos, depois aos tubos a vácuo (válvulas). Posteriormente em 1947, o transistor foi inventado nos laboratórios da Bell Telephone Company, foi o primeiro dispositivo em estado sólido constituído por um pequeno semicondutor. O transistor além de realizar a função da válvula com eficiência também era menor e não exigia preaquecimento para funcionar. Esses transistores iriam se tornar os componentes básicos de toda a eletrônica. Quando combinados, constituem funções lógicas e memórias, utilizadas em todos os circuitos eletrônicos. Todavia, no início, era preciso recortá-los um depois do outro em um cristal semicondutor, depois conectá-los um a um, soldando a mão os fios elétricos de conexão: uma operação manual fastidiosa, realizada com a ajuda do microscópico óptico, e fonte de vários defeitos. Com isso surgiu a tecnologia dos circuitos integrados, que respondia à necessidade de automatizar o conjunto dos componentes num mesmo suporte. A corrida à miniaturização dos circuitos integrados estava começando. Em 1965, o circuito integrado mais complexo continha cerca de 30 componentes, entre os quais alguns transistores. Em 1971, a empresa Intel Corporation produziu o primeiro microprocessador, cujo chip continha 2.250 transistores. O número de transistores sobre um chip alcançou mais de 250 milhões em 2007. Até então, obedecendoa “lei de Moore”, no qual diz a respeito, que em 1975 Gordon Moore observou que a densidade dos componentes na superfície de um circuito integrado duplicava a cada dois anos. Em 2006, a distância entre a entrada e a saída do transistor não mede mais que 90 nm. Em 2007, os circuitos integrados constituídos por transistores de 65 nm (distância entre a entrada e a saída) aparecem no mercado. Os fabricados atualmente já possuem 45 nm e são 100 vezes menores que um glóbulo vermelho. 5 Nos transistores mais recentes de 20 nm ou menos, fabricados atualmente nos laboratórios de pesquisa, funcionam precariamente. As disfunções envolvidas não se devem à má fabricação, mas suas dimensões são de tal forma reduzidas que efeitos quânticos começam a predominar, fazendo que os transistores não funcionam como os transistores maiores. As desvantagem para os transistores deste tamanho ou inferior é, quando um elétron consegue entrar no transistor, sua presença basta para bloquear a passagem de outros. É o fenômeno do “bloqueio de Coulomb”: nenhum elétron penetra mais porque o custo energético é muito alto. A inexorável miniaturização vai além da eletrônica. Diz respeito a outros setores, como por exemplo, a mecânica. É importante observar que a miniaturização tem grande importância em várias áreas de ciência e tecnologia, envolvendo a nanotecnologia ou não. Quando se fala em miniaturização não necessariamente se refere à miniaturização de mecanismos que resulta em nanoestruturas. Pode ser que uma manipulação de miniaturização de um material tenha resolução nanométrica,mas ainda tal material não seja constituído de nanoestruturas. Sistemas microeletromecânicos (Mems, do inglês: Micro-Electro-Mechanical Systems) são sistemas que associam microelementos mecânicos à eletrônica. Da mesma forma que os transistores na indústria da microeletrônica, os Mems são produzidos em grande quantidade a baixo custo. Esses Mems reconstituem em pequena escala as peças e máquinas que existem na escala macroscópica: rodas, bombas, válvulas, pinças, engrenagens, etc, que são fabricados de poucos micrômetros até um décimo de micrometro (100 nm). Os Mens estão nos cartuchos para impressoras a jato de tinta, microespelhos nos projetores de vídeo, câmeras fotográficas, filmadoras, relógios, estimuladores cardíacos, e atualmente representam entre 20 e 40% do custo de um carro. Análogo aos Mems, já se tem sistemas nanoeletromecânicos (Nems, do inglês: Nano-Electro- Mechanical Systems), que são sistemas que associam nanoelementos mecânicos e eletrônicos. Os Nems não são desenvolvidos e comerciais como os sistemas Mems, mas estão em decorrente progresso como diversos campos associados à nanotecnologia. Referências Bibliográficas: 1) Lobo, R. F. M. Nanotecnologia e nanofísica: conceitos de nanociência moderna. Lisboa: Escolar Editora, 2009. 2) Schulz, P. A encruzilhada da nanotecnologia: inovação, tecnologia e riscos. Rio de Janeiro: Vieira & Lent Casa Editoral Ltda, 2009. 3) Joachim, C.; Plévert, L. Nanociências: a revolução do invisível. Rio de Janeiro: Jorge Zahar Ed., 2009. 4) Durán, N.; Mattoso, L. H. C.; Morais, P. C. Nanotecnologia - introdução, preparação e caracterização de nanomateriais e exemplos de aplicação. São Paulo: Artliber Editora Ltda, 2006. 5) Poole C. ; Owens F.J. Introduction to nanotechnology. John Wiley, 2003.
Compartilhar