Buscar

1a_apostila_nano__enviada_2020-10-16

Prévia do material em texto

1 
 
 
SERVIÇO PÚBLICO FEDERAL 
UNIVERSIDADE FEDERAL DO PARÁ 
INSTITUTO DE CIÊNCIAS BIOLÓGICAS 
FACULDADE DE BIOTECNOLOGIA 
 
1ª apostila da disciplina NANOBIOTECNOLOGIA do curso de BIOTECNOLOGIA. 
 16 de outubro de 2020. 
 
1. Conceito de nanotecnologia 
Nano é derivado da palavra grega nάnoς<nános> que significa “anão”. Na acepção moderna 
dessa palavra, nano é um prefixocom valor igual a 10-9. Quando corresponde à unidade de 
comprimento, em metros, por exemplo, 1nm (=10-9m = 1/1.000.000.000 m) equivale, 
aproximadamente,a distância ocupada por 5 a 10 átomos empilhados de maneira a formar uma linha, 
e quando necessário, a quantidade nano pode ser multiplicado por qualquer outra unidade de medida. 
A palavra tecnologia tem um significado comum, também derivado do grego (τέχνη<téchnē> 
que significa: arte, ofício, prática + λόγος<lógos> = conhecimento, estudo, ciência), pode ser 
geralmente descrita como a aplicação do método científico com objetivos práticos e comerciais. 
Em muitos casos, quando pessoas falam de nanotecnologia estão se referindo à pesquisa 
científica, ou seja, o termo nanotecnologia geralmente significa nanociência. O termo nanotecnologia 
é uma expressão mais comum, apesar de sabermos que a distinção formal entre os termos 
nanociência e nanotecnologia é igualmente comparável à diferenciação entre ciência e tecnologia na 
acepção moderna de ambas as palavras. 
Quando se fala em nanotecnologia não significa necessariamente uma aplicação factível em 
curto prazo da nanociência, mas existe parte da nanotecnologia que se usa acrescentar melhoria 
direta em uma tecnologia já desenvolvida, ou seja, utilizando materiais já conhecidos, mascom suas 
propriedades melhoradas por serem constituídos de nanoestruturas, ou seja, unidades estruturais com 
tamanhos entre 1 e 100 nm, por exemplos, nanopartículas, nanoesferas (fulereno C60), nanofios, etc. 
Existem também materiais que não tem precedentes tecnológicos e, consequentemente, ainda não são 
conhecidos seus riscos, como por exemplo, os nanotubos de carbono. 
Devido à ampliação e a rápida evolução no conceito de nanotecnologia pelo 
aumentofrequente do número de áreas científicas e tecnológicas envolvidas, e também devido ser um 
tema relativamente recente, a nanotecnologia ainda não apresenta uma definição rigorosa e formal no 
meio científico, inclusive gerando um grande debate a esse respeito. 
As academias de ciências Royal Society e a Royal Academy of Engineering na Grã-Bretanha 
sugeriram uma definição da nanotecnologia como: “A nanotecnologia consiste na produção e 
aplicação de estruturas, dispositivos e sistemas controlando a forma e o tamanho na escala 
nanométrica”. 
A agência americana NNI (National Nanotechnology Initiative) sugere uma definição 
bastante ampla da nanotecnologia como “a compreensão e o controle da matéria em dimensões de 
cerca de 1-100 nm”. 
Apesar de diferentes definições da nanotecnologia de variadas agências e instituições de 
pesquisa, todas as definições convergem para o mesmo conceito central de que “a nanotecnologia é a 
ciência que envolve a manipulação controlada de materiais nanoestruturados (materiais constituídos 
de unidades estruturais com tamanhos entre 1 – 100 nm) e a compreensão de novos efeitos físicos e 
químicos (novas propriedades ou propriedades alteradas) devido à escala nanométrica”. A 
nanotecnologia é uma ciência multidisciplinar que inclui conhecimentos da biologia, química, física, 
matemática, engenharias, computação e de outros ramos da ciência. 
Os efeitos de tamanho de partículas descrevem propriedades físicas dos materiais 
nanoestruturados, como propriedades mecânicas, ópticas, elétricas, magnéticas, etc. Enquanto os 
 
2 
 
efeitos induzidos pelo aumento da área superficial, devido à diminuição de tamanho de partículas, 
provocam um aumento significativo na sua reatividade, contribuindo para menores pontos de fusão, 
menor temperatura de reação, maior condutividade térmica, etc. 
O veloz avanço da nanotecnologia surgiu a partir da invenção do microscópico de varredura 
por tunelamento (STM, do inglês Scanning Tunneling Microscopy), em 1981, o qual permite formar 
a imagem de um único átomo ou de uma única molécula de cada vez numa tela de computador. 
Embora os microscópios eletrônicos já forneciam imagens de átomos numa tela fosforescente nos 
anos de 1950,o microscópico de tunelamento é o primeiro instrumento que permite igualmente tocar, 
com sua pequena ponta, um único átomo de cada vez, e ao mesmo tempo deslocá-lo à vontade, ou 
seja, manipular átomos. 
A manipulação de átomo, ou nanomanipulação, foi conhecida pela primeira vez em 1989, 
onde o físico norte-americano Donald Eigler e seus colaboradores nos laboratórios da IBM 
(International Business Machines) de Zurique, na Suíça, conseguiram fazer um pequeníssimo 
logotipo dessa empresa reunindo 35 átomos de xenônio depositados sobre uma superfície de prata. 
Este evento comprovou, experimentalmente, o que o físico Richard Feynman proferiu, no dia 29 de 
Dezembro de 1959, em uma conferência no encontro anual da Sociedade Americana de Física. 
Feynman em seu discurso intitulado “Há muito espaço lá em baixo” (do inglês “There is plenty of 
room at the bottom”) defendeu que não existia nenhum obstáculo teórico à construção de pequenos 
dispositivos compostos por elementos muito pequenos, no limite de átomo a átomo. 
O princípio básico do microscópico STM é, ao aplicar uma diferença de potencial entre uma 
ponta metálica extremamente fina e uma superfície condutora, a geração de uma pequena corrente 
elétrica de tunelamento no espaço entre a ponta e superfície quando muito próximas. A ponta 
metálica é varrida sobre uma superfície com uma corrente de tunelamento cuja intensidade depende 
da distância e da voltagem aplicada entre essa ponta e a superfície da amostra. A tecnologia capaz de 
controlar a aproximação e a varredura da ponta sobre uma superfície consiste na tensão direcional 
aplicada ao um material piezelétrico que suporta a ponta. A alta resolução do STM depende 
fortemente da intensidade da corrente de tunelamento. Uma pequena variação na distância entre a 
ponta e a superfície causa uma enorme variação da corrente de tunelamento, por exemplo, em 
superfícies metálicas, uma variação de 2 a 5 Å causa uma variação na corrente ΔI de três ordens de 
grandeza. 
Como a microscopia de tunelamento é restrita no experimento da corrente de tunelamento 
entre a ponta metálica e uma superfície de um material condutor foi pensado algo para resolver esse 
problema. Foi inventada uma técnica que ao invés de medir a corrente de tunelamento media-se a 
força de interação entre átomos da extremidade da ponta e átomos da superfície da amostra, surge 
então a microscopia por força atômica (AFM, do inglês Atomic Force Microscopy) 
Com a microscopia AFM é possível controlar a força e a distância entre a ponta e a amostra, 
com isso, podendo fazer uma imagem não somente de superfícies de materiais condutores, mas 
também de materiais isolantes, semicondutores e até de células vivas. Esse tipo de microscopia é de 
grande vantagem para muitas áreas de pesquisa, inclusive a biologia. Atualmente é possível, por 
exemplo, colocar uma droga de interesse em cima de uma célula e ver, por meio da microscopia de 
AFM, se a célula responde ou não à aquela droga. O microscópio de força atômica também pode 
mapear propriedades adesivas e elásticas de uma superfície. 
Fica claro que o precursor do microscópico por força atômica (AFM) foi o microscópio de 
varredura por tunelamento (STM). Estas duas microscopias foram as duas primeiras precursoras do 
que hoje se chama “família de microscopias de varredura por sonda” (SPM, do inglês Scanning 
Probe Microscopy). Atualmente a microscopia SPM compõe mais de 10 técnicas de diferentes 
microscopias. Entre as microscopias SPM, a microscopia AFM é a mais notável por ter causado 
grande impacto nas ciências no estudo das propriedades de superfície de metais, cerâmicos,polímeros e produtos naturais. Nos sistemas biológicos, os microscópios SPM têm sido utilizados 
 
3 
 
para estudar tanto estruturas celulares, como propriedades físicas e químicas de biomoléculas 
aderidas em superfícies inertes ou em superfícies biológicas. 
A família de microscopia SPM abre uma janela muito ampla em termos da compreensão do 
que está acontecendo em diferentes ambientes, inclusive em meios líquidos, que se tornou muito 
importante no mundo biológico. 
 
2. Evolução do conceito em nanotecnologia 
Nos anos de 1980, a nanotecnologia já era um sonho para todos aqueles que se sentiam 
preocupados com o futuro do planeta. Tornava-se evidente que um dia seria preciso reduzir a 
quantidade de matéria e energia consumidas para fabricar todas as nossas máquinas e produtos. 
A nanotecnologia, ainda engatinhando na época, tinha como modelo ideal de libertar 
totalmente a indústria da utilização de matérias-primas em massa para fazê-la entrar numa era de 
desenvolvimento sustentável. Assim, tinha a pretensão ideal de explorar somente novas tecnologias 
inofensivas ao meio ambiente em todas as vertentes industriais. Exemplos de tais trabalhos da época, 
os trabalhos de Kevin Ulmer, diretor de pesquisas da empresa Genex na Califórnia, que pretendia 
fabricar circuitos eletrônicos ultraminiaturizados à base de proteínas produzidas por bactérias 
geneticamente programadas. 
Forrest Carter, químico norte-americano do NRL (Naval Research Laboratory), imaginava 
diminuir o tamanho não apenas dos componentes, como também do circuito eletrônico inteiro, 
limitado a algumas moléculas. Esses projetos alimentavam a esperança de transformar a 
microeletrônica numa “nanoeletrônica” que viesse a moderar os efeitos ambientais gerados pela 
indústria eletrônica. 
Entre estes vislumbrantes sonhos, estavam os de Eric Drexler, jovem engenheiro do MIT 
(Massachusetts Institute of Technology) em Boston. Em seu livro Engines of Creation(“Máquinas da 
Criação”, numa tradução livre), publicado em 1986, ele descreve máquinas moleculares do futuro 
capazes de reciclar dejetos e produzir água pura e energia, fariam nossa civilização alcançar a 
tecnologia molecular. Eric Drexler foi atacado por um grande número de cientistas que criticavam a 
ausência de base científica em seus trabalhos. 
Resumindo, a ideia inicial de nanotecnologia era baseada na tecnologia Botton-up (de baixo 
para cima), também chamado de monumentalização, ou seja, envolvia manipulações de átomos, na 
formação de moléculas para a construção de estruturas maiores, como dispositivos e máquinas, com 
quantidade mínima suficiente de átomos para tais componentes realizarem suas tarefas. 
O conceito inicial da nanotecnologia foi evoluído para o sentido mais amplo, devido à busca 
do progresso em várias áreas de pesquisa e tecnologia de materiais. 
 
3. Evolução do conceito em nanotecnologia II 
Em junho de 1992, a ecotecnologia foi tratada como uma das prioridades mundias na II 
Cúpula da Terra, realizada no Rio de Janeiro. A ânsia ecológica de um senador Tennesse, Albert 
Gore, vibrava tanto que, logo depois de seu retorno do Rio de Janeiro para os Estados Unidos, 
solicitou uma audiência no Senado, com os melhores especialistas norte-americanos sobre o tema das 
“novas tecnologias para um desenvolvimento sustentável”. Entre as pessoas ouvidas estava Eric 
Drexler. Seu livro renovara o interesse pelo assunto. Na verdade, na data de sua publicação, em 
1986, a manipulação de átomos, que permitiria a realização de nanocomputadores e outras máquinas, 
não passava de uma possibilidade hipotética contestada por diversos cientistas. Porém, 1989, o 
mundo descobria que o microscópico de tunelamento podia deslocar átomos à vontade – isso 
conferiu credibilidade a Eric Drexler e à sua obra. 
Em 26 de junho de 1992, portanto, Eric Drexler foi convidado a pronunciar-se perante a 
comissão de senadores americanos reunida por Al Gore (Albert Gore). Na sua exposição declarou 
que o controle, molécula por molécula, da construção de uma máquina pode se tornar uma tecnologia 
mais limpa e eficiente que todas as outras conhecidas. Usou o nome de Richard Feynman para dar 
 
4 
 
um importante aval científico a esse projeto, alegando que o ilustre físico já previa a fabricação em 
escala nanométrica. Eric Drexler iria desempenhar o papel de um “Júlio Verne*” moderno, 
sobressaindo na previsão tecnológica. 
 
*Júlio Verne, em francês Jules Verne (1828-1905) foi um escritor francês. É considerado por críticos literários como o 
precursor do gênero de ficção científica, tendo feito predições em seus livros sobre o aparecimento de novos avanços 
científicos, como os submarinos, máquinas voadoras e viagem à Lua. Alguns dos filmes principais baseados em seus 
livros são: a volta ao mundo em 80 dias, viagem ao centro da terra, viagem à lua, 20.000 léguas submarinas. 
 
Eleito presidente em novembro de 1992, Bill Clinton confiou a responsabilidade pelas novas 
tecnologias a seu vice-presidente, Al Gore. Os Estados Unidos foram então obrigados a superar 
diversos desafios diferentes na época. O fim da Guerra Fria modificou as prioridades da pesquisa 
norte-americana, que foi obrigada a se adaptar à nova concorrência mundial. Não se tratava mais 
apenas de defender a pesquisa militar, mas de fortalecer os programas de pesquisa e 
desenvolvimento referentes aos bens de consumo civis. O excelente progresso das indústrias 
eletrônicas japonesas e coreanas dava calafrios nos industriais americanos. A partir de então, a 
revolução na nanotecnologia foi mais intensa, tornou-se mais ampla, muito além de seu objeto inicial 
(a manipulação dos átomos) e de seu projeto original (a ecotecnologia) mas elevando a importância 
da preservação do meio ambiente e da sustentabilidade ao longo do tempo. 
4. Miniaturização 
A miniaturização, conhecida também como técnica top-down, utiliza métodos de erosão ou 
desgaste para produzir estruturas e/ou dispositivos a partir de uma peça maior. Como exemplo, a 
técnica de fotolitografia é utilizada para o processo de miniaturização de transistores e de outros 
componentes constituindo um chip (circuito integrado) a partir de um sólido semicondutor. 
Em seu primórdio, o telefone era inteiramente manual: numa central telefônica, cada 
operadora devia conectar e desconectar diversos plugues elétricos para pôr dois interlocutores em 
contato. Em todas as cidades do mundo aumentava incrivelmente o número de assinantes de 
telefones. Para responder à demanda, pensava-se em uma solução de automatizar as conexões nas 
centrais telefônicas. Os engenheiros recorreram inicialmente a pequenos relés eletromecânicos, 
depois aos tubos a vácuo (válvulas). 
Posteriormente em 1947, o transistor foi inventado nos laboratórios da Bell Telephone 
Company, foi o primeiro dispositivo em estado sólido constituído por um pequeno semicondutor. O 
transistor além de realizar a função da válvula com eficiência também era menor e não exigia 
preaquecimento para funcionar. 
Esses transistores iriam se tornar os componentes básicos de toda a eletrônica. Quando 
combinados, constituem funções lógicas e memórias, utilizadas em todos os circuitos eletrônicos. 
Todavia, no início, era preciso recortá-los um depois do outro em um cristal semicondutor, depois 
conectá-los um a um, soldando a mão os fios elétricos de conexão: uma operação manual fastidiosa, 
realizada com a ajuda do microscópico óptico, e fonte de vários defeitos. Com isso surgiu a 
tecnologia dos circuitos integrados, que respondia à necessidade de automatizar o conjunto dos 
componentes num mesmo suporte. 
A corrida à miniaturização dos circuitos integrados estava começando. Em 1965, o circuito 
integrado mais complexo continha cerca de 30 componentes, entre os quais alguns transistores. Em 
1971, a empresa Intel Corporation produziu o primeiro microprocessador, cujo chip continha 2.250 
transistores. O número de transistores sobre um chip alcançou mais de 250 milhões em 2007. Até 
então, obedecendoa “lei de Moore”, no qual diz a respeito, que em 1975 Gordon Moore observou 
que a densidade dos componentes na superfície de um circuito integrado duplicava a cada dois anos. 
Em 2006, a distância entre a entrada e a saída do transistor não mede mais que 90 nm. Em 
2007, os circuitos integrados constituídos por transistores de 65 nm (distância entre a entrada e a 
saída) aparecem no mercado. Os fabricados atualmente já possuem 45 nm e são 100 vezes menores 
que um glóbulo vermelho. 
 
5 
 
Nos transistores mais recentes de 20 nm ou menos, fabricados atualmente nos laboratórios de 
pesquisa, funcionam precariamente. As disfunções envolvidas não se devem à má fabricação, mas 
suas dimensões são de tal forma reduzidas que efeitos quânticos começam a predominar, fazendo 
que os transistores não funcionam como os transistores maiores. As desvantagem para os transistores 
deste tamanho ou inferior é, quando um elétron consegue entrar no transistor, sua presença basta para 
bloquear a passagem de outros. É o fenômeno do “bloqueio de Coulomb”: nenhum elétron penetra 
mais porque o custo energético é muito alto. 
A inexorável miniaturização vai além da eletrônica. Diz respeito a outros setores, como por 
exemplo, a mecânica. É importante observar que a miniaturização tem grande importância em várias 
áreas de ciência e tecnologia, envolvendo a nanotecnologia ou não. Quando se fala em 
miniaturização não necessariamente se refere à miniaturização de mecanismos que resulta em 
nanoestruturas. Pode ser que uma manipulação de miniaturização de um material tenha resolução 
nanométrica,mas ainda tal material não seja constituído de nanoestruturas. 
Sistemas microeletromecânicos (Mems, do inglês: Micro-Electro-Mechanical Systems) são 
sistemas que associam microelementos mecânicos à eletrônica. Da mesma forma que os transistores 
na indústria da microeletrônica, os Mems são produzidos em grande quantidade a baixo custo. 
Esses Mems reconstituem em pequena escala as peças e máquinas que existem na escala 
macroscópica: rodas, bombas, válvulas, pinças, engrenagens, etc, que são fabricados de poucos 
micrômetros até um décimo de micrometro (100 nm). Os Mens estão nos cartuchos para impressoras 
a jato de tinta, microespelhos nos projetores de vídeo, câmeras fotográficas, filmadoras, relógios, 
estimuladores cardíacos, e atualmente representam entre 20 e 40% do custo de um carro. 
Análogo aos Mems, já se tem sistemas nanoeletromecânicos (Nems, do inglês: Nano-Electro-
Mechanical Systems), que são sistemas que associam nanoelementos mecânicos e eletrônicos. Os 
Nems não são desenvolvidos e comerciais como os sistemas Mems, mas estão em decorrente 
progresso como diversos campos associados à nanotecnologia. 
 
 
 
Referências Bibliográficas: 
 
1) Lobo, R. F. M. Nanotecnologia e nanofísica: conceitos de nanociência moderna. Lisboa: 
Escolar Editora, 2009. 
2) Schulz, P. A encruzilhada da nanotecnologia: inovação, tecnologia e riscos. Rio de Janeiro: 
Vieira & Lent Casa Editoral Ltda, 2009. 
3) Joachim, C.; Plévert, L. Nanociências: a revolução do invisível. Rio de Janeiro: Jorge Zahar Ed., 
2009. 
4) Durán, N.; Mattoso, L. H. C.; Morais, P. C. Nanotecnologia - introdução, preparação e 
caracterização de nanomateriais e exemplos de aplicação. São Paulo: Artliber Editora Ltda, 2006. 
5) Poole C. ; Owens F.J. Introduction to nanotechnology. John Wiley, 2003.

Continue navegando