Buscar

Arquitetura de Computadores -Tendências Futuras em Arquitetura de Computadores

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Tendências Futuras em Arquitetura de 
Computadores 
 
O modelo computacional de Von Neumann já é sexagenário e se fosse uma pessoa já estaria 
bem próximo da aposentadoria por idade. É bem verdade que houve algumas recauchutagens 
notáveis como a RISC, mas não mudou muita coisa. Além disso é iminente o esgotamento da 
Lei de Moore em virtude do limite físico do Silício empregado hoje nos semicondutores, o que 
deve ocorrer no começo da década de 2020. 
 
Assim, intensificam-se os esforços em se desenvolver tanto novas arquiteturas, como novos 
materiais e processos de fabricação para os sistemas computacionais, o que tem sido 
chamado de "More than Moore". 
 
As melhores perspectivas ainda são para médio e longo prazo. A curto e a médio prazo parece 
mais prudente esperarmos por arquiteturas "super heterogêneas", com a presença de 
múltiplos aceleradores para aplicações específicas. Alguns acreditam que mesmo a longo 
prazo, mesmo as novas arquiteturas quânticas serão híbridas com a computação tradicional 
atual. 
 
More than Moore (Materiais e Processos) 
Envolve novos materiais e processos de fabricação, química e física. 
Substituição, ou extensão, do CMOS: 
▪ Ampliação da eletrônica para a spintrônica(?); 
▪ Grafeno; 
▪ CNT (Carbon Nano Tube); 
▪ Dark silicon. 
Chips 2.5D e 3D (multistack): 
▪ Uso de fotônica para conexão intrachip (e eventualmente interchip). 
Novos componentes como memristores podem ser colocados nesta lista, mas geralmente 
requerem novas arquiteturas de processamento também. 
 
A ITRS (International Technology Roadmap for Semiconductors) cunhou a expressão “More-
than-Moore” e era o "ponto central" das iniciativas nessa direção, mas que agora estão 
reunidas no IEEE International Roadmap for Devices and Systems. 
 
Alguns dos principais grupos de pesquisa trabalhando com aplicações computacionais 
com grafeno e CNT podem ser encontrados nas universidades de Stanford, Harvard 
(Química) e na parceria da IBM TJ Watson Research Center com a Duke University. 
Tendências em Arquitetura 
Talvez "novas" arquiteturas não seja o termo mais apropriado temporalmente, já que são 
pesquisas relativamente antigas, mas há um conjunto de arquiteturas não Von Neumann (nem 
Harvard), ou seja, que realmente rompem com o modelo computacional atual sendo 
pesquisadas. A figura abaixo sintetiza isso. 
 
 
A computação neuromórfica (neuromorphic computing) se consiste basicamente em 
computadores inspirados em sistemas biológicos, mais especificamente, no cérebro. É 
comum se encontrar o termo "brain inspired" na literatura dessa área. A ideia é simular o 
funcionamento dos neurônios e sinapses e, assim, como no cérebro humano, o 
processamento e a memória ficam integrados. Esses circuitos são conhecidos como Redes 
Neurais e o tipo mais empregado nos computadores neuromórficos atuais são as SNNs, — 
Spiking Neural Network. Os spikes correspondem aos impulsos gerados pelos neurônios. 
 
Circuitos neuromórficos são excelentes para tarefas como reconhecimento de padrões e 
recuperação de memória. Reconhecimento de padrões pode parecer inicialmente uma 
aplicação despretensiosa, mas isso inclui reconhecimento de voz, vídeo e imagem, da 
biometria à multimídia, passando por medicina diagnóstica e diversas outras aplicações. Eles 
http://prof.valiante.info/disciplinas/hardware/goog_314140318
http://www.itrs2.net/
http://prof.valiante.info/disciplinas/hardware/goog_325839125
https://irds.ieee.org/
podem ser construídos com transistores convencionais em implementações analógicas ou 
digitais, bem como através de novos dispositivos como memristores e junções de Josephson. 
 
Algumas implementações digitais de computadores neuromórficos incluem o IBM 
Neurosynaptic (TrueNorth), o projeto SpiNNaker de um consórcio de universidades e 
empresas britânicas, liderado pela Universidade de Manchester, e o Zeroth da 
Qualcomm Zeroth. Soluções analógicas ou mistas tem sido testadas na universidade de 
Stanford, no MIT e nas universidades alemãs de Heidelberg e Dresden. 
 
Normalmente o termo computação cognitiva (cognitive computing) aparece como o principal 
termo associado à computação neuromórfica, mas há também a menção à computação 
aproximada (approximate computing). A computação aproximada tem sido exposta 
principalmente pela Universidade de Washington e pela Microsoft Research. O pano de fundo 
é o fenômeno conhecido como "Dark Silicon", onde boa parte da área do silício, isto é, dos 
circuitos que compõem os microprocessadores multicore, passa parte do tempo desligada 
para atender às restrições de consumo de energia. A computação aproximada é feita 
utilizando-se uma combinação de níveis de tensão mais baixos, unidades de processamento 
neural, extensões à arquitetura do conjunto de instruções (ISA) e ferramentas de software 
(compiladores, etc.). De modo simplificado a ideia é essencialmente o que está no nome, 
permitir que os resultados de algumas operações não sejam precisos. Por mais estranho que 
possa parecer, há algumas aplicações que podem se beneficiar disso como realidade 
aumentada, sensoriamento, multimídia, pesquisa na web, aprendizado de máquina (machine 
learning), analítica de dados e otimização. 
 
A computação quântica aplica princípios da física quântica em computadores. Ao invés de bits 
temos os "qubits", que graças ao efeito quântico, podem assumir 2 valores ao mesmo tempo. 
Esse fenômeno acelera drasticamente a solução de diversos tipos de problemas e foram 
desenvolvidos uma série de técnicas matemáticas para explorar essa nova forma de 
computação, mesmo que há época, fossem sistemas estritamente teóricos. O NIST (National 
Institute of Standards and Technology) agrupa os diversos algoritmos quânticos conhecidos 
em uma página com o curioso nome de "Quantum Algorithm Zoo" 
(http://math.nist.gov/quantum/zoo/), dividida nas seções "álgebra e teoria dos números", 
"oracular" e "aproximação e simulação". Na metade de 2017 havia 60 deles na página. As 
áreas de aplicação desses algoritmos são as mais diversas possíveis e incluem 
cibersegurança, pesquisa de novos medicamentos, simulações de sistemas extremamente 
complexos, etc. 
 
Os computadores quânticos ditos universais ainda são uma incógnita. Por explorar 
fenômenos da mecânica quântica, o hardware de um computador quântico trabalho a 
temperaturas extremamente baixas como -273ºC, próximas do zero absoluto. Os maiores 
desafios são a estabilidade dos qubits, pois medir o estado quântico altera seu valor, ou seja, 
os dados, e também a escalabilidade do sistema. IBM, Google, Intel e Microsoft estão entre 
as empresas que têm investido pesadamente nessa área e já demonstraram protótipos de 
sistemas entre 10 e 20 qubits. Estima-se que um computador quântico precisará pelo menos 
uma centena de qubits para computação universal, isto é, o emprego de qualquer dos 
algoritmos quânticos, obtendo uma performance muito superior a de um computador de alto 
http://math.nist.gov/quantum/zoo/
desempenho atual. A D-Wave já possui sistemas comerciais com 2000 qubits, mas utilizam 
um fenômeno quântico particular chamado "quantum annealing", cujo leque de aplicações é 
bastante reduzido em relação aos ditos computadores quânticos universais. 
 
Na arquitetura de Von Neumann o armazenamento de dados (memória) e o processamento 
(CPU) estão separados. Uma expectativa é uma arquitetura que leve o processamento à 
memória. Essas arquiteturas de "computação em memória" são chamadas geralmente de PIM 
(Processor in Memory), mas ainda não há um modelo funcional muito promissor. A maioria 
das simulações consideram componentes novos, mas ainda não disponíveis comercialmente, 
tais como os memristors, meminductors e memcapacitors. 
 
Por outro lado, mesmo que esse novo modelo computacional não se prove viável, uma 
tendência que deve se concretizar em menor tempo é a eliminação da hierarquia de memória 
(em especial da memória secundária),com a adoção de uma memória principal muito mais 
rápida e não-volátil. Assim os programas, bem como os arquivos estarão sempre disponíveis 
para acesso pela CPU e sempre carregados na memória, eliminando as escritas entre 
memória principal e secundária, bem como a memória virtual, além de virtualmente eliminar a 
barreira do tamanho da memória principal. Alguns grupos defendem a permanência da 
memória cache, enquanto outros grupos apregoam que até mesmo esse nível poderia ser 
eliminado resultando e uma única memória universal para o sistema. Mesmo que isso não 
altere a arquitetura computacional de Von Neumann, já irá requerer Sistemas Operacionais 
completamente redesenhados. Uma empresa que tem pesquisado fortemente este modelo é 
a HPE (Hewlett Packard Enterprise) e grupos nas universidades de South Carolina e San 
Diego - California. 
 
Outras tendências em arquitetura abordadas pela indústria e academia contemplam: 
▪ emprego da fotônica para processamento e não apenas comunicação; 
▪ "velhas e boas" soluções analógicas; 
▪ sistemas microeletromecânicos; 
▪ computadores biológicos (orgânicos). 
 
 
Considerações 
As arquiteturas que romperiam de forma mais radical com o modelo de Von Neumann seriam 
o processamento em memória e a computação quântica, sendo que ambas dependem 
também de avanços em materiais e processos. 
 
Por outro lado, avanços em materiais e processos em si não implicam na mudança do 
paradigma computacional, embora possam vir a representar grandes saltos de desempenho. 
 
Parece haver um certo consenso em que a computação neuromórfica e a computação 
quântica, bem como outros modelos com menores perspectivas atualmente, venham a 
conviver de forma integrada e complementar com o modelo computacional de Von Neumann, 
ao menos até o médio prazo. Ou seja, a expectativa hoje é que não haveria uma substituição 
total do paradigma computacional vigente, mas uma extrema aceleração ao se integrar novas 
arquiteturas com um desempenho realmente muito superior, porém apenas para 
determinados tipos de problemas computacionais. Esses modelos híbridos seriam espécies 
de arquiteturas “super heterogêneas”. É importante ressaltar também que há um grande 
esforço na integração do sistema, criando todo um framework para programação e sistemas 
operacionais. 
 
Referências e Notas Adicionais 
Uma fonte essencial de informação sobre esse tema é o IEEE Rebooting Computing, uma 
iniciativa do IEEE para reunir esforços multidisciplinares nos temas aqui mencionados, 
incluindo o já mencionado IEEE International Roadmap for Devices and Systems. 
 
O IEEE CS 2022 Report é um relatório lançado em Fevereiro de 2014 que faz previsões 
tecnológicas para toda a área de computação para o horizonte de 2022 e pode ser obtido 
em http://www.computer.org/portal/web/computingnow/2022-Report. 
 
Algumas das referências utilizadas: 
▪ ITRS (International Technology Roadmap for Semiconductors) - “More-than-Moore” 
White Paper. 
▪ An Chen, "Emerging research device roadmap and perspectives," IC Design & 
Technology (ICICDT), 2014 IEEE International Conference on , vol., no., pp.1,4, 28-30 
May 2014. 
▪ Shulaker, M. M., Hills, G., Patil, N., Wei, H., Chen, H.-Y., Wong, H.-S. P., & Mitra, S. 
(2013). Carbon nanotube computer. Nature, 501(7468), 526-30. Nature Publishing 
Group. Retrieved from http://www.ncbi.nlm.nih.gov/pubmed/24067711. 
▪ Merolla, P. A., Arthur, J. V., Alvarez-Icaza, R., Cassidy, A. S., Sawada, J., Akopyan, 
F., Jackson, B. L., et al. (2014). A million spiking-neuron integrated circuit with a 
scalable communication network and interface. Science, 345(6197), 668-673. 
Retrieved from http://www.sciencemag.org/cgi/doi/10.1126/science.1254642 . 
▪ More papers at International Joint Conference on Neural Networks (IJCNN), 
Communications of the ACM, IEEE Custom Integrated Circuits Conference 
(CICC), International Conference for High Performance Computing, 
Networking, Storage and Analysis (SC), Int. Conf. on Integration of Design, 
Engineering & Management for Innovation. 
▪ MODHA, D. Introducing a brain-inspired computer: TrueNorth’s neurons to 
revolutionize system architecture. IBM Research, 2014. Retrieved 
from http://www.research.ibm.com/articles/brain-chip.shtml. 
▪ FURBER, Steve B. et al. The spinnaker project. Proceedings of the IEEE, v. 102, n. 
5, p. 652-665, 2014. 
▪ More papers at IEEE Proceedings , IEEE Transactions on Computers , IEEE 
Journal of Solid-State Circuits , ACM Trans. Archit. Code Optim , IEEE 
Spectrum , Journal of Parallel and Distributed Computing , IEEE Transactions 
on very Large Scale Integration (VLSI) Systems and IEEE Transactions on 
Neural Networks. 
http://rebootingcomputing.ieee.org/
https://sites.google.com/a/valiante.info/prof/disciplinas/hardware/goog_325839125
https://irds.ieee.org/
http://www.computer.org/portal/web/computingnow/2022-Report
http://www.ncbi.nlm.nih.gov/pubmed/24067711
http://www.research.ibm.com/articles/brain-chip.shtml
▪ ESMAEILZADEH, Hadi et al. Architecture support for disciplined approximate 
programming. In: ACM SIGPLAN Notices. ACM, 2012. p. 301-312. 
▪ ESMAEILZADEH, Hadi et al. Power challenges may end the multicore 
era. Communications of the ACM, v. 56, n. 2, p. 93-102, 2013. 
▪ ESMAEILZADEH, Hadi et al. Neural acceleration for general-purpose approximate 
programs. In: Proceedings of the 2012 45th Annual IEEE/ACM International 
Symposium on Microarchitecture. IEEE Computer Society, 2012. p. 449-460. 
▪ Pershin, Y.V.; Di Ventra, M., "Neuromorphic, Digital, and Quantum Computation With 
Memory Circuit Elements," Proceedings of the IEEE , vol.100, no.6, pp.2071,2080, 
June 2012. 
 
Links sobre Computação Neuromórfica: 
▪ Página de computação cognitiva da IBM: http://www.research.ibm.com/cognitive-
computing/neurosynaptic-chips.shtml; 
▪ Projeto SpiNNaker: http://apt.cs.manchester.ac.uk/projects/SpiNNaker; 
▪ Projeto BrainSilicon da universidade de 
Stanford: http://web.stanford.edu/group/brainsinsilicon; 
▪ Página da Qualcomm sobre computação 
cognitiva: https://www.qualcomm.com/invention/cognitive-technologies/machine-
learning. 
Outros links: 
▪ O segredo do memoristor (Agência FAPESP). 
▪ Memory-Driven Computing Explained: https://www.hpe.com/us/en/newsroom/blog-
post/2017/05/memory-driven-computing-explained.html. 
▪ Computação analógica: Not Your Father’s Analog Computer. 
▪ Heterogeneous System Architecture (HSA) 
Foundation: http://www.hsafoundation.com/ 
▪ Gen-Z Consortium: https://genzconsortium.org/ 
 
 
Fonte: http://prof.valiante.info/disciplinas/hardware/tendencias-futuras-em-arquitetura-de-
computadores Acessado em 16 de janeiro de 2020. 
http://www.research.ibm.com/cognitive-computing/neurosynaptic-chips.shtml
http://www.research.ibm.com/cognitive-computing/neurosynaptic-chips.shtml
http://apt.cs.manchester.ac.uk/projects/SpiNNaker
http://web.stanford.edu/group/brainsinsilicon
https://www.qualcomm.com/invention/cognitive-technologies/machine-learning
https://www.qualcomm.com/invention/cognitive-technologies/machine-learning
http://revistapesquisa.fapesp.br/2016/09/23/o-segredo-do-memoristor
https://www.hpe.com/us/en/newsroom/blog-post/2017/05/memory-driven-computing-explained.html
https://www.hpe.com/us/en/newsroom/blog-post/2017/05/memory-driven-computing-explained.html
https://spectrum.ieee.org/computing/hardware/not-your-fathers-analog-computer
http://www.hsafoundation.com/
https://genzconsortium.org/
http://prof.valiante.info/disciplinas/hardware/tendencias-futuras-em-arquitetura-de-computadores
http://prof.valiante.info/disciplinas/hardware/tendencias-futuras-em-arquitetura-de-computadores

Continue navegando