Buscar

modelo trabalho normas abnt

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

8 
8 
36 
 
 	
 
 
 
 
 
 
 
 
 
 
 
 						
 
Trabalho apresentado como requisito parcial para obtenção de aprovação na disciplina ARQUITETURA DA COMPUTAÇÃO, no Curso de ADS, na Faculdade Flamingo 
 
 	
											Lapa / 2017
 
RESUMO
Periféricos são aparelhos ou placas de expansão que enviam ou recebem informações do computador. Na informática, o termo "periférico" aplica-se a qualquer equipamento ou acessório que seja ligado à CPU (unidade central de processamento), ou, num sentido mais amplo, ao computador. Exemplos de periféricos são: impressoras, digitalizadores, leitores e gravadores (drives) de CDs e DVDs, leitores de cartões de memória e disquetes, mouses, teclados, câmeras de vídeo, entre outros.
Cada periférico tem a sua função definida, desempenhada ao enviar para e receber tarefas do computador, de acordo com sua função periférica.
Monitores
As telas são os elementos de saída mais comuns dos computadores. Eles oferecem informações em tempo real através de textos e gráficos do seu trabalho, jogo, comunicação ou qualquer outro uso do aparelho. Hoje em dia, a maioria deles usa um tubo de raios catódicos (CRT), mas este vem perdendo bastante espaço para os monitores de cristal liquido (LCD), os de diodos de emissão de luz (LED) e os monitores de plasma. A maior vantagems, dos monitores LCD é o tamanho, já que necessitam muito menos de espaço para iluminar uma tela muito maior. Utilizados cartões perfurados para armazenar, e papeis impressos para exibir os dados.
Os primeiros computadores eram enormes ocupavam vários metros quadrados, e eram utilizados cartões perfurados para armazenar, e papeis impressos para exibir os dados.
Estes computadores eram usados em grandes empresas, poies era inviável e inútil alguém ter um destes em casa. Naquela época, era ficcional existirem computadores pessoais, e também que estes tivessem uma interface gráfica (termo desconhecido na época).
A tecnologia começou a avançar cada vez mais, e com a ajuda da tecnologia dos televisores, o monitor foi criado. Antes do monitor, foi desenvolvido o Teleimpressor, que exibia as imagens em uma tela de televisão, evitando assim um monte de impressões. O monitor só exibia as imagens dos códigos. 
Nos anos 70 só existiam monitores que emitiam uma luz verde e produziam somente linhas de texto.
Eles usavam uma reação química feita com fosforo, dai o apelido. Tinha uma resolução menor que a de qualquer telefone celular do mercado, e precisavam ser desligados com frequência, para não estragarem (dai veio a necessidade dos protetores de tela).
Nos anos 80, a IBM inovou ao introduzir varias invenções: os monitores CGA (Color Graphics Adapter), que era capaz de produzir fantásticas quatro cores e tinha a resolução máxima de 320 pixeis horizontais por 200 pixeis verticais. Isso é muitíssimo menos que as telas atuais.
Depois, a IBM lançou o EGA, em 1984. Este sistema era capaz de exibir 16 cores diferentes e tinha resolução de grande inovação, tanto que ainda é um sistema compatível com a maioria dos computadores de hoje em dia, apesar de que suas características sejam bem simples comparadas com um monitor atual. Os sistemas de hoje em dia são compatíveis com o VGA, mas com muito mais cores e resolução. O monitor pessoal invadi as casa nos anos de 70 através do mesmo cabo amarelo utilizado por videogames, boa parte dos computadores da década de 70 ainda utilizava o televisor domestico como interface gráfica a exemplo do ZX Spectrum, Commodore 64 e Commodore Amiga.
Embora fosse uma ótima maneira de baratear os custos, os televisores possuíam uma resolução limitada e não apresentavam um aspecto muito profissional.
No ano de 1970 foi lançado o VT05 da Dec com seu incrível teleimpressor embutido. Pela primeira vez um computador pessoal utilizara um monitor para exibir os dados em tempo real. Apenas uma cor se encarregava de imprimir suas incríveis 20 linhas e 72 colunas de caracteres alfanuméricos.
Monitor de fosforo verde
Os monitores de computador monocromático do tipo CRT era chamado de monitor de fosforo verde, ele utilizava uma tela de fosforo verde “p1”.
Eles sucederam aos terminais com teletipos e precederam os CRTs coloridos como dispositivo de saída visual predominante para computadores. Eram abundantes em meados dos anos 1980, juntamente com monitores âmbar “p3”.
O monitor de fosforo verde mais famoso certamente é o vídeo monocromático original do IBM-PC, o IBM 5151 (o próprio PC tinha o numero de modelos 5150). Desde o inicio o 5151 foi projetado para trabalhar com a placa de vídeo MDA que era somente para texto do PC, mas logo a placa gráfica Hercules produzida por terceiros tornou-se uma companhia popular para o monitor 5151 por causa da capacidade da Hercules de exibir gráficos monocromáticos sem bitmap, muitos usados para a apresentação de gráficos comerciais gerado, por exemplo, pelas planilhas como o Lotus 1-2-3.
Alguns monitores de fosforo verde eram fornecidos com uma cobertura de fosforo particularmente intensa, tornando os caracteres muito claros e bem definidos sendo assim fáceis de ler, mas gerando um efeito de persistência de brilho algo perturbador e por algumas vezes chamado de imagem fantasma, quando o texto era rolado tela abaixo ou quando uma tela de informação era substituída rapidamente por outra em operações de subida e descida de tela em processamento de texto. Outros monitores de fosforo verde evitam esse efeito, mas ao custo de imagens de caracteres muito mais pixelada. O 5151, entre outros, tinha controles de brilho e contraste para que o utilizador estabelecesse seu próprio consenso.
Os efeitos fantasmas dos agora obsoletos monitores de fosforo verde tornaram-se um acrônimo visual para texto gerado em computador, frequentemente e ironicamente em cenários futurísticos. 
Após anos de uso extensivo desta tecnologia, que se consagrou símbolo da computação moderna, o mesmo vinha a tornar-se obsoleto, pois a necessidade de avanço das GUI’s era inevitável, bem como um dispositivo que pudesse responder a altura e sem muitas barreiras.
Mesmo com os velhos problemas resolvidos, o monitor de fosforo apresentava novos paradigmas, que precisam de sofrer evolução pela próxima geração, tais como:
Necessidade de maior resolução.
Fim do efeito fantasma criado pelo Fosforo.
Necessidade de Cores.
Baixar o consumo de energia.
Monitores CRT
Com uma tecnologia mais avançada mas que na integra não diferia muito do fosforo verde, os monitores CRT coloridos invadiram o mercado, trazendo inicialmente 4 cores de resolução 320x640 , em 1981, e atingindo 1024x768 em 1990.
A sua utilização foi massiva, chegando a produzir-se unidades ate 22. A performance atendeu todos os requisitos pedidos anteriormente, porem como o advento de novas tecnologias e baixo preço dos componentes, o CRT foi sendo questionados pelo seu custo/beneficio e também por suas dimensões e peso. A nova era de monitor deveria ser leve, com baixo consumo de energia e ainda teria de manter as mesma qualidades dos CRT.
O CRT é o monitor tradicional cuja tecnologia já esta ultrapassada, possuindo Tubos de Raio catódico e a geração de imagens deve-se principalmente ao conjunto de cores conhecido RGB (vermelho, Verde e Azul), em que a tela é repetidamente atingida por um feixe de elétrons, que atuam no material fosforescente que a reveste, assim formando as imagem
 
Vantagens 
Sua longa Vida útil;
Baixo custo de fabricação;
Grande banda dinâmica de cores e contraste;
Grande versatilidade, uma vez que pode funcionas em diversas resoluções, sem que ocorram grandes distorções na imagem.
Desvantagens
Suas dimensões, um monitor CRT de 20 polegadas pode ter ate 50 cm de profundidade e pesar mais de 20 kg;
O consumo elevado de energia;
A possibilidade de emitir radiação que esta fora do aspecto luminoso, raios x, danosa á saúde o caso de longos períodos de exposição. Este último problema é mais frequentemente constatadoem monitores e televisores antigos e desregulados, já que atualmente a composição do vidro que reveste a tela dos monitores detém a emissão dessas radiações.
Distorção geométrica
 
 
Monitores de Plasma
O primeiro protótipo, muito rudimentar, foi criado em 1964, na Universidade de Illinois EUA. O objetivo era descobrir um substituto para os monitores do tipo CRT empregados em computadores, ruins na época para a exibição de gráficos- assemelhavam-se mais ás TVs comuns do que os atuais monitores.
O principio de funcionamento dessas telas é muito simples: cada pixel, é uma lâmpada fluorescente dessas comuns de tubo microscopia. Cada célula dessas é preenchida por um gás que emite radiação ultravioleta ao receber estimulo elétrico. Essa radiação atinge as paredes da célula, revestida internamente por um composto de fosforo que produz então a luz visível. A ideia do plasma no entanto não poderia se viabilizar na fabricação de telas naquela época, devido as muitas restrições tecnológicas existentes para miniaturizar as células e do pouco desenvolvimento da eletrônica, necessária para controlar individualmente milhares dessas células por painel. A pesar disso o invento- construído com apenas uma única célula, ficou patenteado por seus criadores, dois professores e um aluo dessa Universidade.
As telas de plasma normalmente tem alta resolução, excelente reprodução de cores e praticamente todas são construídas na proporção 16:9, a tecnologia de plasma foi bastante aprimorada a partir dos anos 90 visando o mercado de HDTV, que usa telas nessas proporção. São normalmente construídas, em grandes tamanhos de 40 e 50 polegadas, medida feita na diagonal da tela e apesar do alto custo inicial de 15.000 dólares no lançamento, hoje já existem modelos por valores bem menores, principalmente os de baixa resolução. Nem todas as telas de plasmas são iguais: modelos mais baratos, quando comparados a outros com mesmo tamanho de tela, podem apresentar taxas ruins de contraste e produzir imagens com menor definição de detalhes.
Apesar de patenteada a muito tempo, o desenvolvimento da tecnologia de plasma foi lento nas décadas de 70 e 80, devido as maiores facilidades de fabricação apresentadas pelas telas de LCD.
Vantagens
A escolha dos cintiladores para os painéis de plasma permitindo ter a melhor e mais ampla gama de cores.
O ângulo de visão é muito mais amplo, justamente porque a luz é gerada nos próprios sub pixels do painel.
O contraste é excelente por que o sub pixel é totalmente escuro quando não emite luz – no LCD o pixel, para ser escuro, tem que bloquear a luz vinda de trás, o que não é a mesma coisa, é claro.
 
Desvantagens
O tamanho do pixel completo não pode ser inferior a cerca de 0,5 mm, logo só se consegue fazer plasmas grandes para conter determinada resolução.
Para se obter brilhos intermediários, cada sub pixel, que só pode estar ligado ou desligado, é ligado a intervalos pré-determinados, de modo que na media ele esteja num estado ligado equivalente a alguma coisa no meio, isso funciona bem para tons mais claros, mas para os escuros é mais difícil conseguir distinguir tons próximos. 
Se o observador estiver muito próximo, além da grade dos pixel devido aos limites dos tamanhos deles, percebera um flicker, devido ao processo descrito no item anterior. Embora o cérebro não o perceba diretamente, o olho o sente e se cansa mais rápido.
Burn-in é claro pela mesma razão que as CRTs, ou seja, por usar cintiladores. Embora a burn-in ainda exista e possa acontecer, esse problema já esta fortemente controlado, especialmente nas novas gerações. A vida útil da plasma é basicamente determinada pelo envelhecimento dos cintiladores, que vão perdendo sua capacidade de emitir luz depois de mil horas.
A interpolação de imagens de resolução mais alta para a resolução nativa das plasma 42, ainda deixa muito a desejar. Para as plasma de 50 e acima não há problemas.
 
Monitor LCD
O LCD é abreviação de Liquid Cristal Display. O LCD foi desenvolvido na década de 70, inicialmente monocromático para uso em dispositivo como calculadoras. Seus principio de funcionamento baseia-se a polarização da luz combinada com a propriedade de alguns tipos de cristais de desviar em maior ao menor carga e eletricidade. Se colocamos um papel em cima do outro e recortamos ali uma fenda suficiente para passar um biscoito, podemos ter uma ideia a grosso modo do processo. Basta olhas contra a luz e girar um dos papeis no sentido contrario do outro, a abertura formada pelas fendas vai se fechando deixando passar menos luz. O giro do papel é a torção que ocorre no cristal ao receber carga elétrica, proporciona a essa carga.
Assim individualmente cada pixel pode deixar ou não passar a luz, em maior e menor grau.
O LCD sempre sofreu com latência a demora na mudança muito rápida de imagens.
O monitor LCD é mais fino em relação ou CRT, consumindo bem menos energia. A geração de imagens deu-se por meio de um liquido polarizador da luz, eletricamente controlado por chips, que se encontra comprimido dentro de células entre duas laminas transparentes polarizadoras. Através de diferentes comportamentos do cristal, as imagens são produzidas por uma única fonte luminosa. Desta forma os monitores LCD são incapazes de produzir uma grande variedade de cores e a tecnologia perde em resolução, brilho e contraste para os televisores de plasma, mas leva a melhor na vida útil do aparelho. 
Vantagens:
O baixo consumo de energia;
As dimensões reduzidas;
A não emissão de radiação nocivas;
A capacidade de formar uma imagem praticamente perfeita, estável, sem cintilação, que cansa menos a visão, desde que esteja operando na resolução nativa;
Desvantagens
O maior custo de fabricação;
Ao trabalhar em um resolução diferente para a qual foi projetado, o monitor LCD utiliza vários artifícios de composição de imagem que acabam degradando a qualidade final da mesma;
O preto que ele cria emite um pouco de luz, o que confere a imagem um aspecto acinzentado ou azulado, não apresentando desta forma um preto real similar aos oferecidos nos monitores CRTs;
Um fato não divulgado pelos fabricantes se o cristal liquido da tela do monitor for danificado e ficar exposto ao ar, pode emitir alguns compostos tóxicos, tais como o oxido de zinco e o sulfeto de zinco; este será um problema quando alguns dos monitores fabricados hoje em dia chegarem ao fim de suas vida útil estimada em 20 anos.
Monitores de LED
A sigla LED vem do inglês Light EmittingDiode, ou seja diodo emissor de luz.
Trata-se de uma tecnologia evolutiva em relação aos monitores LCD usam o mesmo mecanismo básico de um LCD mas com iluminação LED, porem a olho comum não percebemos a diferença entre LCD ou LED. Nesses monitores LED, o diodo energizado emite uma luz, ao invés de uma única luz branca que incide sobre toda a superfície de tela, encontra-se um painel com milhares de pequenas luzes coloridas e independentes que acendem e geram a imagem. O conjunto de diversos pontos criam as mais diversa imagens nesse monitor.
Teoricamente, o consumo de energia da tecnologia LED é menor em relação a tecnologia LCD e mais fino também. É mais ou menos como aplicar uma tecnologia similar ao plasma a uma tela de LCD.
Vantagens: 
Permanece com baixo consumo de energia;
Maior uniformidade da luz traseira;
Melhor resolução em vídeo componente e HDMI;
Profundidade ainda mais reduzida, os Leds ocupam menor espaço do que as lâmpadas.
Desvantagens
Apresenta baixa resolução em vídeos compostos analógicos;
Custo alto.
Monitores OLED
Ele é baseado em um principio similar ao plasma, o OLED utiliza diodos orgânicos de carbono no lugar das células de plasma. Além da iluminação, eles se encarregam de gerar as imagens, dispensando o cristal liquido e resultando em uma imagem melhor e gerada mais rapidamente. Como estas moléculas podem ser posicionadas diretamente sobrea superfície da tela, apenas 3mm de espessura são necessários para produzir imagens com uma qualidade excelente.
O protótipo de monitor OLED com transparência de 40% permite a passagem da luz em dois sentidos graças a composição com elementos praticamente invisíveis. Sem nome, preço ou previsão de lançamento, sabe-se pouco a respeito do protótipo, a não ser que ele mede 14 polegadas e tem contraste dinâmico de 100 000:1.
Podemos dizer que se trata do estado da arte em geração de imagens quando nos referimos a tecnologia OLED. Essa sigla advém de Diodo orgânico emissor de luz ou foto emissor. Sua principal característica é a flexibilidade da tela, ou seja, ela pode assumir formas diferente. Outro ponto marcante é que cada ponto OLED é um monitor completo em sua definição, o que permite que sua espessura seja mínima é como se um papel pudesse gerar imagens.
O criador do Mouse
Nascido em janeiro de 1925, Engelbart é conhecido como o pai da Interface.
Sua história começa em 1945, ao se deparar com um artigo que o fascinou chamado “Como poderemos pensar” de Van nevar Bush, que discutia  o futuro emprego das máquinas como complemento do intelecto humano.
Pelo seu interesse na mais nova tecnologia militar da época, os radares, Engelbart entra para a marinha dos Estados Unidos em um programa de formação de um ano.
Concluiu o seu bacharelado em engenharia eletrônica pela Universidade Estadual de Oregon em 1948.
Ao conseguir um emprego como engenheiro no Ames Aeronautical Laboratory em Mountain View, ele começa a se preocupar com o processo de pensamento humano e as ferramentas que eles utilizam. Assim inicia-se a Teoria do Aumento, uma pesquisa destinada a fazer com que as máquinas ajudassem no raciocínio humano e o agilizasse.
Algum tempo depois, com a chegada da ARPA (Advanced Research Projects Agency), Douglas consegue o investimento necessário para criar um laboratório de pesquisa que  ganhou o nome de Augmentation Research Center, é aqui que começam a
surgir ferramentas que hoje são corriqueiras como o mouse, ligações de hipertexto, os processadores de texto entre outros. 
O pesquisador Douglas Engelbart, do Instituto de Pesquisa de Stanford, desenvolveu, de maneira independente, o primeiro protótipo de um mouse
Nos moldes em que o conhecemos hoje. Tratava-se de uma caixa de madeira com um botão vermelho na parte superior dela. Da parte inferior saía um cabo que lembrava muito o rabo de um rato. Daí começou a surgir o nome mouse.
Porém, Engelbart estava trabalhando nesse projeto por volta do ano de 1963. Nessa época, os computadores ainda usavam cartões perfurados e outros métodos de entrada muito rústicos. Interfaces de usuário ainda eram muito raras, mesmo as que exibiam apenas texto. Elas só viriam a surgir anos depois, com os projetos da Xerox, que também adotaria o mouse. Devido a isso, Douglas Engelbart não pôde dar prosseguimento ao seu projeto, pois não havia uma necessidade real. 
Você sabia que, segundo sua patente o nome técnico do mouse é Indicador de Posição X-Y para sistemas com tela? Pois é, ele levou esse nome pois funcionava com duas engrenagens que registravam as posições horizontais e verticais do cursor. Como talvez você saiba, a posição do cursor é representada num gráfico de duas linhas, onde a linha horizontal é X e a linha vertical Y. 
 O nome “mouse” ou “rato”, em inglês, surgiu depois. Devido ao seu formato e ao fio que saía dele, que lembrava o rabo de um camundongo,  o Indicador de Posição X-Y para Sistemas com Tela acabou ganhando o apelido de mouse. Apesar desse nome estranho, o embrião do mouse é mais estranho ainda. 
Surgimento para fins militares
O primeiro protótipo do mouse surgiu em 1952, e foi criado para o Comando Marítimo das Forças Canadenses. Em parceria com várias empresas e universidades, as forças armadas canadenses criaram uma máquina que compartilhava dados de sonares e radares em tempo real. Assim, em combate, os soldados poderiam ter uma visão unificada do campo de batalha. Este protótipo se chamava DATAR.
O interessante sobre a DATAR é que, para enviar os dados de sonares e radares, os utilizadores utilizavam uma trackball, semelhante a dos mouses domésticos mais antigos. Porém, a bola usada no DATAR era, literalmente, uma bola de boliche que era acoplada à máquina. 
1970 e os primeiros mouses comerciais
Em 1970, uma empresa alemã, chamada Telefunken, começou a vender, junto com seus computadores, o primeiro mouse comercial do mundo. Após ter comprado a patente de Douglas Engelbart, ela lançou o Rollkugel, equivalente a “bola deslizante” em alemão. Tratava-se de um mouse que, em seu interior, possuía uma esfera que registrava as coordenadas X,Y do cursor. Em 1973, a empresa Xerox Alto também começou a vender seus computadores com muitas inovações para a época, tais como a interface gráfica, redes ethernet, servidores de arquivo e servidores de impressão. O primeiro PC a usar um mouse da Xerox foi o Alto, lançado em 1983, e já pensado para o uso do mouse, cujo cursor interagia com a interface gráfica do dispositivo. Outra máquina que ficou famosa na época foi a Xerox Star, por ser mais completa e englobar funções que usamos até hoje, tais como as redes Ethernet.
A Apple entra na brincadeira
A empresa de Steve Jobs também resolveu desenvolver seu próprio mouse. Na verdade, era a mesma ideia da Xerox. A diferença é que o mouse do computador Apple Lisa, lançado em 1983, contava apenas com um botão. Esse padrão se mantém até hoje na Apple. Os mouses comercializados pela companhia possuem apenas um botão para executar as mais diversas ações. 
A era dos mouses ópticos
É quase certo que o mouse que você usa hoje seja do tipo óptico. A primeira vez que eles chegaram ao mercado foi em 1999, pelas mãos da Microsoft. A empresa fundada por Bill Gates criou o IntelliEye, um mouse que ao invés de usar a famigerada “bolinha”, utilizava um LED infravermelho, que poderia ser usado em qualquer superfície.
A evolução foi muito bem recebida. Dentre as vantagens dos mouses ópticos para os modelos mecânicos está de que não é mais necessário abrir o periférico para limpeza. Antes, ao longo do uso, muita poeira ia para dentro do mouse através da bolinha. Com o tempo, a poeira acumulava e a bolinha do mouse já não girava tão bem quanto antes. Assim, era necessário abrir o dispositivo para limpá-lo. Hoje os mouses já não acumulam mais poeira por dentro e a velocidade e tempo de resposta deles estão muito melhores.
Os mouses da atualidade
Atualmente, os mouses podem assumir outras funções além de apenas clicar e mover objetos na tela. Principalmente os mouses games podem efetuar uma série de ações. Muitos deles possuem mais de 20 botões e realizam uma infinidade de ações dentro de jogos e em vários programas.
Mas, no futuro, quem sabe os mouses também sejam aposentados e passemos a interagir com nossos computadores através de gestos ou comandos de voz. Apenas o futuro dirá.
TECLADO
Para intender um pouco sobre teclado que utilizamos atualmente no nosso cotidiano temos que voltar no tempo na criação da maquina de escrever. A maquina de escrever foi criada por Christopher Latham Sholes em Setembro de 1867.
A maquina de escrever foi patenteada no ano seguinte. Começou a ser fabricada pela Remigton Company em 1877.
Diversos dispositivos que imprimiam dados alfanuméricos eram usados no começo do século vinte. Fitas de papeis perfurados foram testados usando o telegrafo antes de 1881.
O código Morse sonoro foi utilizado ate meados de 1917.
Sistemas de cartões perfurados, que usado a muitos anos para controlar maquias de confeccionar.
No século vinte a maquina de teletipo uniu-se com a maquina de escrever, onde resultou em uma nova forma de comunicação telegráfica, em 1930.
Inicialmente essas maquinas imprimiam em uma fita de papel estreita, mas o final dos aos 30 papeis maiores poderiam ser usados. A tecnologia de cartões perfuradoscriada em 1881.
Sistemas de cartões perfurados similares foram ligados a maquias de escrever como teclados. O cartão perfurado, era a base das maquinas de calcular que a IBM estava a vender em 1931. Deste modo o que predominou na segunda guerra foram essas tecnologias.
A segunda grande guerra mundial foi importante na criação dos computadores.
Mesmo antes da guerra algumas companhias como a Bell Laboratories começavam a trabalhar com computadores. Só em Setembro de 1940 G.R
Stibitiz demonstrou o MODEL 1 que utilizava uma entrada de teclado do teletipo.
Essa demonstração foi única porque foi feita através de linhas telefônicas, algo que não seria repetido por mais de uma década.
Entretanto o próximo marco milionário, foi o desenvolvimento do computador ENIAC em 1946, que foi seguida pelo BINAC em 1948 que utilizava um teclado de maquia de escrever, que escrevia dados diretamente nas fitas magnéticas.
O desenvolvimento comercial das maquinas de escrever eletronicamente semelhantes a IBM Selectric, contribuiu para a comercialização desses main frames que eram bem mais fáceis de se mexer do queps computadores antigos como o ENIAC.
Esse foi um fator que fez a diferença para a comercialização dos main frames.
Surgimento do VDT
Mais tarde o modo de grupo foi comercializado pelas universidades como a MIT que começou a experimentar sistemas Multi usuários, conhecido como era de compartilhar sistemas, onde cada usuário poderia compartilhar simultaneamente recursos de seus terminais de teletipo.
Em 1964, a MIT, Bell Laboratories e a General Eletric desenvolveram um tipo de sistema compartilhado chamado de MULTICS.
Com isso o desenvolvimento de vídeo terminais VDT aumentaram cada vez mais no final dos anos 60.
O VDT juntou a capacidade das maquias de escrever com a de escrever no ecrã de uma TV, esses foram os primeiros teclados, sem ter que usar a impressão em algum papel, eles apareciam diretamente no ecrã, e assim o trabalho era muito mais rápido.
Mais tarde em 1967 Control Data e Sanders estavam a fabricar VDTs. Harris estava a comercializa-los em 1969, e a Hewlett Packard HP em 1972.
O VDT não tinha muitas limitações. Os interruptores ligados nas teclas mandavam impulsos elétricos diretamente para os computadores, onde não havia envolvimento mecânico que era sinônimo de lentidão.
A única limitação do VDT era a velocidade com que ele era escrita o ecrã, que no começo era relativamente lenta para a capacidade humana de digitar. Mas isso tudo muda com a revolução do computador pessoal.
Quase que simultaneamente com a comercialização do sistema Multi usuários no fim dos anos 60 foi introduzido os minicomputadores pela companhia com a Data General, Prime Computer, Hewlett Packard e outras.
Esses computadores eram pequenos e geralmente utilizavam a consola da maquina de escrever. Eles tornaram-se mais populares durante os anos 70, onde a interface de maquina de escrever foi abandonada a favor da tecnologia VDT para essas pequenas maquinas.
Foi nos anos 70 com a expansão dos main frame e do sistemas de compartilhamento nas universidades, esse sistema utilizados via modo de grupo para mais frames, ou por VDT para sistemas de compartilhamento.
No final dos anos 70 e começo dos anos 80 de qualquer modo o uso de cartões perfurados parou quando a IBM, com o sucesso no comercio dos main frames, trocou todas as antigas maquinas por main frames.
Em 1984 a IBM lançou o PC/AT ele era popular a qualquer pessoa conseguia digitar nele.
WEBCAM
Webcam é uma câmera de vídeo, o seu custo é baixo sendo assim de fácil acesso, ela é responsável por capturar imagens e transferi-las para um computador.
Suas funções podem ser as mais diversas: pode ser usada para vídeo conferencia, monitoramento de ambientes, produção de vídeos e imagens para edição, dentre outros.
 Além disso permite que as pessoas possam se comunicar visualmente com seus familiares e amigos.
Por ter se tornado tão popular praticamente todos os modelos de notebook já saem da fábrica com webcam estaladas acopladas a tela. As webcams
podem conter alta ou baixa resolução, podendo ser com ou sem microfones embutidos. Algumas webcams possuem ainda leds, que iluminam o ambiente usando há pouca ou nenhuma luminosidade.
Para entendermos mais sobre essa maravilha que facilitou a interação visual entre duas ou mais pessoas a distancia precisamos saber que, a webcam se originou em 1991, no laboratório de computação da Universidade da Cambridge, Inglaterra, e não era conectada a internet. A historia pela qual ela foi criada era banal, seu motivo foi pra que as pessoas não fossem á toa procurar uma xícara de café quando ele já havia acabado, foi colocado uma câmera filmando a garrafa o tempo todo, mostrando em todos os computadores se havia café ou não. As primeira Webcams Foram comercializadas em 1994, quando a Connectix lançou
sua QuickCam. Entretanto, elas tinham uma resolução bastante pequenas se comparada com as atuais. Além disso as imagens ficavam em preto e branco.
As webcams atuais podem apresentar diversas diferenças e benefícios entre si, dentre eles o sensor podendo ser o Sensor CMOS, Complementary Metal Oxide Semicoctor, que é o sensor mais comum e o com o melhor custo, utilizando processos de padrões nativos para CPUs, os chips CMOS exigem menos energia do que outros. 
Há também o sensor CCD, Charge Coupled Device que fazem o uso de uma tecnologia mais antiga de semicondutores. Apresentam ótimas qualidades de imagem. Algumas Webcams apresentam a tecnologia Face trackig que é responsável por detectar e seguir movimentos e rostos em tempo real, essa tecnologia rastreia a face ajudando a manter o rosto enquadrado mesmo que ele esteja em movimento, elas rastreiam forma, cor e movimento mantendo sempre centralizado.
Existem atualmente webcams com conexão sem fio, mais o mais comum é pela conexão USB.
IMPRESSORAS
A primeira impresso foi criada e desenvolvida em 1938, por Chester Carlson, um americano que inventou o processo de reprodução de imagens e textos por meio de maquinas fotocopiadoras, ela era muito lenta, podendo levar horas para reproduzir uma pagina. Em 1953 foi criada a primeira impressora de alta velocidade. A mesma foi utilizada no Univac, primeiro computador comercial fabricado no Estados Unidos. De fato, as primeiras impressoras tinham um sistema que proporcionava a impressão dos caracteres por meio do impacto, realidade que resultava em impressões de baixa qualidade.
Em 1983, a empresa Hewlett Packard em parceria com a Canon, criou a primeira impressora a laser. Este tipo de impressora utilizava um laser especial para impressão. A qualidade em relação á tinta duplicou, e foi solucionado o problema de impressão de imagens com muita tinta, que ficavam molhadas e escorriam antes de secar. A impressora PostScript foi criada em 1982 pela Adobe como uma Linguagem de Definição de Página. A pedido de Steve Jobs da Apple, em 1985, os fundares da Adobe, John Warnock e Chuck Geschke adaptaram a então recém criada linguagem PostScript para ser inserida no sistema de comunicação de uma impressora laser Canon. Foi criada então a LaserWriter.
Para grandes demandas de impressão, utilizava-se impressoras com um tambor com os caracteres em relevo.
Existiam impressoras com tambor em versões de 80 ou 132 colunas. Na versão de 132, haviam 132 colunas com todos os caracteres onde 132 martelo carimbavam os caracteres no papel e imprimiam uma linha inteira de uma só vez.
Impressoras matriciais foram um dos primeiro tipos de impressora que o mercado conheceu.
Embora esteja cada vez mais em desuso devido ao surgimento da tecnologia de impressão mais sofisticadas, ainda é possível encontrar impressoras matriciais sendo utilizadas em vários estabelecimentos, já que se trata de um tipo bastante durável e que possui baixos custos em relação aos seus suprimentos.
As impressoras matriciais são baseadas em dois tipos de tecnologias. A impressora margaridae a impressora de agulha.
A impressora margarida é um tipo de impressora que tem funcionamento semelhante as clássicas maquinas de escrever, sendo, atualmente, pouco comum no mercado. 
O dispositivo que equivale a cabeça de impressão contem diversos caracteres em relevo. Este componente se movimenta de acordo com o caractere a ser impresso. Para a impressão ocorres, o caractere, depois de posicionado, pressiona uma fita com tinta contra o papel em um movimento que lembra vagamente uma batida rápida de martelo.
As impressoras de agulha é o tipo mais comum sedo portanto, chamado simplesmente de impressora de matriz de pontos. Neste padrão, a cabeça de impressão possui pequenas agulhas que, sob orientação eletromagnética, vão formando a impressão a medida que empurram a fita de tinta contra o papel. Ou seja, nesta tecnologia, em vez de os caracteres serem formados de uma única vez por impacto, são construídos por pequenos pontos.
A vantagem deste método é que também é possível imprimir imagens e gráficos, embora com certa limitação.
A impressora de Jato de Tinta utiliza sistemas dotados de uma cabeça de impressão ou cabeçote com centenas de orifícios que despejam milhares de gotículas de tinta por segundo, comandados por um programa que determina quantas gotas e onde deveram ser lançadas as gotículas e a mistura de tintas. 
A mistura é importante na formação das cores pois os cartuchos coloridos que tem usualmente 3 cores, enquanto o preto apenas uma sendo todas as outras cores formada por misturas destas. Impressoras com qualidade fotográficas possuem 6 cores, sendo 2 complementares: ciano claro, e magenta claro, para conseguir maior fidelidade nas gradações de cores. A fidelidade vai depender da tecnologia empregada e da qualidade da tinta.
As impressoras a laser também fazem partes da categoria de não impacto e são muito utilizadas no ambiente corporativo, já que oferecem impressões de excelente qualidade, são capazes de imprimir rapidamente, trabalham fazendo pouco barulho e possibilitam volumes altos de impressões associados a custos baixos. O funcionamento destas impressoras é semelhante ao das fotocopiadoras, sendo que, na verdade, Xerox é o nome da empresa que popularizou este tipo de dispositivo.
As impressoras a laser contam com um tipo de tambor ou cilindro revestido por um matérias que permitem a aplicação de uma carga eletrostática. Supondo por exemplo, que o logo tipo deva ser impresso, um laser forma a imagem no tambor deixado os pontos que representam com carga positiva. Quando o molde da informação a ser impressa é formado, aquela área recebe um material em pó muito fino e pigmentado chamado toner que, por sua vez, tem carga negativa e é distribuído por um rolamento presente em seu recipiente de armazenamento. Isso faz com o toner seja atraído pelos pontos que formam a imagem a ser impressa, já que estes possuem carga positiva.
No passo seguinte a folha recebe a impressão é colocada em contato com o cilindro, mas, antes, recebe carga positiva em uma intensidade maior que a do molde da imagem do tambor. Uma rotação faz com que este ultimo passe por todo o papel, transferindo o toner para ele. Por fim um mecanismo formado por dois cilindros de nome fusor revestidos de material que impede a aderência de toner, joga calor no papel ao mesmo tempo em que o pressiona. Desta forma, o toner se fixa no papel e a impressão é concluída.
PLOTTER
O plotter é uma impressora destinada a imprimir desenhos em grandes dimensões, com elevada qualidade e rigor, como por exemplo mapas cartográficos, projetores de engenharia e grafismo.
Primeiramente destinados a impressão de desenhos vetoriais, segundamente encontram-se em avançado estado de evolução, permitindo impressão de imagens em grande formato com qualidade fotográfica, chegando a 3560 dpi de resolução.
Há Plotter de recorte e plotter de impressão.
O plotter de recorte é uma variação na qual uma lamina recorta adesivos de acordo com o que foi desenhado previamente no computador, através de um programa vetorial. 
É indicado para recorte de vinil no mercado de sinalização, comunicação visual, serigráfico, indústria têxtil, indústria de vidros e no brindes promocionais. Vários
mateiras podem ser utilizados tais como o vinil adesivo, vinil adesivo refletivo, filmes rubi ou âmbar, flock térmico, sand blast entre outros.
O plotter de impressão, não dão saída como as impressoras desktop convencionais, Utilizando programas específicos que aceitam arquivos convencionais de imagem como TIF, JPG,DWG,EPS e outros.
Essa impressoras podem usar diversos suportes como papel comum, fotográfico, película, vegetal, filmes e PVC autoadesivo, lonas e tecidos especiais. Com o passar dos anos, novas tecnologias chegaram e a quantidade de opções se multiplicou. A maior diferença entre estes equipamentos esta na definição de imagem, velocidade e largura de impressão. A velocidade de impressão pode chegar a ate 110 m² por hora, utilizando cabeças de impressão tais como a Xaar, Konica Minolta, Spectra, Ricoh, Epso e Hp. As plotters de impressão podem chegar a ate 5 metros de largura de impressão. Estes equipamentos são empregado em empresas de comunicação visual que produzem painéis, outdoors, decoração para carros, decoração para ambientes e vitrines, sinalização corporativa, etc. Algumas plotters de recorte possuem função de recorte conjugada, ou seja, recortam o vinil adesivo após imprimir, a partir de uma maquina.
SCANNER
Scanner ou digitalizador é um periférico responsável por digitalizar imagens, fotos e textos impressos para o seu computador o que corresponde a um processo inverso ao da impressora. É um equipamento que se popularizou entre a população usaria de tecnologias, pois além de facilitar a digitalização de documentos, não tem um custo muito elevado. Nesse sentido,veja abaixo o que considerar para realizar uma boa compra deste produto.
Historia do Scanner ...
Um dos periféricos eletrônicos para computadores e notebooks que se tornaram mais populares na década de 90 foi o scanner. Diferentemente da impressora, que transforma arquivos digitais em suportes impressos, o scanner realiza o caminho inverso, digitalizando imagens, fotos e documentos variados. Seu funcionamento dá-se através de uma varredura da imagem, que é captada por impulsos elétricos a partir de um captador de reflexos.
O primeiro registro de scanner na história da informática data de 1963, através do engenheiro alemão Rudolf Hell. Responsável por desenvolver o precursor do fax vinte anos antes, Hell desenvolveu um eletrônico chamado scanner, capaz de “desmontar” fotos coloridas. No entanto, o scanner que conhecemos hoje foi popularizar-se apenas na década de 90, depois que grandes marcas como HP e Canon passaram a investir nesse setor.
A principal função de um scanner é digitalizar arquivos, ou seja, passar para o formato binário (sistema de “zeros” e “uns”, que é lido pelos computadores) informações contidas em livros, revistas, cadernos ou outros formatos impressos. Para isso, um complexo sistema de lâmpadas e espelhos funcionam em conjunto para “fotografar” o material que se deseja digitalizar e, posteriormente, converter essas informações para a linguagem computacional.
Existem, atualmente, diversos tipos de Scanners disponíveis no mercado, sendo o tipo mais comum e mais amplamente utilizado o chamado Scanner de Mesa. Esse tipo de Scanner deve ser operado de forma parecida com uma máquina de copiar: insere-se o material que se deseja digitalizar e se dá o comando para que seja feita a digitalização. Outro equipamento conhecido é o chamado Scanner de Mão. Esse tipo de Scanner conta com uma superfície de leitura menor e, geralmente exige um trabalho maior do usuário, pois a digitalização do conteúdo
Tem que ser feita em seções. Esses dois tipos são os mais comuns, mas existem ainda Scanners especiais para slides e negativos fotográficos, Scanners portáteis e Scanners profissionais, conhecidoscomo Scanners de tambor.
A primeira coisa a levar em consideração ao pensar em adquirir um Scanner é a necessidade que se tem para esse equipamento. Para uso doméstico e amador, os mais aconselháveis são os Scanners de Mesa, que são fáceis de operar e possuem preços mais acessíveis. Além do tipo do Scanner, é essencial verificar alguns aspectos técnicos antes de efetuar a compra. Algumas características como qualidade e formato da imagem (resolução) e o tipo de conexão do Scanner com o computador devem ser analisadas cuidadosamente. Também é importante verificar se o computador onde se pretende instalar o Scanner atende aos requisitos mínimos para essa instalação.
Você sabia que algumas pessoas consideram o scanner como a evolução do pantelegráfico (lá de 1860s)… mas o que realmente conta é que essas nossas incríveis máquinas evoluíram muito! E hoje, são indispensáveis! 
Os primeiros scanner ...
Vantagem e Desvantagem de scanner
Melhor qualidade na digitalização de filmes do que a de um adaptador para transparências em um scanner de mesa.
Digitalizações de maior resolução a maioria dos scanners de película digitaliza a 2.700 a 4.000 pontos por polegada (dpi). A resolução mais alta produzida pelos scanners de película se traduz em mais detalhes na imagem digitalizada e, portanto, na capacidade de gerar cópias maiores e de melhor qualidade.Faixa dinâmica mais alta. Isso significa que as imagens digitalizadas retêm mais detalhes nas áreas sombreadas e de realce.A faixa dinâmica indica quantos níveis diferentes de cor ou tons de preto a branco o scanner identifica. Quanto maior for a faixa dinâmica do scanner, mais subtil será o detalhe produzido nas áreas sombreadas ou brilhantes de uma imagem digital. A faixa dinâmica é medida em uma escala de 0 a 4, sendo 4 o maior ponto possível. Como essa escala é pequena, uma classificação de 3,4 representa uma capacidade significativamente maior de reproduzir áreas sombreadas e brilhantes do que uma classificação de 3,2. Uma fotografia típica tem uma faixa dinâmica de 3,0 ou menos. Os slides (ou transparências) geralmente têm uma faixa maior, enquanto a maioria dos scanners de película terá uma faixa dinâmica de 3,4 ou maior.
Assim declaro que conheço e aceito que posso encontrar material obsceno, adulto e não apto para menores. Está terminantemente proibida a venda, publicação ou oferta dos seguintes produtos, bens ou serviços:
Pedofilia, pornografia infantil, menores nus, ou qualquer tipo de produto que exponha menores de idade. Violações, filmes ou fotografias que tenham sido realizadas de forma ilegal ou sem a autorização da pessoa, bens ou serviços oferecidos ou adquiridos, e isento o Mercado Livre de qualquer responsabilidade relacionada a estas que, Se em algum momento me sentir ofendido pelos produtos ou ofertas que estejam publicados, me comprometo a sair imediatamente da categoria. 
BIOMETRIA
Considerada uma das formas de identificação que proporcionam o maior nível de segurança possível, o processo de biometria tem sido implementado em diferentes locais, desde bancos e aeroportos até mesmo em urnas eletrônicas. Devido a disseminação da revolução técnico-científica – intensificada na última década com os avanços informacionais – as pesquisas em torno da tecnologia biométrica só têm crescido, e prometem se desenvolver ainda mais nos próximos anos.
Por isso, diferentes tipos de biometria existem e cada uma delas parece ser ideal para um tipo de ambiente.
Embora a biometria tenha sido desenvolvida há bastante tempo, só na última década que as pesquisas e desenvolvimento em torno desse sistema de reconhecimento mais seguro têm crescido. Isso porque, para tornar a tecnologia eficiente, ela deve funcionar de uma determinada maneira que, por sua vez, exige alta tecnologia e, consequentemente, um custo mais elevado do que um sistema de segurança comum.
O termo propriamente dito significa “medição biológica”. Porém, para fazer o reconhecimento da senha pelas características físicas da pessoa, é necessário um scanner biométrico. Este aparelho, por sua vez, é altamente desenvolvido e mais caro do que um aparelho de segurança normal. São esses custos que podem limitar a expansão da tecnologia biométrica.
Além do scanner ou sensor biométrico, é necessário um computador avançado, que seja capaz de receber um software pesado e avançado o suficiente para realizar a análise das imagens captadas. Quando o sensor é ativado, as imagens são recebidas pelo programa e processadas no computador por meio de uma comparação com imagens disponíveis no banco de dados sobre o indivíduo dono da senha. Esse sistema problema revolucionar a segurança de vários lugares e empresas, considerando que ainda evoluirá muito nos próximos anos.
Outro fator a levar em conta são os diferentes tipos de biometria existentes. Cada um deles tem um custo diferente, sendo alguns mais em conta do que outros. Da mesma forma, alguns tipos de biometria são mais eficientes que outros.
TIPOS DE BIOMETRIA
Digitação
Nesse tipo de biometria, a identificação é feita de forma não intrusiva ao usuário, que é reconhecido ou não através da digitação.  As informações são coletadas por meio do ritmo de digitação, tempo de pressionamento das teclas e velocidade ao digitar. Essa leitura biométrica apresenta baixo custo, embora a confiabilidade também seja baixa.
Geometria da mão
Já essa biometria leva em conta o tamanho da mão do indivíduo, bem como o comprimento dos dedos e das articulações envolvidas. O software processa a imagem da mão apresentada com a imagem cadastrada e as compara. A maior vantagem é a rapidez no processamento. Deve-se levar em conta que anéis atrapalham a leitura, e sua confiabilidade não é total, pois sendo essa biometria posicional, nem sempre o valor obtido é exato ao da leitura.
Impressão digital
A leitura biométrica por impressão digital é uma das mais conhecidas, e funciona coletando a digital única do indivíduo e comparando-a com a cadastrada no banco de dados. Além de ser uma biometria com custo relativamente baixo, a
segurança garantida é boa. Já que a digital é única a uma pessoa, as probabilidades de erro nesse tipo de sistema são bem mais baixas.
Reconhecimento facial
O reconhecimento facial, por sua vez, coleta imagens tridimensionais, analisa as métricas dos componentes, processa e as compara com as cadastradas. A confiabilidade dessa biometria deve estar relacionada ao algoritmo e tratamento do sistema. Se ambos não forem bem equipados, é possível que o rosto de outra pessoa seja reconhecido. Porém, com equipamentos de qualidade, a segurança é devidamente garantida, embora possa demorar um pouco mais do que outros tipos de biometria.
 Reconhecimento facial
O reconhecimento facial, por sua vez, coleta imagens tridimensionais, analisa as métricas dos componentes, processa e as compara com as cadastradas. A confiabilidade dessa biometria deve estar relacionada ao algoritmo e tratamento do sistema. Se ambos não forem bem equipados, é possível que o rosto de outra pessoa seja reconhecido. Porém, com equipamentos de qualidade, a segurança é devidamente garantida, embora possa demorar um pouco mais do que outros tipos de biometria.
Identificação pela íris
A identificação pela íris, por sua vez, é realizada pela coleta de informações da membrana ocular através de infravermelho. A imagem é gerada e comparada com a do banco de dados. Apesar de ser caro, é um dos tipos de biometria mais seguros existentes, pois a íris, como as digitais, são especificidades únicas.
Identificação pela Retina
A retina também é identificada pelo infravermelho, que identifica e os vasos sanguíneos que compõe o olho e os destinam ao processamento e comparação. As taxas de erros e falsos positivos são muito baixas. Por isso, o sistema é de alta confiabilidade, embora os custos sejam altos.
Identificação pelo padrão de veias
Por fim, a identificação pelo padrão de veias é um tipo de biometriaque se utiliza de leituras infravermelhas para calcular o padrão de veias iluminadas. Depois do processamento e comparação, o indivíduo é liberado ou não a passar. Devido a imutabilidade desse padrão em cada um, esse processo também é de alta segurança e baixíssima probabilidade de erro.
Como a tecnologia é muito avançada, também é um dos tipos de leitura biométrica mais caros existentes.
A biometria é o futuro da tecnologia. Ela promete estar presente não apenas em bancos e outras empresas que necessitam de segurança, mas também são as futuras chaves de ignição dos carros, ou mesmo a substituição das chaves de casa. Com o avanço da tecnologia, elas poderão se tornar cada vez menos corruptíveis e, quando isso ocorrer, nosso mundo se tornará como aqueles que vemos em filmes!
DRIVE DE DISCO (CD,DVD,DISQUETES)
Desde os primeiros disquetes, e seus míseros 80 Kb de espaço, os dispositivos de armazenamento móvel evoluíram significativamente.
Disquetes
Os extintos disquetes, criados nos anos 70, em suas primeiras versões mediam 8 polegadas e disponibilizavam apenas 80Kb de espaço para armazenamento; pouco depois surgiu o modelo de 5,25 polegadas. Em meados dos anos 90, popularizou-se a versão mais compacta, com 3,5 polegadas e uma “impressionante” capacidade para armazenar até 1,44 MB.
CD e DVD
O CD (Compact Disc) surgiu no início dos anos 80 e, devido a sua qualidade de som, em pouco tempo conquistou o espaço antes ocupado pelo disco de vinil. O sucesso arrebatador que fez acabou por popularizar, consequentemente, o gravador de CD. Desde então, mais do que ouvir músicas, tornou-se possível gravá-las, no CD-R, ou ainda apagá-las e regravá-las novamente, no CD-RW.
Como todo tipo de dado pode ser armazenado nele, não tardou para que fosse um sucesso também na área de informática, já que com 12 cm de diâmetro possuía capacidade de armazenamento de até 700 MB, o equivalente a 486 disquetes. Percebido isso, o disco compacto ganhou uma outra função: dispositivo de backup.
Já o DVD (Digital Versatile Disc) foi criado alguns anos depois, em 1997, porém, apenas no ano 2000 passou a ser comercializado em terras brasileiras. Com capacidade de 4,7 Gb de espaço, mal chegou e já conseguiu abocanhar 80% do mercado nacional de vídeos.
CARTÃO DE MEMÓRIA
Cartões de memória são mais do que apenas os olhos veem. O Memory Stick, ou mais conhecido no Brasil como cartão de memória, é um formato  de memória digital da Sony. Lançado em 1998, o formato de cartão de memória foi atualizado várias vezes desde sua liberação . Sony Memory Stick é usado em câmeras digitais principalmente da marca , mp3 players , filmadoras digitais, bem como consoles de jogos da Sony. Ele pode variar em tamanho de 4 MB a 32 GB. Em 2009, a Sony afirmou que o seu mais novo Memory Stick , Memory Stick XC, seria capaz de atingir teoricamente tamanhos de 2 TB. Confira abaixo alguns dos modelos de cartão de memória. Memória Inicial A memória original , que variou em capacidade de 4 MB a 128 MB, não está mais em produção. A Sony lançou uma segunda versão do Memory Stick , o Memory Stick Select, que era essencialmente dois Memory Sticks separados em um com uma ferramenta para selecionar o que foi usado.
Memory Stick PRO Lançado em 2003, o Memory Stick PRO é o formato padrão atual da Sony para cartões de memória. Com tamanhos de 256 MB a 32 GB , o Memory Stick PRO é um cartão de memória capaz para as demandas de armazenamento de' alta de filmadoras digitais e câmeras de' altas resoluções . Sobre o tamanho de um pedaço de uma moeda de 1 real, Memory Stick PRO é limitada a máquinas fotográficas e filmadoras maiores. 
Memory Stick PRO Duo Memory Stick PRO Duo é a resposta da Sony ao tamanho cada vez menor de produtos eletrônicos de consumo . 
Em cerca de metade do tamanho do original Memory Stick e Memory Stick PRO , Memory Stick PRO Duo é perfeito para câmeras digitais menores e sistema de jogos da Sony portátil, o PSP . MEMÓRIA  HG Memory Stick HG tem o mesmo fator de forma que os outros tipos de memória , no entanto , a interface foi melhorada para permitir taxas de transferência de dados mais rápidas. O Memory Stick HG é usado em câmeras digitais DSLR da Sony e filmadoras HD , devido à sua taxa de transferência de dados que aumentou e as' altas demandas desses eletrônicos.
MEMÓRIA  XC No início de 2009 , a Sony anunciou as especificações finais para o seu mais novo Memory Stick , o Memory Stick XC ( eXtended Capacity ) . O Memory Stick XC será inicialmente lançado em 64 GB e 128 GB de tamanho , no entanto, o Memory Stick XC será capaz de chegar a 2 TB teoricamente. 
CONCLUSÃO
Tecnologias são, de uma maneira geral, todas as criações feitas pelo homem, para ampliar sua atuação no planeta e simplificar o modo de vida. Abrange, por exemplo, desde simples ferramentas até complexos aparelhos para se explorar o universo. A Evolução Tecnológica é algo que sempre esteve presente na vida do homem. Abrange desde os primórdios até, e principalmente, os dias atuais. Cada vez aumenta mais sua relação com o homem, e cada vez aumenta mais seu ritmo de evolução. 
Quanto mais desenvolvimento, mais as pessoas desejam dispor de todos os seus recursos e vantagens. Existe um ditado que diz: “nada mais é inventado, e sim aperfeiçoado”. Grandes pesquisadores de tecnologia utilizam sim tecnologias recém-criadas para o desenvolvimento de outra, contudo, de acordo com eles, a melhoria de grandes tecnologias leva a descoberta de diversas outras.
A evolução tecnológica não deve ser interditada, pois devemos atingir os objetivos de qual ela serve. Contudo, de forma uniforme servindo a todos e sabendo que ela serve de apoio para o ser humano “crescer”, e não se “suicidar” criando armas de guerra.
CONCLUSÃO FINAL – REFERENCIAS 
http://www.di.ufpb.br/raimundo/ArqDI/Arq4.htm
knoow.net/ciencinformtelec/informatica/perifericos-de-entrada/
knoow.net
https://pt.wikipedia.org/wiki/Periférico
https://prezi.com/4tbfj_7wnaeu/10-perifericos-de-entrada-e-10-de-saida/

Outros materiais