Buscar

hardware II

Prévia do material em texto

1/1
Discos Rígidos (HD's)
O Hard Disk, ou disco rígido, é um sistema de armazenamento de alta capacidade. Ao contrário da memória RAM,
os dados gravados não são perdidos quando se desliga o micro, assim, todos os dados e programas ficam gravados
no disco rígido. Apesar de também ser uma mídia magnética, um HD é muito diferente de um disquete comum, ele é
composto por vários discos empilhados que ficam entro de uma caixa hermeticamente lacrada, pois como gira a uma
velocidade muito alta, qualquer partícula de poeira em contato com os discos, poderia inutilizá-los completamente.
Por esse motivo, um disco rígido nunca deve ser aberto.
O primeiro disco rígido foi construído pela IBM em 1957, este era formado por 50 discos de 24 polegadas com uma
capacidade total de 5 Megabytes, uma capacidade incrível para a época. Este foi chamado de "Winchester" termo
que é muito usado ainda hoje para designar HD's de qualquer espécie. Mais tarde os discos foram diminuindo para
14 e depois 8 polegadas, chegando às 5,25" e 3,5" polegadas usados hoje em dia. Os modelos de 5,25" já estão
obsoletos, não obstante, alguns fabricantes ainda fabricam modelos de HD's de 5,25", estes, ao contrário do que
podem aparentar, são muito mais lentos e menos confiáveis do que os modelos de 3,5" polegadas. Isto acontece por
uma fato muito simples, sendo os seus discos maiores, estes não podem girar a uma velocidade tão alta quanto os
discos de 3,5". Além disso, apresentam falhas muito mais freqüentes, devido a um maior esforço dos mecanismos de
rotação. Um exemplo de discos de 5,25" são os Quantum BigFoot.
Formatação
Existem dois tipos de formatação: a formatação física e a formatação lógica. Formatação física significa dividir a
superfície do disco em vários setores, trilhas e cilindros. Esta é feita somente uma vez na fábrica, qualquer tentativa
de formatar fisicamente o HD não terá resultados, ou irá inutilizá-lo. Esta opção existe apenas em HD's muito
antigos como os de padrão de codificação MFM e RLL. Já a formatação lógica acontece através do comando
FORMAT do MS-DOS, do Fdisk, e outros programas formatadores. Na formatação lógica, nenhum dado do HD é
apagado, apenas é rescrito a Tabela de Alocação de Arquivos (FAT - File Allocation Table). Como o sistema
operacional se orienta através desta tabela, reconhecerá o disco como estando vazio. Até serem rescritos porém, os
dados antigos continuam lá, e podem ser recuperados através de programas específicos. O comando format /u
quando usado em um disquete acarreta em uma formatação física, onde são remarcados todos os setores. Porém,
quando usado em um HD tem um efeito exatamente igual ao comando FORMAT, a única diferença neste caso, é
que não é salva uma imagem antiga da FAT, mas todos os dados continuam lá, tanto que se você antes de usar este
comando fizer uma imagem da FAT usando um utilitário como o Image do Norton, poderá recuperar todos os dados
do seu HD.
Apesar dos HD's virem fisicamente formatados já de fábrica, é preciso particioná-los e formatá-los logicamente para
serem usados por um sistema operacional.
Sistema de Arquivos
Para utilizar um novo HD, antes de tudo é preciso particioná-lo para que o sistema operacional possa reconhecê-lo.
Existem diferentes Sistemas de Arquivos, os mais usados são: a FAT16, compatível com o DOS e Windows, a
FAT32, compatível apenas com o Windows 95 OSR-2, o NTFS compatível com o Windows NT e o HPFS
compatível como o OS/2.
FAT16 - Este é o sistema de arquivos utilizado pelo DOS, incluindo o Dos 7.0 e o Windows 95. Este sistema de
arquivos permite 16 bits de endereçamento de dados, o que permite um máximo de 65526 clusters, que não podem
ser maiores do que 32 kB, permitindo uma partição de no máximo 2 Gigabytes. Caso se tenha um HD maior do que
isso, será necessário dividí-lo em duas ou mais partições.
Um cluster é a menor unidade de alocação de arquivos reconhecida pelo sistema, um arquivo grande é gravado no
disco fragmentado em vários clusters, porém, um cluster não pode conter mais de um arquivo.
Tomemos por base um disco de 2 Gbytes formatado com FAT16. Cada cluster possui 32 kbytes. Digamos que
gravemos neste disco 10.000 arquivos TXT, cada um com apenas 512 bytes, como um cluster não pode conter mais
do que um arquivo, cada arquivo iria ocupar um cluster inteiro, ou seja: 32 kbytes! No total, estes nossos 10.000
arquivos de 512 bytes cada um, iriam ocupar 320 MB! Ou seja, um enorme disperdício de espaço em disco. é
possível usar clusters menores com FAT16, porém em partições pequenas:
2/2
Tamanho da Partição Tamanho dos Clusters
2 GB 32 kBytes
menos que 1 GB 16 kbytes
menos que 512 MB 8 Kbytes
menos que 256 MB 4 kbytes
menos que 128 Mb 2 kbytes
Justamente por causa do tamanho dos clusters, não é recomendável usar a FAT16 partições com mais de 1 Gb, caso
contrário, com clusters de 32 kB, o desperdício de espaço em disco será brutal.
FAT32 - A versão OSR-2 do Windows 95 (conhecido também como Windows "B") ] trouxe um novo sistema de
arquivos chamado de FAT32.
Uma evolução natural da antiga FAT16, ela permite 32 bits de endereçamento de dados, permitindo clusters de
apenas 4 kbytes, mesmo em partições maiores que 2 GB. O tamanho máximo de uma partição com FAT32 é de
2048 Gbytes, ou 2 Terabytes.
U sando-se este sistema de arquivos, nossos 10.000 arquivos ocupariam apenas 40 megas, uma economia de espaco
considerável. De fato, quando convertemos uma partição em FAT16 para FAT32, é normal conseguirmos de 15 a
40% de diminuição do espaço ocupado no Disco. O problema é que o outros sistemas operacionais, incluindo o
Linux, o OS/2, e mesmo o Windows NT 4.0, incluindo é claro o Windows 95 antigo, não são capazes de acessar
partições formatadas com FAT32, somente o Windows 95 OSR-2. A desfragmentação do disco, seja qual for o
programa usado também será bem mais demorada. Um outro problema é que devido à maior quantidade de clustersà serem gerenciados, a performance do HD deve cair em torno de 3 ou 5%, algo imperceptível na prática de
qualquer maneira. Mesmo assim, caso o seu único sistema operacional seja o Windows 95 OSR-2 ou o Windows 98,
recomendo o uso da FAT32.
(Nota: já há algum tempo sistemas Linux conseguem acessar partições formatadas em FAT32. Não sei quanto aos
outros sistemas. - Marcelo Vanzin)
Convertendo unidades de FAT16 para FAT32 - Caso você já esteja usando o Windows OSR-2 e o seu HD esteja
formatado com FAT16, você pode convertê-lo para FAT32 de duas maneiras: a primeira é usar o comando FDISK
contido num disco de boot do Windows OSR-2, neste caso você precisará formatar o seu HD, perdendo é claro
todos os dados. Outra alternativa, é usar um programa chamado "Partition Magic" da Power Quest, este consegue
converter a FAT, sem perda de dados, não só para FAT32, mas para outros sistemas de arquivos, como NTFS,
EXT2 (do Linux), e outros. Pode ser adquirido por R$ 90,00. Por fim, existe também um programa da Microsoft
chamado CVT, que converte um partição FAT16 para FAT32 sem perda de dados. Uma terceira opção será instalar
o Windows 98, cuja versão final inclui um conversor com funcionamento semelhante ao Partition Magic.
NTFS - Este sistema de arquivos é usado pelo Windows NT. Nele, os clusters são de apenas 512 bytes, sendo o
espaço em disco desperdiçado quase nenhum. Somente o Windows NT é capaz de entender este formato de
arquivos, e a opção de formatar o HD em NTFS é dada durante a instalação.
Apesar do Windows NT funcionar normalmente em HD's com FAT16, é mais recomendável o uso do NTFS, pois
além dos clusters menores, e ao suporte a discos maiores do que 2 GB, ela oferece também recursos de
gerenciamento do disco e segurança inexistentes no sistema FAT.
(Nota: caso não esteja enganado, sistemas Linux possuem drivers para ler partições NTFS, sem, no entanto,
conseguir gravar. A quem interessar procurar informações sobre como acessar um sistema de arquivos de um outro
sistema, uma boa página está em FileSystems Connectivity Map. - Marcelo Vanzin)
Discos IDE e discos SCSI
Para ser acessado pelo processador, o disco rígidoprecisa estar ligado em alguma interface. Antigamente, se usavam
controladoras instaladas em Slots ISA, porém, estas eram muito lentas e subtilizavam o disco. Atualmente são
usadas duas interfaces de disco: a IDE, e a SCSI.
Todas as placas mãe atuais possuem interfaces IDE embutidas, além disso discos, IDE são muito mais baratos do
que discos SCSI. Para instalar um disco SCSI precisamos de uma controladora que é encaixada em um slot PCI que
deverá ser comprada à parte. Além de HD's, os CD-ROM's mais modernos assim como muitos gravadores de CD,
também usam interface IDE.
Existem numa placa mãe, duas controladoras IDE, chamadas de Controladora Primária e Controladora Secundária.
Cada controladora suporta dois dispositivos, o que permite um máximo de 4 dispositivos IDE num mesmo micro. O
problema de usar dois dispositivos em uma mesma controladora, é que somente um poderá ser acessado de cada vez
3/3
por ela, degradando em muito a performance. Por isso, caso tenha apenas dois dispositivos, um HD e um CD-ROM
por exemplo, cada um deverá ficar na sua própria controladora, caso tenha 3 dispositivos, então a melhor
distribuição seria o seu HD principal sozinho na IDE primária, deixando a secundária compartilhada pelos outros
dois dispositivos.
Numa interface SCSI porém, podemos usar até 15 dispositivos simultaneamente (no caso do Wide SCSI) sem que
haja degradação de performance como acontece quando usamos mais de um dispositivo IDE.
Quando usamos apenas um disco, não existe quase ganho de performance para a interface IDE, porém, ao se usar
vários periféricos a performance aumenta brutalmente.
Outra grande vantagem do SCSI é uma menor utilização do processador quando o HD é acessado, isto melhora
bastante o desempenho geral da máquina, porém, devido ao custo, para uso doméstico ainda é recomendável o uso
de discos IDE.
Modelos de controladoras IDE:
Modelo Máxima Taxa de Transferência deDados
PIO MODE 0 3,3 MB/s
PIO MODE 1 5,2 MB/s
PIO MODE 2 8,3 MB/s
PIO MODE 3 11,1 MB/s
PIO MODE 4 16,6 MB/s
ULTRA DMA (UDMA) 33,3 MB/s
Tais velocidades porém referem-se unicamente à transferência máxima de dados permitida pela controladora, e nãoà velocidade do disco. Nenhum disco IDE atualmente oferece uma velocidade acima da casa dos 10 MB/s de leitura
física (os testes lógicos englobam o cache feito pelo sistema operacional na memória RAM), sendo até mesmo uma
interface PIO Mode 4 mais do que suficiente. Imagine um fusca que não passa dos 80 km/h, tanto faz o motorista
pegar uma estrada onde o limite de velocidade seja 80 km/h ou 120 km/h, que a velocidade do carro continuará
sendo a mesma. O gargalo nestes casos, não é velocidade da controladora, e sim a do próprio disco. Claro que é
preferível comprar um HD UDMA, pois apesar da maior velocidade do barramento não alterar a performance do
disco, estes são invariavelmente discos mais modernos e rápidos devido a técnicas de fabricação mais avançadas.
Existem também vários modelos de controladoras SCSI, e principalmente controladoras de 8 e de 16 bits, sendo que
as de 16 bits são duas vezes mais rápidas:
Modelos de Controladoras SCSI:
Modelo Controladora de 8 Bits Controladora de 16 Bits
SCSI 1,5 MB/s 10 MB/s
SCSI 2 (Fast SCSI) 10 MB/s 20 MB/s
Ultra SCSI (Fast 20) 20 MB/s 40 MB/s
Ultra-2 SCSI (Fast 40) 40 MB/s 80 MB/s
Como nos discos IDE, está é a transferencia de dados permitida pela controladora, dificilmente um Disco SCSI
supera a marca de 10 MB/s. A vantagem de se ter uma controladora veloz, é que se pode compartilhá-la or vários
discos, sem que haja degradação de performance.
4/4
Placas de VídeoRefresh Rate, Flicker e Entrelaçamento
Um assunto que é pouco compreendido é a Imagem entrelaçada, outro é o flicker. É importante conhecer estes
detalhes na hora de se comprar um monitor.
Vejamos o caso comum dos monitores de 14 polegadas, como o Syncmaster 3NE, eles apresentam imagens flicker
free em até 800 x 600 (75 Hz), mas apresentam forte "flickerização" da imagem quando a 1024 x 768 não
entrelaçado (60 Hz). Este flicker ocorre porque nesta última resolução o monitor não tem condições de varrer toda a
tela mais do que 60 vezes por segundo, mesmo que o RAMDAC da placa de vídeo seja capaz ( isso é outra história e
vou me ater a uma pincelada no monitor senão vou me extender muito mais do que pretendo), simplesmente porque
isso é uma limitação do monitor (aliás, quando vc vai comprar um monitor de 14" e o vendedor diz que ele é NI, ele
está se referindo ao fato de que este monitor pode apresentar imagens em 1024 x 768 não entrelaçadas, visto que os
monitores SVGA padrão , como o Syncmaster 3, somente eram não entrelaçados a 640 x 480). Bem, este monitores
14" não entrelaçados a 1024 x 768 apresentam, em regra, freqüência horizontal máxima de 48 ou 50 kHz, isto
significa que o feixe catódico dele possui a capacidade de varrer 50.000 linhas horizontais por segundo,
cationizando as células de fósforo. Sabemos que a varredura da tela ocorre linha a linha, de cima para baixo. Um
monitor destes trabalha muito bem em 800 x 600, pois a taxa de 50.000 linhas por segundo significa que ele pode
varrer mais de 75 vezes toda a tela do monitor neste mesmo período, a conta é simples: 50.000 / 600 = 83. Então ele
poderia varrer 83 telas por segundo? porque o meu driver somente permite 75? Por um motivo bastante simples:
Como falei acima o raio somente varre de cima para baixo, isto significa que quando ele atinge a parte de baixo da
tela ( após varrer aquela última linha da barra de tarefas do seu Windows) ele tem que subir novamente para
começar tudo novamente, isto demanda um tempo e este tempo é conhecido como retraço vertical, então a
capacidade de varredura não é simplesmente a freqüência horizontal dividida pelo número de linhas da resolução,
devemos somar a isto o tempo do retraço vertical que ocorre após cada varredura. Com base no exposto é fácil ver
que a 1024 x 768 estes monitores apresentam uma taxa de renovação da tela (conhecida como refresh rate ou ainda
freqüência vertical) inferior a 72 Hz quando em modo não entrelaçado, e portanto com flicker uam vez que o limite
mínimo para uma imagem "flicker free" é de 72 Hz. Vejamos: 50.000 / 768 = 65 (devemos adicionar o tempo do
retraço vertical, que acrescenta cerca de 5% ao tempo necessário de varredura, portanto: 50.000 / (768 x 1,05) =
50.000 / 806 = 62 Hz.
Ora, coloque o seu monitor a 1024 x 768 a 60 ou 62 Hz que vc verá que coisa desagradável é a imagem, esta
tremulação é que é o famoso flicker, que é potencializado principalmente quando o fundo é bem claro. Isto ocorre
porque, nestas freqüências, o tempo para que o canhão de elétrons rebombardeie o fósforo do monitor é longo, com
isto as células de fósforo perdem parte de seu brilho e são subitamente "reacendidas" com a nova passagem do feixe
de elétrons, causando este efeito estroboscópico conhecido como flicker. Para evitar este flicker é usada a varredura
entrelaçada, neste tipo de varredura o raio incide durante uma passagem apenas nas linhas pares, na varredura
seguinte são atingidas as linhas ímpares, e assim por diante, com este artifício o canhão percorre a tela em
praticamente metade do tempo mantendo sempre "acesas" linhas intercaladas, isto elimina o descoforto aos nossos
olhos, pois o brilho geral da tela é mantido constante eliminando o flicker. Verifique no seu driver de vídeo, vc vai
ver que deve existir a opção de varredura entrelaçada nas resoluções mais altas, mesmo em monitores modernos e
um pouco mais caros há limitações desta espécie, este mesmo que estou usando agora não é capaz de me dar uma
imagem "flicker free" em 1280 x 1024, por isto me é dada a opção, no driver, de usar a varredura não entrelaçada a
60 Hz ou entrelaçada a algo como 48 ou 50 Hz. Com o entrelaçamento evitamos a cintilação do flicker, mas surge
outro problema, a perda de nitidez da imagem. Isto ocorre porque enquanto as linhas ímpares são varridas, as pares
estão perdendo luminosidade e vice-versa. Vc pode perceber isto na tela de inicialização do Win95, aquela que
apareceenquanto ele é carragado, naquele momento os drivers de vídeo do Windows ainda não foram ativados e a
varredura é feita de modo entrelaçado, repare que a imagem parece conter estreitas linhas intercalando-se em
tonalidade diferentes, ou as letras do DOS, repare que elas parecem conter listras. Mas vc olha todo dia para um
objeto de varredura entrelaçada, sabe qual é? A sua televisão, sim, a sua televisão funciona com varredura
entrelaçada, aliás vc nunca se deu conta de como a imagem dela é ruim porque vc não fica a uns poucos centímetros
de distância lendo, escrevendo e editando arquivos gráficos. Pergunta pedestre: Mas porque o meu driver permite
que eu use varredura não entrelaçada a 60 Hz em 1024 x 768, mas a entrelaçada somente é possível a 50 Hz, a
entrelaçada não leva a metade do tempo já que varre apenas metade das linhas a cada meio ciclo? A resposta é um
retumbante NÃO! Na varredura entrelaçada o retraço vertical ocorre com o dobro da freqüência do que ocorre na
não entrelaçada, ele ocorre duas vezes por ciclo, enquanto na não entrelaçada ocorre apenas uma. Consideramos um
ciclo de varredura entrelaçada uma passagem completa por todas linhas pares e por todas as ímpares, como a cada
5/5
passagem por linhas pares há a necessidade do canhão de elétrons subir novamente para começar a varrer asímpares, e assim por diante, fica explicado o porque do refresh rate em varreduras entrelaçadas acabar tendo uma
taxa menor do que na não entrelaçada. Pergunta pedestre 2: Ainda não consegui compreender direito porque a
imgem fica sem flicker na varredura entrelaçada ainda mais usando um refresh rate ainda menor. Porque? Porque o
Flicker não está ligado à continuidade de imagens ou nitidez geral, e sim à alteração brusca de luminosidade da tela.
Com a varredura entrelaçada isto não ocorre, pois duas linhas consecutivas estão próximas e, para efeitos de
luminosidade, tratamos cada par de linhas como se fosse uma. Como à freqüência de 50 Hz cada uma das linhas que
compôem o par é "acendida" alternadamente 50 vezes por segundo, a luminosidade total é menor do que se a
varredura fosse não entrelaçada a 100 Hz, mas é mantida constante, isto é possivel porque via de regra as linhas
consecutivas possuem luminosidade e cores semelhantes. Na verdade temos a sensaçào ótica de continuidade da
luminosidade como se a tela estivesse sendo renovada 100 vezes a cada segundo (mas com menor luminosidade)
que como vimos é completamente flicker free. Já quanto à definição devemos notar que a atenção de nosso cérebro é
sempre desviada instintivamente para aquela mais iluminada. Ou seja, tratamos cada par consecutivo de linhas como
se fosse apenas uma, e as vemos intercaladamente, pares e ímpares, daí a perda de nitidez da imagem. Destarte,
apesar de cada linha ser bombardeada apenas a cada dois centésimos de segundo, tempo suficiente para o fósforo se
"apagar", estamos de fato lendo, alternadamente, uma cada centésimo de segundo. Uma coisa importante a ser
notada é que na varredura entrelaçada, 50 Hz como no ex. acima, apesar de o feixe de elétrons passar pela tela 100
vezes a cada segundo ( 50 nas linhas pares e 50 nas ímpares) a troca de quadros somente pode ser feita 50 vezes (
daí usar-se 50 Hz como definição e não 100), isto significa que cada quadro precisa ser mostrado pelo menos uma
vez em todas suas linhas ímpares e pares. O motivo para tal é bastante simples: se a nitidez da imagem entrelaçada
já é ruim, uma vez que as linhas são mostradas alternadamente, se a troca fosse feita após apenas a varredura das
linhas pares ou ímpares deixaríamos de ver metade dos detalhes.
Placas de VídeoPlacas de Vídeo 3D
Este texto visa esclarecer as dúvidas mais comuns sobre placas 3D.
1) 3DFX é apenas o nome de um fabricante de processadores gráficos, e não um recurso ou uma interface de
programação (API - Aplication Programming Interface) como muitos desinformados pensam.
2) API é uma interface de programação, é através das API's 3D que os jogos fazem as chamadas aos recursos de
hardware oferecidos pelos processadores gráficos.
3) Há três tipos de API's usadas mais comumente pelas softwarehouses para fazerem a programação 3D de jogos (há
outras, mas não usadas em jogos): Open GL, Direct 3D, e Glide. A Open GL é a que oferece mais recursos aos
programadores, proporcionando também maior facilidade de programação, esta API foi criada pela gigante Silicon
Graphics e foi recentemente licenciada pela Microsoft. Um exemplo de jogo que usa esta API é o Quake II.
A Direct 3D é a API utilizada por 99,9% dos jogos, e é também a que oferece a melhor qualidade de imagem no
momento, visto que as placas 3D atuais que receberam maiores elogios da crítica especializada em relação à
qualidade de imagem (e realmente são as melhores) foram aquelas com o Chip Intel I740 e Matrox MGA G200, que
operam somente com a API Direct 3D, por enquanto. A Direct 3D é a API da Microsoft, integrando-se ao Windows
9x, daí a preocupação das softwarehouses em fazerem seus jogos compatíveis com ela. A Microsoft está
desenvolvendo uma nova versão da D3D (Direct 3D) em conjunto com a HP, os programadores dizem que esta nova
versão, que estará no Direct X 6 e tornará possível efeitos 3D antes inimagináveis, desde, é claro, que as placas
trabalhem bem em D3D, apresentando os recursos em hardware. Por fim temos a Glide, uma API bem antiga, do
tempo que as chamadas diretas a hardware no Win 95 eram bem primitivas, mas pouco evoluiu desde então. Esta
API, além de ser proprietária de um fabricante de chips gráficos, a 3DFX, é a pior das três, é aquela que oferece
menos recursos aos programadores e está caindo amplamente em desuso. Alguns jogos, ainda oferecem suporte à
Glide (como Turok, que funciona em D3D ou em Glide também) mas, é claro, também dão o tradicional suporte àD3D. Os lançamentos de jogos que suportam Glide estão se escasseando e podemos dizer que trata-se de uma API
moribunda, a chegada do DirectX 6 com a nova versão de Direct 3D deve sepultar de vez esta interface de
programação.
(Nota: as placas com o chip Matrox G200 são compatíveis com OpenGL desde o seu lançamento, com a utilização
do Direct3D Wrapper da Matrox. Esse driver traduz as chamadas a funções OpenGL para suas equivalentes em
Direct 3D. No entanto, há uma grande perda de performance. Em dezembro último a Matrox lançou uma versão beta
do OpenGL ICD para o G200, que não apresenta nenhum ganho em performance. É esperado um ganho de 25% ou
até mais para a versão final - seja lá quando ela sair... - Marcelo Vanzin)
6/6
4) Ao escolher uma placa 3D você deve verificar então quais são as API's que esta placa suporta, como é de se
esperar praticamente todas as placas 3D possuem suporte à API Direct 3D, grande parte, além de suportar Direct 3D
também suporta Open GL, outras suportam ainda Glide. Pelo que vimos no item 3 não devemos dar importância à
presença de suporte à API Glide, mas é fundamental que tenha suporte a D3D e a OpenGL, D3D porque é a API da
Microsoft e a de 99,9% dos jogos, e OpenGL porque é a API usada por aplicativos 3D profissionais e por alguns
jogos como Quake.
5) Ao lado da placa 3D é de fundamental importância que tenhamos um processador central potente em operações
de ponto flutuante (as instruções 3D Now! - do K6-II - nada mais são do que um tipo específico de instruções de
ponto flutuante para ser utilizado em jogos e outros aplicativos 3D), pois cabe à CPU o cálculo do posicionamento
de todos os vértices dos triângulos que formam a imagem (claro! é a CPU que calcula a posição relativa de tudo a
ser mostrado no monitor). Isto é feito através de um pesado cálculo tridimensional e, depois recalculados e
posicionados em um plano (2D) afinal a tela do seu monitor somente pode apresentar imagens em duas dimensões,
quem conhece cálculo entende a complexidade dos cálculos que estou falando. Este "rascunho" de imagem é então
enviado para o placa de vídeo 3D, cabe ao processador 3D aplicar a estes vértices a construção dos triângulos e
posterior renderização da imagem com a texturizaçãoe todos os demais efeitos 3D suportados. Caso o processador
gráfico não suporte um efeito específico, dependendo do efeito, este poderá ser um efeito que a CPU possa emular,
esta emulação não somente consome mais CPU como acaba tendo um resultado bastante inferior àquele que seria de
se esperar do chip gráfico. A quantidade de recursos de hardware implementados é importantíssima, o chip Riva 128
possui a Direct 3D como API nativa, sendo assim é um chip que implementa os recursos do Direct 3D. Outros chips
estão vindo na mesma linha como o intel I740 e o Matrox MGA G200.
6) Continuando com a interdependência entre processador e CPU, devemos, ao comprar uma placa gráfica, procurar
uma que tenha boa escalabilidade, ou seja, que se desempenhe bem com processadores mais potentes. Como vimos
no tópico anterior, o processador 3D depende dos dados fornecidos pela CPU, assim, numa placa 3D lenta, pode
ocorrer de a CPU fornecer os dados para o processador gráfico e, enquanto este renderiza a imagem, a CPU finaliza
os cálculos para o quadro seguinte, mas não pode entregar à placa 3D porque esta ainda não acabou de trabalhar com
o quadro anterior, desta forma a CPU fica "parada", esperando até que o processador gráfico possa receber os dados.
Imaginemos agora o contrário, um velocíssimo chip gráfico operando com uma CPU que não é capaz de fornecer os
dados na velocidade com que ele pode operar. Se vc tiver uma veloz placa 3D é possível que ela receba os dados da
CPU, renderize a imagem, faça a transformação para o sinal analógico VGA e a imagem seja apresentada na tela e o
processador gráfico fique então "parado", apenas esperando os dados do novo quadro serem enviados pela CPU, ou
seja, aqui foi o processador gráfico que acabou seu trabalho primeiro e a CPU não é capaz de oferecer dados em
velocidade suficiente para explorar todo seu potencial. Este é o exemplo de um chip gráfico escalável. Se vc tem
uma placa de vídeo com um chip gráfico altamente escalável, ao fazer o upgrade da sua CPU, de um Pentium 200
para um PII 300, por ex., vc vai ganhar em taxa de quadros (FPS), pois a placa de vídeo não será gargalo ao
desempenho. No primeiro caso foi citado um exemplo de placa de vídeo não escalável, naquele caso o upgrade de
CPU pouco ou nada acrescentaria em termos de frame rate. Um exemplo de placa altamente escalável é a Viper,
pois mesmo em um PII 300 ela está longe de esgotar seu potencial. Ou como disse o Tom Pabst no seu excelente
sítio: "You want to go for a 3D chip that reaches high absolute results in frame rate as well as scales well over the
CPUs. The number one chip to achieve this is currently the RIVA 128 from NVIDIA, which obviously is far from
its maximal 3D performance even in a system with Pentium II 300."
7) Outra bobagem comumente repetida por leigos é: "coloquei uma placa de vídeo tão rápida que está difícil de
jogar de tão veloz que o jogo ficou". Isto não existe! Essas pessoas confundem um maior frame rate com uma maior
velocidade de andamento do jogo. Todos os jogos atuais têm seu andamento dado pelo real time clock, e não pela
velocidade do hardware. Isto se fez necessário uma vez que um jogo programado para um 386 tinha a sua
jogabilidade inviabilizada em um 486 (eu mesmo tenho um Pac-Man de utilização impossível em um Pentium), e
não só isto os jogos em rede seriam impossíveis, uma vez que, num jogo de corrida de carros, por exemplo, ganharia
aquele que tivesse o computador mais veloz. Assim, desde que TODOS os jogos 3D possuem seu andamento
balizado pelo real time clock os jogos definitivamente NÃO ficam mais rápidos por vc estar usando um hardware
mais veloz, o que acontece é uma maior fluidez de imagens que, pelo contrário, até facilita o controle. Imaginemos
um jogo de corrida em que o veículo pilotado pelo jogador está se deslocando na velocidade de 100 m/s,
imaginemos que o seu hardware esteja gerando imagens numa proporção de 50 fps, assim, a cada frame o veículo
será apresentado com um deslocamento de 2m, em média, em relação à frame anterior, ao final de um segundo terão
sido apresentadas 50 frames e o veículo terá se deslocado os 100m. Se vc rodar este mesmo jogo em um hardware 5
vezes mais lento este hardware terá condições de apresentar apenas 10 fps, mas como o andamento do jogo é
controlado pelo real time clock, cada frame irá apresentar um deslocamento médio do veículo de 10 m em relação à
7/7
frame anterior, mas ao final de um segundo o veículo terá se deslocado exatamente os mesmos 100 metros que se
deslocou no hardware mais rápido, apenas com uma menor fluidez de imagens já que com apenas 10 fps a
movimentação fica semelhante àqueles filmes de cinema mudo e com 50 fps a fluidez da imagem assemelha-se às
de um cinema moderno (60 fps). É bom lembrar que com um fps de 20 já se têm uma boa fluidez e com 30 já se
torna quase impossível percebermos alguma falta de continuidade. Portanto, tudo é ilusão sua, o andamento de um
jogo não fica mais rápido por usar um hardware mais veloz, nem a jogabilidade fica prejudicada, pelo contrário, já
que com um maior frame rate vc acompanha mais amiúde o desenrolar do jogo, imaginemos no caso da nave que se
desloca a 100 m/s se vc usasse um hardware que te desse um fps de 5 apenas, a cada frame vc estaria 20 metros
adiante da anterior, um obstáculo pode aparecer repentinamente e vc nem perceber, já com um fps de 50 a nave
estaria apenas 2 metros a frente da anterior, dando maiores possibilidade de visualização do obstáculo.
Aqueles que querem apenas comprar a mais veloz placa 3D PARA JOGOS disponível hoje no mercado então a
escolha deve ir para a Quantum Obsidian2 X-24 que pode ser adquirida oo endereço abaixo:
http://www.netsales.net/pk.wcgi/quantum/prod/1187127-1. Outras escolhas de placas, inferiores a esta citada, mas
velozes são a Diamond Monster II e a Creative 3D Blaster Voodoo II, disponíveis com 8 ou 12 megabytes, aqueles
que forem inteligentes devem comprar a versão com 8 MB, pois o desempenho, ao contrário do que pensam os
leigos, é o mesmo, os motivos para isto já foram por mim explicados em mensagem postada no grupo de hardware.
Outra concorrente é a Diamond Viper V330, que possui excelente Custo/Benefício, sendo superior à Monster 1 em
3D tanto em velocidade como em recursos, e é extraordinária em 2D também. É de bom alvitre avisá-los de que em
ago/set serão lançadas as primeiras placas com o chip RIVA TNT, muito superior a qualquer coisa que existe hoje
em termos de placas 3D. Por fim, apenas consolidando tudo aquilo que disse acima veja os benchmarks abaixo,
perceba que o desempenho de uma Viper (NVIDIA RIVA 128) em um PII300 (51 fps) é, neste jogo, superior ao de
uma Monster II em um P200 (39,5). Devo ainda lembrar que estes testes são anteriores à última versão de drivers da
Viper, que elevou o desempenho em cerca de 25%, o que significa que este índice de 51 é na verdade de cerca de
64!!
Por último devo esclarecer que não há praticamente nenhuma diferença de desempenho entre as placas PCI e AGP
atuais. A porta AGP possui um barramento independente do PCI, possuindo um acesso direto à memória também, é
na verdade , nesse tipo de acesso a memória que está a grande vantagem do AGP, permitindo o tratamento de
texturas diretamente na memória principal. Outro importante ponto é que ele descongestiona o barramento PCI,
coisa importantíssima, uma vez que as placas de vídeo são as maiores "comedoras" de banda do barramento, e em
sistemas com diversos desses periféricos ( PCI ) esse barramento de 32 bits se torna um gargalo. As primeiras placas
de vídeo com capacidade de trabalhar em AGP X2 (533 MB/s) já estão entrando no mercado, vejamos se essas
apresentam um ganho real de desempenho sobre as PCI's - pois essas, como disse, quando trabalhando em
barramentos descongestionados saem-se tão bem quanto as primeiras AGP, mesmo aquelas que possuem a
habilidade de fazer texturizações na memória do sistema, como a Viper PCI, não ficam atrás das irmãs AGP - na
verdade ficam, mas por pouquíssimo, diferença imperceptível na prática.Placas de VídeoVisão Geral
O Que são?
As Placas de vídeo são dispositivos que controlam a saída de dados para o Monitor. Ela recebe os dados da CPU,
processa e envia eles para o monitor. Os dados que uma Placa de vídeo pode emitir podem ser tanto em forma de
gráficos e desenhos, ou textos (ou ambos).
Como Funciona?
O Monitor, como todos sabem, é um dispositivo de saída, uma forma do computador se comunicar com o usuário.
Então quando a CPU precisa "se comunicar" com o usuário, ela manda os referidos dados para a placa de vídeo, que
funciona como um "mediador" entre a CPU e o Dispositivo de Saída propriamente dito (no caso o monitor).
Como já dito anteriormente, podemos visualizar dados no monitor tanto em forma de gráficos como em forma de
textos, ou ambos. Nisso está o conceito de modos de vídeo. Os modos de vídeo são as distinções feitas entre
exibições em forma de textos e as feitas em modos de gráficos e desenhos. Em modo de textos somente serão
exibidos textos, nunca gráficos (na verdade podem ser exibidos gráficos sim, mas de baixíssima resolução e bem
rudimentares, usando-se caracteres especiais e símbolos. Mas para efeito teórico, não é possível exibição de gráficos
em modo texto). Em Modo Gráfico, são exibidos apenas gráficos e desenhos. No entanto podem ser exibidos textos
também, só que, quando em modo gráfico, os textos são literalmente desenhados, letra a letra. Entretanto, isso
8/8
acontece tão rápido (principalmente nas placas de vídeo atuais) que na prática pode-se dizer quem em modo gráfico
podem ser exibidos gráficos e textos.
Para exibir os dados no vídeo, a placa de vídeo se utiliza de um recurso chamado memória de vídeo. O conteúdo
dessa memória sempre representará o que estiver na tela do monitor. De fato, a placa lê o conteúdo dessa memória
milhares de vezes por segundo, e transmite os dados lidos para o monitor, após uma conversão digital / analógica.
Portanto, pode-se dizer que, quando a CPU necessita colocar algo na tela, a placa recebe esse sinal e coloca o dado
na memória de vídeo, e, através desta, a imagem chega a tela. O Tamanho dessa memória será sempre proporcionalà capacidade máxima de exibição da placa, que geralmente será percebida em gráficos. Em outras palavras, quanto
maior for a memória da placa, maior será a sua capacidade de exibição de gráficos.
Uma placa de vídeo que possua um máximo de 2 MB, por exemplo, será capaz de exibir gráficos a uma resolução de
1280X1024 pontos na tela, usando 256 cores simultaneamente. Uma placa de vídeo que possua 1 MB, será capaz de
exibir gráficos à uma resolução máxima de 1280X1024 pontos na tela, entretanto podendo usar apenas 16 cores
simultaneamente. Da mesma forma, uma placa de vídeo com 4 MB, seria capaz de exibir gráficos na mesma
resolução mas usando 64 mil cores simultaneamente.É importante observar que, pelo fato de uma placa de vídeo ter mais memória, um modo de vídeo que requeira
menos memória não vai utilizar a capacidade total da placa. Outra confusão que é feita freqüentemente é que quanto
maior a memória da placa, maior será o desempenho da placa. Isso não é verdade para todos os casos. O
desempenho só será superior caso feito uma adição de 1 MB para 2 MB, numa placa PCI (64 bits). O que com
certeza mudará com o aumento de memória será o aumento da capacidade gráfica, como já explicado. Isso só não se
aplica à placas 3D add-on (veja abaixo), que usam sua memória para armazenar texturas, cálculos de vértices e
outras coisas, e que de fato apresenta um desempenho superior caso a memória desta seja aumentada.
Paleta de CoresÉ comum ouvir-se a referência "exibição de gráficos em 256 cores simultâneas, de uma paleta de 256 mil cores". O
que isso significa? Significa que a placa pode exibir gráficos na tela usando 256 cores simultaneamente, e, para cada
uma das cores exibidas, pode-se escolher outras 256 mil. Para exemplificar: Digamos que um determinado programa
coloque na tela um ponto de cor azul, que chamaremos de cor "1". Digamos que queríamos colocar um ponto verde-
musgo, e não azul. Chamemos a cor verde-musgo de cor "197.233". Tudo que temos que fazer então, é solicitar que
a cor "1" passe a conter a cor "197.233". Dessa forma, a cor azul passa a ser a cor verde-musgo. Feito isso, a placa
de vídeo automaticamente troca a cor do ponto azul para a cor para qual foi mudada, sem necessidade de se colocar
um outro ponto.
Placas de Vídeo e Padrões de Exibição
Existem muitas placas de vídeo de várias marcas atualmente, mas todas possuem um padrão específico.
O Padrão atual é o SuperVGA (ou também simplesmente VGA, como termo genérico, apesar de esses dois padrões
serem diferentes um do outro).
Mas já existiram muitos padrões de placas de vídeo. Veja as que foram mais comuns:
Padrões Descrição
CGA
Color Graphics Adapter – Foi o primeiro padrão de vídeo gráfico em cores utilizado. Apesar do nome
sugestivo, a capacidade máxima de cores dessa placa era apenas 16 simultâneas em modo texto (naépoca, isso era incrível...). Possuía apenas dois modos gráficos: 320x200 a 4 cores simultâneas, de uma
paleta de 16 cores, e 640x200, em preto e branco (monocromático). Para os padrões atuais, esses
modos de vídeo são muito fracos, mas para a época, era revolucionário.
Hércules Também muito fraco para os padrões atuais, foi muito utilizada na área de editoração eletrônica, dadasua capacidade gráfica de 720x348 em preto e branco (monocromático). O Estilo de suas letras na tela
também era parecido com o de máquinas de escrever, daí seu uso em editoração.
EGA
Enhanced Graphics Adapter - Foi o primeiro passo significativo em termos de padrão de exibição. Esta
placa podia exibir gráficos em 320x200 a 16 cores, e possuía uma resolução máxima de 640x480 em
monocromático. Também foi introduzido o conceito de memória de vídeo expansível, o que permitia
maiores resoluções de pontos na tela e cores simultâneas. A capacidade máxima de uma placa EGA era
de 256 kB, mas as primeiras e a maioria delas tinham 64 kB.
VGA
Video Graphics Adapter - Este padrão introduziu um conceito de exibição bem mais flexível e
avançado, baseado em parte no modo de exibição das televisões à cores. Isso permitia que a placa
possuísse modos de vídeo pré-definidos e ainda modos gráficos que poderiam ser "criados", ainda que
com certa dificuildade. Era capaz de exibir gráficos com 256 cores simultâneas de uma paleta de 256
9/9
mil cores, bem como o já conhecido 640x480 à 16 cores simultâneas, de uma paleta de 256 mil cores.
Placas com 1 MB podiam exibir nessa mesma resolução com 256 cores de uma paleta também de 256
mil, e 800x600 à 16 cores, também de uma paleta de 256 mil cores. Entretanto, eram mais comuns as
placas que tinham 256 kB ou 512 kB.
SuperVGA
É o padrão atual. Uma evolução natural do padrão VGA. Ela pode possuir de 1 MB para cima, e é mais
rápida em modos de vídeo de resolução mais alta. A maioria delas é capaz de exibir gráficos a uma
resolução de 640x480 com 16 milhões (!!) de cores simultaneamente. Placas com mais memória (2
MB) podem exibir o mesmo número de cores simultaneamente, mas a uma resolução de 800x600.
Chipset
Chipset é o conjunto de "processadores" que formam a placa de vídeo. É o chipset que controla as diversas
operações da placa, como mudança de modo de vídeo, atualização da tela, controle do refresh do monitor, assim
como recepção e processamento dos dados da CPU.
Modelos ou Marcas de Placas de Vídeo
Atualmente existem muitos modelos de placas de vídeo. As mais comuns são as placas da Diamond, Trident, etc.
Cada uma usa um chipset específico, seja proprietário (ou seja, criado apenas para ela) ou um chipset genérico,
como os chipsets S3, Providia, NVIDIA, etc.
Atualmente, as placas da Diamond são as de melhor qualidade, mas em geral são as mais caras. As placas da Trident
possuem uma qualidade intermediária, e um preço mais acessível.
(Nota: as placas Diamond realmente tem qualidade muito boa, mas afirmar que elas possuem "a melhor qualidade" é
um tanto imprudente. A qualidade da placa de vídeo depende muito do chip utilizado,das memórias, suporte -
drivers, etc, e, um dos principais fatores, que utilização a placa de vídeo terá. - Marcelo Vanzin)
Mas como medir a qualidade da placa de vídeo? Devemos considerar, nesse caso, dois fatores: o desempenho e a
qualidade da imagem gerada pela Placa de Vídeo em questão.
Desempenho da Placa de Vídeo
Existem vários softwares que medem isso, os mais comuns são o WinBench e WinTune. O desempenho da placa
tem impacto geralmente em certas aplicações do Windows (Vídeo, Impressão de Fontes na tela, etc.), e em jogos.
Imagens em 2D
São imagens que tem apenas um plano, sem profundidade e volume. Desenhos simples e fotos são exemplos de
imagens em 2D. São as imagens que a maioria das placas comuns exibem. Obviamente, o fato de uma placa 2D
exibir imagens 3D não significa que ela pode criar imagens em 3D. Por si só, ela só pode criar (ou, no termo técnico,
renderizar) imagens em 2D.
Imagens em 3D
São imagens que possuem volume e profundidade. Um computador gera imagens 3D usando cálculos matemáticos.
Até pouco tempo, as placas 2D apenas exibiam essas imagens, que já eram previamente calculadas e então
convertidas para 2D pelo próprio processador. Agora algumas placas tem a capacidade de auxiliar nesse processo,
calculando alguns dados para a formação da imagem em 3D, e de fato exibir imagens em 3D. É o caso da Diamond
Viper 330. Ela se utiliza da API* Direct3D, um novo padrão que tem se destacado na área de gráficos 3D. Essa API
facilita muito a criação de gráficos em 3D. Algumas placas de vídeo mais recentes possuem esse recurso, incluindo
a Viper 330. Existe também a API OpenGL, também muito boa (senão melhor que a Direct3D), e que a Viper
também oferece compatibilidade (a nível de software somente: o suporte nativo da Viper é somente para Direct3D).
No caso da Viper 330, ela é uma placa "combo", ou seja, renderiza imagens em 2D e 3D. Mas existem placas
específicas que cuidam apenas da renderização de gráficos 3D. Essas placas são chamadas de "add-ons", o que
significa que ela não funciona sozinha, no caso, ela necessita de uma placa 2D comum, que no caso fica com o
trabalho de passar as renderizações em 3D para o monitor. Como elas trabalham sozinhas, sem a interferência do
processador, em geral essas placas são bem rápidas, e fazem todo o trabalho de cálculo dos gráficos. Lógico que isso
não torna as placas baseadas em API's como a Viper inferiores... De fato, em alguns casos, ela é até melhor que as
placas add-ons. Um exemplos bem conhecido de placa add-on é a Monster 3D. A desvantagem dessas placas addon
(e também de algumas combo, como a Viper) é que elas têm o seu desempenho otimizado para uso em jogos. Para
aplicações profissionais em ambiente 32 bits, como modelagem em 3D, há placas específicas como aquelas da
família FireGL (que possuem suporte nativo para OpenGL) da Diamond.
* API: Um conjunto de sub-rotinas que facilitam a "comunicação" de um programa com um hardware específico.
10/10
MemóriasO Cache L2
O cachê secundário, que é do que estamos tratando aqui, nada mais é do que uma porção de memória RAM estática
muito mais veloz que as RAM's dinâmicas que compõem a memória principal.
E porque então toda a memória não é feita desses chips?
Porque são muitíssimo mais caros, ocupam um grande espaço e porque uma pequena quantidade dessa memória
interposta entre a CPU e memória principal já provoca uma extraordinária "aceleração" do sistema. Como essa
aceleração é feita é o que veremos agora. O cachê consiste em dois conjuntos de chips de RAM estática (SRAM -
Static RAM). O primeiro é aquele que todos conhecemos, são aqueles "quadrados" presentes nas placas mais
modernas ou nos módulos de expansão de cachê, são os chips de armazenamento de dados. O segundo conjunto
consiste , em geral, de chips em encapsulamento DIPP (Dual In-line Pin Package) chamados de TAG RAM. A
função da TAG RAM é armazenar informações sobre os dados contidos nos chips de armazenamento.
O cachê armazena dados em linhas, e cada linha é composta por 16 bytes. O tipo mais simples de cachê é o chamado
cachê direto. Nesse cachê a memória é dividida em blocos do mesmo tamanho que o próprio cachê, e cada bloco
subdividido em linhas. Assim, numa máquina que tenha 16 MB de RAM e um cachê L2 de 512 kB, a memória
principal seria dividida logicamente em 32 blocos de 512 kB cada. Suponhamos agora que seja solicitada a leitura da
oitava linha do décimo bloco, não estando o dado no cachê, desta forma a busca será feita na memória principal e,
enquanto os dados são transferidos para a CPU , o circuito controlador do cachê copia os 16 bytes da linha para os
chips de armazenamento de cachê, exatamente na posição correspondente à ocupada pela linha no bloco de onde ela
foi lida (ou seja: a cópia vai ocupar a oitava linha do cachê). E depois copia na oitava posição da TAG o número do
bloco de onde a linha foi lida, no caso o número DEZ (como pode ver, a TAG cria um "índice", por assim dizer, dos
dados contidos nos chips de armazenamento). Depois de algum tempo a TAG está repleta de índices e os chips de
armazenamento cheio de linhas, cópias exatas das linhas correspondentes na memória principal. A diferença é que
no cachê as linhas podem estar embaralhadas, ou seja, depois da décima linha do quinto bloco da memória principal,
pode estar armazenada a décima-primeira linha do vigésimo bloco, e depois dela a décima-segunda linha do terceiro
bloco e assim por diante. Não há confusão porque a qualquer momento pode-se saber de que bloco veio aquela linha
consultando a TAG RAM, que armazena os índices dos blocos de onde cada linha foi copiada.
Agora imagi
MemóriasConheça suas memórias
Neste texto iremos abordar os vários tipos de memórias, dando enfoque principal à memória RAM, porém dando
também importância para a VRAM (memória usada nas placas de vídeo) e à ROM (memória somente de leitura)
Será que a memória RAM que você está usando no seu micro é a mais indicada? Onde é usada e pra que serve a
memória ROM? Você sabia que as placas de vídeo também usam memórias? Continue lendo nosso tutorial e você
não irá se arrepender.
Tipos de Memória RAM
RAM significa "Random Acess Memory" esta é a memória usada pelo processador para executar programas e
armazenar dados. Essa pode ser de vários tipos. Quanto ao formato físico temos:
Módulo DIP (Dual in Parallel) A memória RAM usada na época do XT, também utilizada em alguns micros 286.
Eram pequenos chips que eram encaixados na placa mãe. Trata-se de módulos de memórias de 8 bits, fabricados em
velocidades de acesso de 150 e 120 ns (bilhonésimos de segundo). A instalação destes módulos era muito
trabalhosa, e para facilitar a vida dos usuários (e aumentar as vendas) os fabricantes desenvolveram placas de
circuito impresso onde os circuitos integrados de memória se encontravam soldados.
Módulo SIPP (Single in Line Pin Package) - Os primeiros módulos de memória usados em micros 286 e nos
primeiros micros 386, eram também módulos de 8 bits. Esse tipo de memória foi fabricado com velocidades de
acesso entre 100 e 120 ns.
Módulo SIMM (Single in Line Memory Module) de 30 pinos - Memória utilizada em alguns micros 286 mais
modernos, nos micros 386 e em muitos 486. Eram pentes de memória com 30 terminais ou vias, com barramento de
8bits. Este modulo podia ser encontrado em varias capacidades, os mais comuns eram os de 256 kB, 1MB e 4 MB,
existindo também módulos de 512 kB, 8 MB e 16 MB. Por ser um modulo de 8 bits, era necessário usar um par de
módulos em cada banco (um banco era composto de dois soquetes para encaixe dos módulos, e em geral haviam
11/11
dois bancos, totalizando 4 soquetes) nos micros 286 para que fornecesse o mesmo números de bits usados pelo
processador (16bits). Já nos micros 386 DX que tinham processadores que se comunicavam com a memória em 32
bits, eram necessários que dois bancos (ou os 4 soquetes) estivessem preenchidos, totalizando 32 bits. Foram
fabricados com velocidade de acesso entre 100 e 70 nanosegundos.
Módulo SIMM de 72 pinos- Com o uso dos processadores de 32bits, os fabricantes criaram um novo tipo de pente
de memória de 32 bits que ao contrário dos módulos antigos possuía 72 pinos. Esse tipo de memória foi usado nos
micros 486 mais modernos e largamente utilizados nos micros Pentium, neste caso sendo necessário o uso em pares
já que esses processadores trabalhavam em 64 bits. Os módulos SIMM de 72 pinos são encontrados com
velocidades entre 80 e 50 ns (no caso das EDO).
Módulo DIMM de 168 pinos - Ao contrário das memórias SIMM, esse módulos possuem contatos em ambos os
lados do pente, sendo por isso chamados de DIMM (Double in Line Memory Module) são módulos de 64 bits, sendo
usados em micros Pentium e posteriores.
Quanto à tecnologia usada:
Dynamic RAM (DRAM) : É a tecnologia usada na fabricação dos pentes de memória de 30, 72 e 168 pinos. Este
tipo de memória precisa ser constantemente reenergizado para não perder os dados gravados. Se divide em:
Fast Page Mode RAM (FPM RAM) - É o mais velho e menos sofisticado tipo de RAM, usada em micros
486 e Pentiums mais antigos, esse tipo de memória é encontrado em velocidades de 80, 70 e 60 ns. Os
intervalos de espera desse tipo de memória (Wait States) não podem ser menores do que 5-3-3-3. E pode
ser utilizada em velocidades de barramento de até 66 MHz.
Extended Data Output RAM (EDO RAM) - É o tipo de memória mais usado atualmente, é encontrado em
velocidades de 70, 60 e 50 ns. A diferença entre a memória FPM e a EDO, é que a EDO consegue trabalhar
com Wait States de 5-2-2-2 sendo cerca de 20% mais rápida do que a FPM. Este tipo de memória foi usado
em pentes de 72 vias e em alguns modelos de pentes de 168 vias. Ao contrário do que se costuma dizer, as
memórias EDO de 60 e 50 ns (desde que de boa qualidade) suportam trabalhar com barramento de 75
MHz. Em muitos casos se consegue que esse tipo de memória suporte barramento de 83 MHz aumentando
os Wait States para 5-3-3-3.
Burst Extended Data Output RAM (BEDO RAM) - É um tipo melhorado de memória EDO, suportando
trabalhar com Wait States de 5-1-1-1 sendo levemente mais rápida do que as memórias EDO
convencionais. Este tipo de memória, porém, é suportado apenas por alguns modelos de placa mãe.
Synchronous Dynamic RAM (SDRAM) - Encontrada em Pentes de memória DIMM, utiliza Wait States de
5-1-1-1, sendo por volta de 10% mais rápida do que as memórias EDO. São encontradas com velocidade de
10, 8 e 7 ns, teoricamente funcionaria à 124 MHz, mas na prática, dificilmente passam de 83 MHz. Não
sendo adequadas para placas que usaem barramento de 100 MHz.
Memórias PC-100 (ou memórias de 100 MHz) - São memórias SDRAM com vários aperfeiçoamentos, o
que as permite funcionar estavelmente com bus de 100 MHz. A maioria das placas mãe com chipset BX
(que suportam bus de 100 MHz) só aceitam funcionar com memória PC-100, recusando memórias SDRAM
comuns. Muitos vendedores desinformados vendem memórias SDRAM de 8 ou 7 ns como memórias de
100 MHz, o que é mentira, além do tempo de acesso de 7 ns, as memórias PC-100 possuem várias
diferenças de arquitetura.
Double Data Rate-Synchronous DRAM (DDR-SDRAM) - Um tipo de SDRAM que suporta transferências
de dados duas vezes por ciclo de clock, dobrando a velocidade de acesso. Este tipo de memória consegue
suportar velocidades de barramento de cerca de 200 MHz (!). A transferência de dados entre o processador
e esse tipo de memória é de cerca de 2.4 gigabytes por segundo (!!!) . Também chamada de SDRAM II.
Non-Volatile Random Access Memory (NVRAM) - Também conhecida como Flash RAM, é um tipo de memória
RAM que não perde os dados quando desligada, sendo largamente usadas para armazenar os dados da BIOS,
permitindo a futura alteração destes por meio de um upgrade de BIOS.
Paridade: Antigamente, as memórias RAM não eram muito confiáveis, freqüentemente os dados depositados
voltavam alterados, o que causava efeitos imprevisíveis. Para solucionar esse problema, foi criado o bit de paridade,
assim ao invés de trabalharem com 8 bits por byte, as memórias passavam a ter 9, sendo o último o bit de paridade.
A função desse bit era confirmar que os dados que haviam sido depositados na memória eram os mesmos que
12/12
estavam sendo devolvidos para o processador. Este processo não tornava o sistema mais lento, pois os circuitos
encarregados de controlar a paridade funcionavam à parte do restante do sistema. O uso da paridade só é necessário
nas memórias mais antigas, pois as memórias EDO e SDRAM possuem um nível de confiabilidade tal que dispensa
o uso de paridade, sendo raros os fabricantes que ainda fabricam memórias com o 9º bit, pois isto encarece o preço
final das mesmas. Caso esteja disponível nas memórias, a paridade pode ser ativada ou desativada no Setup. Como o
seu uso não prejudica em nada o desempenho do sistema, recomenda-se mantê-la ativada caso suas memórias sejam
compatíveis.
Speculative Leadoff: Alguns chipsets oferecem esse recurso, que pode ser ativado ou desativado no Setup. Quando
ativado, ele aumenta a velocidade do primeiro acesso à memória de cada ciclo, conseguindo-se um pequeno
aumento de performance.
Interleaving: É uma técnica usada em alguns chipsets mais recentes para melhorar a performance das memórias, esta
função pode ser ativada no Setup das placas compatíveis. Com esse recurso o processador pode transferir mais
dados para a RAM no mesmo espaço de tempo, aumentando a performance.
Static RAM Este tipo de memória é usada no cache L2 (cache externo) dos micros, esta é muito mais rápida e muito
mais cara do que a Dynamic RAM, e por isso é usada apenas uma pequena quantidade dela - normalmente 256, 512
ou 1024 kbytes - para agilizar a troca de dados entre o processador e a memória DRAM. Esse tipo de memória quase
sempre usa um encapsulamento DIPP (Dual In-line Pin Package) que são aqueles chips retangulares que existem em
um dos cantos da sua placa mãe, geralmente em 8, existindo também em forma de pentes, com formato similar aos
pentes de memória DRAM de 168 pinos, que são encaixados na placa mãe num slot especial.
Esse tipo de memória começou a ser utilizado a partir dos micros 386, sendo utilizado na grande maioria dos micros
486 e ítem obrigatório nas placas mãe mais modernas. Pra se ter uma idéia, um micro com 256 kB de cache L2,
chega a ser 30% mais rápido à nível de processamento do que um com a mesma configuração porém sem cache.
O cache armazena os dados que são acessados com mais freqüência pelo processador, evitando assim que ele tenha
que recorrer à lenta memória DRAM. O índice de cache-hit em um micro com 512 kB de cache e 16 MB de RAM, é
de mais de 98% (!), ou seja, só em 2% dos casos o processador vai ter que acessar dados diretamente da memória
RAM. Mesmo em micros com 64 MB de DRAM, o nível de Cache-hit supera os 90%.
Atualmente são usados dois tipos de memória cache:
Write Through - Esse tipo de memória cache funciona apenas no modo de leitura, ou seja, quando o
processador vai consultar os dados contidos na RAM. Quando é preciso escrever os dados, é usado o
processo convencional, ou seja, envolvendo os eventuais estados de espera da DRAM principal. É um tipo
mais antigo.
Write Back - Usado nas placas de melhor qualidade, esse cache funciona tanto no modo de leitura quanto
no modo de escrita, ou seja, além de guardar os dados mais requisitados pelo processador, ele funciona
também nas operações de escrita, ou seja, o processador escreve os dados tanto na DRAM quanto no cache,
pois este dado tem grande chance de ser requisitado logo em seguida. Assim, quando o processador ordena
a escrita de um determinado dado, o circuito que controla o cache intercepta esse comando, e ao invés de
usar a memória DRAM, escreve na memória cache que é muito mais rápida, e assim fica livre para a
próxima ordem. Depois, quando houver uma pausa no acesso à memória, o dado é escrito para a memória
DRAM, ganhando-se tempo.
Limite de cacheamento da memória RAM - O mais comum nas placas mais recentes, é oferecer cacheamento a
apenas 64 MB de memória, não tendo esse valor relação nenhuma com a quantidade de cache L2 encontradona
placa. Para piorar essa situação, o acesso à memória DRAM pelo Windows 95, é feito do final para o começo, ou
seja, se você usar 128 MB de RAM no seu micro, primeiramente o Windows vai acessar os 64 MB que não estão
cacheados e somente depois que estes estiverem ocupados vai começar a usar os primeiros 64 MB que estão
cacheados, ou seja: A NÃO SER QUE VC VÁ USAR APLICAÇÕES PESADAS QUE FAÇAM USO INTENSO DETODA A DRAM DISPONÍVEL, O USO DE MAIS DE 64 MB VAI PIORAR O DESEMPENHO DO MICRO AOINVÉS DE AUMENTAR. Algumas placas oferecem cacheamento a 128 MB de DRAM, porém não são muito
comuns. Apenas as equipadas com chipset HX, e com expansão da TAG RAM fazem isso, porém estas palcas são
muito caras, e por isso usadas apenas em servidores. Isso não se aplica porém se você estiver usando um processador
Pentium 2, pois nesse caso, o cacheamento da memória é feito diretamente pelo processador, que pode cachear até 4
gigabytes de memória.
Memória de Vídeo
13/13
As placas de vídeo também usam memória RAM, de modo que foram criados tipos de memória RAM otimizados
para o uso em placas de vídeo. Esses podem ser de vários tipos:
Vídeo RAM (VRam) Tipo especial de memória utilizada em placas de vídeo, ao contrário dos tipos convencionais
de DRAM, pode ser acessada simultaneamente por dois componentes. Isso permite que a placa de vídeo use os
dados contidos na VRAM para atualizar a exibição das imagens, ao mesmo tempo que o processador inclui novos
dados. O uso de memórias VRAM, proporciona uma qualidade de vídeo muito superior. Porém é muito mais cara
que os tipos de DRAM tradicionais.
Windows RAM (WRAM) - É
Segmentação do Mercado de Processadores
A Venda de processadores Intel Celeron por preços ridiculamente baixos não caracteriza "dumping"? Porque
algumas pessoas dizem que o o Celeron 400 e o 300A são na essência a mesma coisa? Se isso fosse verdade não
seria melhor vender todos como 400?
O custo variável para a produção de um processador é ridiculamente baixo, é evidente que não conheço a planilha de
custos da Intel mas o custo variável marginal de um processador Celeron deve estar na casa dos 40 ou 50 Dólares, o
de um PII 400 com certeza é um pouco, mas não muito, mais alto, já que o conjunto tem alguns chips a mais: Os do
cachê L2. De qualquer maneira a maior parte dos custos envolvidos são amortizações do diferido gerado: Bens de
capital e, principalmente, pesquisa e desenvolvimento. Como vê uma ação de "dumping" neste caso é complexa, é
necessário um estudo completo não só da planilha de custos como da escala, segmentação do mercado e vida útil
prevista do produto, pois daí deduz-se o prazo a amortizar o diferido. Ainda que um produto esteja sendo vendido
com prejuízo, desde que o seu preço supere apenas o custo variável muitas vezes não é caracterizado o "dumping",
principalmente se a venda deste produzir economia de escala suficiente para a colocação de um outro produto da
mesma família no mercado e, este sim, estar gerando resultados positivos para toda a linha.
Não vou trabalhar com funções para ser sintético, para simplificar ao máximo te darei um exemplo numérico
discreto.
Suponhamos que um determinado fabricante está desenvolvendo um produto e seu estudo de mercado concluiu que,
durante a vida útil deste (6 meses), o mercado terá condições de absorver 3 milhões de unidades deste bem
segmentados da seguinte forma:
500.000 unidades poderão ser colocadas por $ 500 (250 milhões);
1.000.000 unidades poderão ser colocadas por $ 300 (300 milhões);
1.500.000 poderão ser vendidas por $ 100, (150 milhões); junto aos consumidores menos abastados.
Sendo, então, a despesa potencial total do mercado comprador para esta linha de produtos no valor de $ 700
milhões.
Suponhamos agora que foram gastos em P&D (Pesquisa e Desenvolvimento) 300 milhões e que outros 200 milhões
foram gastos com a montagem da linha de produção do bem. Suponhamos ainda que o custo variável marginal é
fixo em $50. Assim, a produção inicia-se com $500 milhões de despesas a serem amortizadas ( $200 de máquinas +
$300 de P&D ), se esta empresa tentar vender todos os bens produzidos a $500, somente 500.000 unidades serão
vendidas, como vimos no estudo de mercado, auferindo a receita de $ 250 milhões, tendo, portanto, um prejuízo de
$ 275 milhões:
250 milhões de receita
(500) milhões de P&D + Máquinas
(25) milhões de custo variável (500.000 x $50 = $ 25 milhões)
Resultando em prejuízo de $ 275 milhões, o custo médio de cada peça teria sido de $ 1.050 ( 525 milhões / 500 mil).
Se esta empresa tivesse colocado no mercado seus produtos ao preço de $300, 1.500.000 peças poderiam ser
produzidas e vendidas, como vimos no estudo de mercado ( 1 milhão para o público que pode comprar a 300 mais
500 mil para aqueles que poderiam comprar por mais e, obviamente, vão comprar por $300).
A receita total seria de $450 milhões ( 1.500.000 x $300) e o prejuízo seria de $ 125 milhões ($450- $500- $75) já
que cada peça é produzida ao custo variável de $50 e 1.500.000 x $50= $ 75 milhões.
Qual seria a solução então? Vender este produto por $ 500 para quem pode pagar este preço e por $300 para quem
pode pagar este último. Acontece que ninguém vai comprar por 500 um bem que pode comprar por 300, por mais
rico que seja, assim a empresa divide o produto em duas "marcas": A marca 233 e a marca 200, a "marca" 233
custará $500 enquanto a "marca" 200 custará $300. Isto posto, a empresa aumentaria suas receitas, pois poderia
vender 500 mil unidades a $500 e 1 milhão a $300 (como vimos no estudo de mercado), logo as receitas totais
14/14
seriam de $550 milhões (500 mil x $500 + 1 milhão x $300), mas aida assim haveria prejuízo pois o custo de
produção de 1.500.000 unidades do bem seria de 575 milhões ( $500 de P&D e máquinas + $75 de custo variável).
Como sair do prejuízo? Se esta empresa produzir e vender os 3 milhões de peças que o mercado pode absorver o
resultado seria positivo? Vejamos qual seria o custo médio:
500 milhões de P&D e Máquinas + 150 milhões de custos variáveis ( $ 50 por peça x 3 milhões). Logo cada peça
produzida custaria 650 milhões / 3 milhões = $ 217. "Ora, não interessa vender para os outros 1,5 milhão de
"pobres" que somente podem pagar $100 na nossa peça se ela custa para nós $217!" Exclamou o "esperto" diretor
financeiro Belaveta. Será mesmo que não? Vejamos:
Pra vender para os "pobres" por $ 100 a empresa criou mais uma marca, a marca 166, assim o mesmo produto era
vendido com a marca 233 para os "ricos" por $500, a marca 200, para os "remediados", por $ 300 e a marca 166,
que atenderia ao público mais "pobre" ou menos exigente que seria vendida por $100. Assim, como vimos do estudo
de mercado, 500.000 peças 233 seriam vendidas por $500, 1 milhão seriam vendidas por $300 e 1,5 milhão $100 ( é
claro que no mundo real sempre existirão aqueles que podem pagar pelo mais caro mas optarão pelo mais barato,
mas o modelo é simples, embora retrate, em linhas gerais, o que de fato ocorre).
Desta forma a receita total da empresa com estes produtos seria de $700 milhões enquanto que os custos totais
seriam de 650 milhões ( como vimos no parágrafo anterior) e o custo de cada unidade produzida de $217 (como tb
vimos (650/3) ). Agora o lucro da empresa é de $ 50 milhões, o que dá aroximadamente 8% do capital investido,
supondo que ele tenha sido próprio e que estas vendas tenham ocorrido em 6 meses ( vida do produto), equivaleria a
um retorno anual de 17% sobre o capital investido!!! Um resultado excepcional que faria as ações desta empresa
dispararem em bolsa.
Mas como a venda por $100 a unidade de 1,5 milhão de peças que custam $217 cada, para serem produzidas
levaram a empresa do prejuízo ao lucro??? Economia de escala, embora o prejuízo por unidade em cada uma dessas
1,5 milhão de peças tenha sido de $117 foi graça à colocação destas peças no mercado que o custo médio baixou
para $217 permitindo lucro nas duas outras "marcas" que mais do que compensaram o resultado negativo com esta.
Esta "marca", a 166, foi vendida com um significativo prejuízo porunidade, isto é "dumping"? NÃO! Não é, pois
foram estas vendas com prejuízo que garantiram economia de escala necessária para a empresa obter resultado
positivo.
Pelo exposto acima fica evidente que, caso a vida útil do produto em questão seja prolongada para além do período
de amortização dos investimentos em P&D e em aquisição de bens de capital (maquinaria), fica viabilizada a
colocação deste no mercado por apenas uma pequena fração do preço inicial. A título de exemplificação
suponhamos que um determinado chip tenha a previsão de amortizar os citados custos fixos em 3 milhões de
unidades e que estes custos signifiquem 80 UM (unidades monetárias) por unidade, sendo os custos variáveis de
produção da ordem de 30 UM, assim durante os primeiros três milhões de unidades vendidas o preço médio a ser
auferido por este chip deverá ser superior a 110 UM para que a empresa pudesse obter resultado positivo. Acontece
que após as vendas de três milhões de peças esta empresa percebe que ainda há demanda para este chip se ele for
ofertado por um preço significativamente inferior, prolongando a permanência do produto no mercado, perceba, no
entanto, que agora o custo fixo de 80 UM por peça NÃO existe mais, pois já foram completamente amortizados com
as vendas dos primeiros 3 milhões, assim o custo por unidade produzida é agora de apenas 30 UM, o que possibilita
a colocação deste chip no mercado por qualquer importância acima ou até mesmo igual a 30 UM (muitas vezes é
mais importante preservar ou ampliar a fatia de mercado do que obter resultados imediatos) , repare que um chip que
meses antes teria que estar sendo distribuído por pelo mais de 110 UM para trazer resultados positivos, agora pode
ser comercializado por apenas 27% do preço inicial (o que equivale a um recuo de 83% ). É por este motivo que, por
exemplo, placas como a Viper V.330 que no início de 1998 era vendida por 200 Dólares americanos, no sítio do
próprio fabricante, agora pode ser encontrada por ¼ desta importância.
OBS: Este texto visa público não especializado, portanto trata-se de um forte esforço de simplificação, inúmeros
detalhes técnicos foram propositadamente omitidos a fim de facilitar ao máximo a compreensão dos elementos
básicos do arcabouço lógico do processo de formação de preços, sob a ótica do produtor, em mercados com
características de concorrência monopolística.
15/15
ProcessadoresOverclock
Parte 1: O que é Overclock?
Overclock significa aumentar a freqüência do processador fazendo com que ele funciona mais rapidamente. A
freqüência de operação dos processadores domésticos é determinada por dois fatores:
1 A velocidade de operação da placa mãe também conhecida como velocidade do barramento, que nos
Pentium's pode ser 50 MHz, 55 MHz, 60 MHz, 66 MHz e 75 MHz sendo que algumas placas mães mais
novas também permitem 83 MHz, 90 MHz, 100 e 112 MHz.
2 O multiplicador de clock: a partir dos micros 486, foi criada uma conceito chamado multiplicador de
clock.
O que é isso? É uma tecnologia pela qual a placa mãe e os dispositivos ligados à ela trabalham à uma
velocidade menor do que a velocidade do processador internamente. Dessa forma, só o processador vai
trabalhar à`sua freqüência nominal (100 MHz, 133 MHz, 166 MHz, 200 MHz, etc...). Os demais
periféricos como memória RAM, placa de vídeo, HD, cache L2 etc... vão continuar trabalhando na
velocidade do barramento (ou "bus"), que será sempre menor do que a do processador,
proporcionalmente ao multiplicador.
Um Pentium 200 por exemplo, trabalha com velocidade de barramento de 66 MHz, e multiplicador de 3x, (66 x 3 =
200) Isso significa que o processador trabalha à 200 MHz e se comunica com os demais componentes do micro à 66
MHz. Um Pentium-233 vai trabalhar a 3,5 x 66MHz, um Pentium-166 a 2,5 x 66MHz, etc...
Porém, os chips "desconhecem" a sua própria freqüência de operação, de modo que trabalham na freqüência dada
pela placa mãe, é isso que possibilita o Overclock, se você tiver um processador Pentium 166 por exemplo (2,5 x 66
MHz), pode fazer ele trabalhar à 200 MHz simplesmente aumentando o multiplicador de clock de 2,5x pra 3x. Caso
a sua placa mãe permita, você poderá usar um barramento maior do que 66 MHz: 75 ou ate mesmo 83 MHz, neste
caso o nosso Pentium 166 mesmo mantendo-se o multiplicador em 2,5x, poderia trabalhar à 187 MHz (2,5 x
75MHz) ou à 208 MHz (2,5 x 83MHz) caso você seja um sádico e queira ver o seu pobre processador trabalhar em
regime escravo, pode ao mesmo tempo aumentar a velocidade do barramento e o multiplicador, chegando em algo
como: 225 MHz ( 3 x 75MHz) ou incríveis 249 MHz (3 x 83 MHz). Porem pra isso você provavelmente vai precisar
colocar o computador em uma câmara frigorifica como vou explicar mais pra frente.Parte 2: Como eu faço isso?
Tudo bem, já entendi o que é overclock, mas como eu faço isso na minha máquina?
As freqüências do barramento e o multiplicador podem ser alteradas simplesmente mudando alguns jumpers da sua
placa mãe. A posição desses jumpers difere de acordo com o modelo e a marca da sua placa, por isso para se fazer
overclock é indispensável ter à mão o manual da sua placa. No meu caso por exemplo, tenho uma VX-Pro que
permite velocidade de barramento de 50 MHz, 55 MHz, 60 MHz, 66 MHz e 75 MHz, que são alteradas mudando-se
a posição dos jumpers JP3A, JP3B e JP3C. O manual me dá o esquema dos jumpers para cada velocidade
pretendida. Ele também aceita multiplicadores de 1,5x, 2x, 2,5x e 3x para os processadores Intel, 2x para os Cyrix e
1,5x, 2,5x e 3x para os AMD, todos configuráveis através do jumper JP5.Parte 3: Problemas gerados pelo Overclock
Mas quais problemas esse aumento da velocidade de operação do processador pode causar?
Quando você faz Overclock, obriga o processador a trabalhar a uma velocidade maior do que ele foi projetado, oúnico efeito colateral disso é um maior aquecimento do processador. Você pode minimizar isso trocando o seu
cooler por um de melhor qualidade, passando pasta térmica entre o cooler e o dissipador, ou mesmo melhorando a
ventilação dentro do gabinete. NÃO EXISTE A POSSIBILIDADE DO SEU PROCESSADOR QUEIMAR
DEVIDO AO OVERCLOCK, MESMO QUE ESTE SEJA MAL SUCEDIDO. Os processadores Intel são testados
em fabrica à uma velocidade maior do que a de venda, ou seja, para um processador ser aprovado como um Pentium
166, ele tem que funcionar em fábrica à 200 MHz, somente funcionando sem problemas ele é aprovado como 166,
caso contrário ele é vendido com um clock mais baixo, 133, 100, etc.. Ou seja: overclocando o 166 pra 200 você
simplesmente está fazendo com que ele trabalhe na freqüência na qual ele foi testado em fabrica. Em processadores
de outras marcas, a margem de garantia não é assim tão grande, principalmente nos K-6, isso dificulta o overclock,
mas não o impossibilita completamente. Aumentando a velocidade do barramento, podem aparecer também outros
problemas relacionados à memória RAM, ao cache L2, ou mesmo em outros componentes como a placa de vídeo,
pois estes também serão obrigados à trabalhar mais rápido. Com barramento de 75 MHz, você não devera ter
maiores problemas, porém com 83 MHz, provavelmente só com componentes de ótima qualidade e memórias
SDRAM. Uma ótima maneira de solucionar problemas com a memória RAM, é aumentando seus Wait-States
16/16
(tempos de espera entre um ciclo e outro), que podem ser configurados no Setup do micro (para mais detalhes sobre
como configurar o setup leia também nosso tutorial sobre Bios).
Aumentando os Wait states, você vai permitir que ela trabalhe um pouco mais devagar, suportando assim
velocidades mais altas de barramento. Aqui estou usando velocidade de barramento de 75 MHz sem problemas,
mesmo com os Wait states da minha memória EDO-60ns (argh!) no mínimo.Parte 4: Limitações
A grande maioria dos processadores Intel possuem uma trava que impede que trabalhem num multiplicador maior
do que o original, este é o caso dos Pentium e MMX mais recentes, além é claro da maioria dos Pentium 2 e do
Celeron. Neste caso você não vai conseguir fazer Overclockaumentando o multiplicador, porém ainda vai restar
aumentar a velocidade do barramento como expliquei anteriormente conseguindo o mesmo resultado. Por
infelicidade, aqui eu tenho um Pentium, um Pentium 120 que possui trava, que overcloquei pra 150 aumentando o
barramento pra 75 MHz. Os K-6 são extremamente difíceis de overclocar pois esquentam muito, para conseguir
fazer overclock num desses processadores você vai ter que ventilá-lo muito bem. Muitas placas mãe, principalmente
as mais novas são "jumperless" ou seja, todas as configurações, incluindo o bus clock e o multiplicador são feitas
através do Setup, isso torna mais fácil ainda o overclock. O problema é que algumas placas "auto detectam" o
processador impedindo-se que aumentemos a velocidade, caso tenha uma placa assim não existe o que fazer. Caso a
sua placa mãe suporte bus de apenas 66 MHz e o seu processador seja "Castrado" ou seja, possua a trava que impede
que se aumente o multiplicador, vê também não conseguirá fazer overclock, a não ser no caso de ter um processador
que utiliza bus de 60 MHz, como o Pentium 60 e o 120, neste caso ainda pode-se conseguir um pequeno ganho de
desempenho subindo o bus de 60 para 66 MHz.Parte 5: DicasÉ sempre preferível fazer Overclock aumentando a velocidade do barramento a fazê-lo aumentando o multiplicador,
pois como eu disse anteriormente, aumentando a velocidade do barramento, não só o desempenho do processador,
mas o de todos os componentes vai aumentar.
Você pode verificar se o seu processador está esquentando demais com um teste muito simples: use o micro
normalmente por uma ou duas horas, em seguida desligue o micro e rapidamente abra o gabinete, retire o cooler e
coloque a mão em cima do processador, se conseguir manter a mão em cima dele por 10 segundos, sem queimar,
então a temperatura está normal, caso contrário o seu processador esta esquentando demais, o que pode causar
travamentos. Outra forma menos "quebra-galho" de se fazer isso é adquirir um termômetro de processador. Pode ser
encontrado em lojas de materiais e peças de Informática, e consite em um termômetro em forma de adesivo, que é
grudado no processador. Então, após um certo tempo de uso do computador, abra o gabinete e verifique a
temperatura no termômetro. Uma temperatura abaixo de 60º aproximadamente é aceitável. Caso haja excesso de
aquecimento, considere a troca do cooler por um melhor e passe pasta térmica entre o cooler e o dissipador. Caso o
seu processador seja retail (ou "In-a-Box"), e já tenha um cooler grudado, não será necessário nada disso, pois este jáé um excelente cooler, que dispensa pasta térmica inclusive.
Existem dois programas excelentes, o Rain e o Waterfall que conseguem diminuir a temperatura do processador
através da instrução HLT, que desligam partes do processador que não estejam em uso. Ambos são freeware,
funcionam mesmo, e não degradam o desempenho do Sistema. Estão disponíveis para download no nosso site
através dos links acima, ou também podem ser encontrados na WinTech. Entretanto, use-os apenas se o seu Sistema
Operacional é o Windows 95 ou 98. O Windows NT já possui recurso de resfriamento da CPU em seu próprio
sistema. Outra observação: Não tente usar os dois programas ao mesmo tempo, pois eles não irão funcionar. Na
realidade, o autor de ambos os dois é o mesmo, bem como núcleo do programa de ambos. O Autor criou dois por
que cada um deles possui características distintas. Veja a tabela abaixo:
Rain WaterfallPerformance do Sistema Excelente Excelente
Nível de Resfriamento Excelente Muito bom
Estabilidade Muito boa Excelente
Memória Requerida 300 kB 300 kB
Monitoramento da CPU Não Sim
Parte 6: O Overclock diminui a vida útil do meu processador?
17/17
Quando você faz Overclock sempre há um aumento da temperatura do processador, isso causa uma diminuição da
vida útil do mesmo, dependendo de quanto a mais ele está esquentando. Um processador costuma durar mais do que
20 anos, caso você faca o teste da mão e verifique que ele não está superaquecendo, pode ter certeza que o seu
processador vai durar mais do que 10 anos, mesmo que você pegue um Pentium 100 e overcloque ele pra 200 (tem
gente que faz isso) e ele esquente tanto que viva travando, pelo menos uns 2 anos ele vai durar. Considerando o
tempo que você ficou com o seu último micro é um ótimo begócio.
ProcessadoresProcessador
Conheça o seu Processador
O microprocessador é o principal componente de um computador. Um micro com um processador Pentium vai ser
chamado de "Pentium" e um outro com um processador 486 vai ser chamado de "486" porém, é importante entender
que o desempenho de um computador não é dependente apenas do processador, e sim pelo trabalho conjunto de
todos os componentes: placa mãe, memória RAM, HD, Placa de Vídeo, etc. Caso um desses componentes ofereça
uma performance muito baixa, o desempenho global do computador vai ficar seriamente prejudicado. Não adianta
colocar um motor de Ferrari num Fusca. Um 468 com bastante memória RAM, um HD rápido e uma boa placa de
vídeo pode facilmente bater em performance um Pentium com um conjunto fraco.
Neste texto vamos abordar os microprocessadores utilizados nos micros PC’s, plataforma que originalmente foi
desenvolvida pela Intel, mas logo surgiram concorrentes como a Cyrix e a AMD para tornar ainda mais competitivo
o mercado. Vamos falar desde o pré-histórico 8086 da Intel até o Pentium II Xeon que atualmente é a última palavra
em tecnologia.
Do 8086 ao 486:
Intel 8086 - Lançado em 1978, foi o primeiro processador de 16 bits a ser criado. Foi um grande fracasso, pois naépoca não existiam circuitos de apoio que pudessem trabalhar a 16 bits, sendo utilizado apenas em alguns sistemas
corporativos pela IBM. Podia acessar até 1 MB de memória RAM e permitia o uso de um co-processador aritmético
externo, o 8087 que deveria ser comprado separadamente.
Intel 8088 - Idêntico ao 8086, porém, apesar de internamente funcionar com palavras binárias de 16 bits,
externamente trabalha com palavras de 8 bits. Foi usado nos micros IBM PC e IBM XT. Possuía velocidade de
operação de 4,77 MHz.
Intel 286 - Trabalha usando palavras de 16 bits tanto interna quanto externamente. Foi lançado quando já existiam
circuitos de apoio 16 bits a preços acessíveis. Permitia também o uso de um co-processador aritimético, o 80287 que
deveria ser adiquirido à parte. Foi utilizado nos micros PC-AT da IBM e em clones de vários concorrentes.
Ao contrário do 8088 e do 8086, o 286 possuía dois modos de operação, o 'Modo Real" e o "Modo Protegido". No
modo real, ele se comportava exatamente como um 8086 (apesar de mais rápido) oferecendo total compatibilidade
com os programas já existentes. No modo protegido, ele incorporava funções mais avançadas, como a capacidade de
acessar até 16 MB de RAM, multitarefa e memória virtual em disco.
Assim que ligado, o processador opera em modo real, e com uma certa instrução passa para o modo protegido.
Porem, quando em modo protegido ele deixa de ser compatível com os programas escritos para 8086, e uma vez em
modo protegido não havia uma instrução que o fizesse voltar para o modo real (só resetando o micro). Assim, apesar
de oferecer os recursos do modo protegido, não houveram programas capazes de usá-lo, por isso, ele era somente
utilizado como um XT mais rápido.
Intel 386 - Lançado pela Intel em 85, este processador trabalhava interna e externamente com palavras de 32 bits,
sendo capaz de acessar até 4 gigabytes de memória RAM. Ao contrário do 286, ele podia alternar entre o modo real
e o modo protegido, sendo desenvolvidos vários sistemas operacionais como o Windows 3.1, OS/2, Windows 95 e
Windows NT que funcionavam usando o modo protegido do 386.
O 386 era muito rápido para as memórias RAM existentes na época, por isso, muitas vezes ele tinha que ficar
"esperando" os dados serem liberados pela memória RAM, perdendo muito em desempenho. Para solucionar esse
problema foram inventadas as memórias cache (SRAM) que eram utilizadas em pequena quantidade em várias
placas mãe de micros 386.

Continue navegando