Prévia do material em texto
Historicamente, o byte é o número de bits usado para codificar um único caractere de texto num computador e, por esta razão, é a unidade mais pequena de memória encontrada em um computador. Segundo American National Standard Institute(ANSI) adotou o Amercian Standard Code for Information Interchange(ASCII) como padrão de 7bits, o suficiente para representar caracteres. Porém as memórias para computadores estava passando por um redução em seus preços, a representação de 8bit se tornou mais viável além de prover maior capacidade. O byte é armazenado no disco rígido como acima(1) ou abaixo(0) de um nível de carga eléctrica designado (por conseguinte magnético) num condensador. Com 8 bits em um byte é possível representar 256 valores de 0 a 255, como mostra a baixo: 0 = 00000000 1 = 00000001 2 = 00000010 ... 255 = 11111111 O padrão de fato é de oito bits. O padrão C requer que o tipo de dados é capaz de manter pelo menos 256 valores diferentes, e é representado por pelo menos 8 bits. Várias implementações de C e C ++ reserva 8, 9, 16, 32 ou 36 bits para o armazenamento de um byte. Em 1964, novos computadores Sistema 360 da IBM chegam ao mercado e defini o padrão mundial de fcto do byte de 8 bits, tornando as máquinas de palavras de 12 bits e 36 bits quase instantaneamente obsoleto. Além que os primeiros computadores conseguiam lidar somente com 8 bits. Depois, quando conseguimos criar computadores que lidavam com mais que 8 bits, tivemos que criar uma nova unidade de armazenamento, pois a quantidade de bits que os novos computadores conseguiam armazenar foram ficando cada vez maiores e se fossemos utilizar os "bits disponíveis" teríamos que escrever e falar de números cada vez maiores também.