Buscar

Exercicios sobre hardware 7

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

CURSO: Análise e Desenvolvimento de Sistemas
	POLO DE APOIO PRESENCIAL: Higienópolis e Saúde
	SEMESTRE: 1º semestre
	COMPONENTE CURRICULAR / TEMA: Hardware para computação (TURMA 01B)
	NOME COMPLETO DO ALUNO: Beatriz Palombarini de Souza, Maria Beatriz da Silva Souza, Sara Kiyoko Kiyan
	TIA: 22502432, 22516042, 22501525
	NOME DO PROFESSOR: Eduardo Ferreira dos Santos
(1) Qual é a finalidade da memória cache?
A Memória cache tem a função de armazenar dados para agilizar execução de aplicações e guardar dados, informações e processos temporários acessados com frequência. 
Desse modo, a memória cache pode ser considerada um pequeno componente que consta dentro do processador.
(2) Como é o mapeamento dos blocos da MP para a cache?
 Memórias cache são fisicamente organizadas através de linhas ou blocos de dados que podem ser organizados em conjuntos (sets). Algumas dessas formas de organização são descritas abaixo:
Mapeamento Direto:
No mapeamento direto, cada bloco da memória principal é mapeado para uma linha do cache, cada linha da cache possui 3 campos, índice (ou linha), tag e o endereço da palavra. O tag é usado para validar se a linha procurada é a mesma que está na cache.
O índice serve como um endereço da cache, apontado onde pode estar a linha procurada.
O endereço da palavra são os bits menos significativos que identificam uma palavra dentro de um bloco da memória Principal.
Totalmente Associativa:
Já no mapeamento associativo não, aqui, cada linha da MP pode ser carregada em qualquer lugar da cache.
Neste modo haverá apenas dois campos. A tag e o end. da palavra.
Estes dois campos têm as mesmas funções dos dois campos do mapeamento direto. Porém o campo tag terá uma quantidade de bits maior.
Associatividade por Conjunto (N-Way):
Este tipo de organização intercala as vantagens dos outros dois mapeamentos citados. Neste caso, a cache nada mais é do que uma série de conjuntos, constituídos por uma série de linhas em cada conjunto. A sigla N-Way significa o tamanho dos conjuntos da cache, onde N é a quantidade de palavras em um conjunto.
Cada linha da memória principal pode ser armazenada em qualquer linha de um conjunto específico. O conjunto é determinado pelo endereço, que é dividido em 3 campos: TAG, Nr do conjunto e o End da palavra. Dado um endereço a cache para leitura, ela separa os endereços nesses três campos. O primeiro campo a ser analisado é o Nr do conjunto, que define em qual conjunto a linha vai ser pesquisada. Após isso, o campo TAG é comparado com todas as linhas deste conjunto para achar a linha desejada.
Algoritmos de substituição de dados:
Este método serve para quando a memória cache encher. Os algoritmos de substituição têm a função de definir quais linhas com informações atualmente armazenadas vão ser retiradas para dar lugar a uma novas linhas com informações.
Alguns algoritmos são citados abaixo:
- Least Recently Used (LRU)
- First Input, First Output (FIFO)
- Least Frequently Used (LFU)
(3) Como é feita a atualização da cache? Qual é a vantagem e a desvantagem de cada abordagem?
Cada bloco da memória principal é mapeado em uma única linha de cachê. A técnica de mapeamento direto é simples e tem custo de implementação baixo. Sua principal desvantagem é que cada bloco é mapeado em uma ATENÇÃO: Toda atividade deverá ser feita com fonte Arial, tamanho 11, espaço de 1,5 entre as linhas e alinhamento justificado entre as margens. posição fixa na memória cachê. Dessa forma, se um programa fizer repetidas referências a palavras de dois blocos distintos, mapeados em uma mesma linha, esses blocos serão trocados continuamente na memória cache e a taxa de acertos à memória cache será baixa. A técnica de Mapeamento Associativo, Evita as desvantagens do mapeamento direto, permitindo que cada bloco da memória principal seja carregado em qualquer linha de memória cachê. O mapeamento associativo oferece maior flexibilidade para a escolha do bloco a ser substituído quando um novo bloco é trazido para a memória cachê. A principal desvantagem do mapeamento associativo é a complexidade do conjunto de circuitos para a comparação dos rótulos de todas as linhas da memória cache. Já no Mapeamento Associativo por Conjuntos, é combinado vantagens do mapeamento direto e do mapeamento associativo e diminui suas desvantagens
 
(4) Qual é a finalidade dos algoritmos de substituição? Descreva cada um deles.
A finalidade é determinar, de forma eficiente, uma linha da cache que poderá ser substituída por um novo bloco. 
· LRU (Least Recently Used): menos recentemente utilizado – a linha a ser substituída é aquela que está há mais tempo sem ser utilizada pelo processador 
· LFU (Least Frequently Used): menos frequentemente utilizado – a linha a ser substituída é aquela com menor frequência de acessos
· FIFO (First in first out): primeiro a chegar é o primeiro a sair – o primeiro bloco que entrou na cache, também será o primeiro a sair dela. Ou seja, o bloco que está há mais tempo na memória será o próximo a ser substituído.
· Aleatório: não é baseado em histórico de uso, este método substituirá o bloco aleatoriamente
 
(5) Diferencie cache hit de cache miss.
Cache Hit é quando o conteúdo solicitado pela CPU é encontrado no Cache. Nesse caso a busca pelo conteúdo não consome memória devido o conteúdo já estar no cache, tendo uma resposta mais rápida.
Cache Miss é quando o conteúdo solicitado pelo servidor não está no Cache. Nesse caso a CPU vai tentar buscar a resposta em outros níveis de cache e caso não encontre, diretamente na memória da aplicação. Tendo uma resposta mais lenta e consumindo processamento da aplicação.
(6) Código Hamming
(a) Para a palavra a seguir, calcule a palavra final a ser encaminhada utilizando:
01010111
(D8) 1(D7) 0(D6) 1(D5) 0(D4) 1(D3) 1(D2) 1(D1).
R1= 1 ou 1 ou 0 ou 1 ou 1= 0
R2= 1 ou 1 ou 0 ou 0 ou 1= 1
R3= 1 ou 1 ou 0 ou 0= 0 R4= 1 ou 0 ou 1 ou 0=0
palavra final é: 010100110110
Considerando o item (a), caso o D4 do código fosse alterado em um armazenamento, mostre a veracidade do código Hamming para descobrir o erro.
0(D8) 1(D7) 0(D6) 1(D5) 1(D4) 1(D3) 1(D2) 1(D1).
R1= 1 ou 1 ou 1 ou 1 ou 1= 1
R2= 1 ou 1 ou 1 ou 0 ou 1= 0
R3= 1 ou 1 ou 1 ou 0= 1
R4= 1 ou 0 ou 1 ou 0= 0
Palavra final é: 010111111101 
image1.jpg

Continue navegando