Baixe o app para aproveitar ainda mais
Prévia do material em texto
NOME: JOSÉ VICTOR Memória Cache 01 – Quais são as diferenças entre acesso sequencial, acesso direto e acesso aleatório? Acesso sequencial: A memória é organizada em registros separados por meio da informação de endereçamento. O mecanismo de leitura/escrita é utilizado para cumprir sua função têm de passar por todos os registros da memória rejeitando os que não são o especificado até chegar no registro buscado. Temos como exemplo de dispositivo com esse tipo de acesso as fitas cassetes onde para se chegar a determinado ponto do vídeo era necessário percorrer todos os registros (para frente se estivesse à frente ou para trás se estivesse atrás). Acesso direto: Envolve um mecanismo de leitura/escrita compartilhado. Os registros possuem um endereço exclusivo baseado no local físico e o acesso é feito buscando-se uma vizinhança geral (setor) e depois dentro dessa vizinhança é feita uma busca sequencial até encontrar o registro solicitado. Acesso aleatório: Cada local endereçável da memória têm um mecanismo de endereçamento exclusivo, fisicamente interligado. O tempo para acessar determinado local é independente da sequência de acessos anteriores e é constante. Assim qualquer local pode ser selecionado aleatoriamente de modo direto. 02 – Qual é o relacionamento geral entre tempo de acesso, custo de memória e capacidade? A relação entre tempo de acesso e capacidade de armazenamento inversamente proporcionais ao custo, ou seja, quanto mais cara, menor é seu tempo de acesso e menor é sua capacidade de armazenamento. Quanto mais barata, maior é seu tempo de acesso e maior é sua capacidade de armazenamento. 03 – Como o princípio de localidade se relaciona com o uso de múltiplos níveis de memória? Localidade de referência. Mantem-se na memória menor e mais rápida os dados mais frequentemente utilizados (blocos) e na s demais as partes maiores do programa sendo que ao procurar uma instrução a chance de ela estar nessa memória mais rápida é grande e os erros – embora existam – são minimizados por meio de algoritmos de substituição. Memória Interna 04 – Qual a diferença entre DRAM e SRAM em termos de aplicação? DRAM é utilizada como memória principal já a SRAM é utilizada como memória cache. 05 – Qual a diferença entre DRAM e SRAM em termos de características como velocidade, tamanho e custo? As memórias SRAM são mais rápidas, maiores e também mais caras que as tipo DRAM 06 – Como é interpretada a palavra síndrome para código de Hamming? Essa palavra dentro do código de Hamming é usada para descobrir a existência de algum erro de leitura de uma palavra armazenada na memória, podendo corrigir um erro apenas. Memória Externa 07 – Como os dados são gravados e lidos em um disco magnético? Os dados são gravados e recuperados do disco por meio de uma bobina condutora chamada cabeça, a eletricidade que flui pela bobina produz um campo magnético. Os pulsos elétricos são enviados à cabeça de gravação, e os padrões magnéticos resultantes são gravados na superfície abaixo, com diferentes padrões para correntes positivas e negativas. 08 – Que características comuns são compartilhadas por todos os níveis de RAID? RAID é um conjunto de unidades de discos físicos, vistas pelo sistema ope racional como uma única unidade lógica. Os dados são distribuídos pelos discos físicos d e um array em um esquema conhecido como intercalação de dados (striping), descrito mais adiante. A capacidade de disco redundante é usada para armazenar informações de paridade, o que garante a facilidade de recuperação dos dados no caso de uma falha de disco. Entrada e Saída 09 – Quais são as principais funções de um módulo de E/S? As principais funções são: 1 - controle e temporização, 2 - comunicação com o processador 3 - Comunicação com dispositivos 4 - Área de armazenamento temporário de dado 5 - Detecção de erros 10 – Quando ocorre uma interrupção de dispositivo, como o processador determina qual dispositivo emitiu a interrupção? 1. O dispositivo emite um sinal de interrupção ao processador. 2. O processador termina a execução da instrução atual antes de responder à interrupção. 3. O processador testa uma interrupção, determina que existe interrupção e envia um sinal de confirmação ao dispositivo que a emitiu. A confirmação permite que o dispositivo remova seu sinal de interrupção. 4. O processador a gora precisa se preparar para transferir o controle à rotina de interrupção. Para começar, ele precisa salvar as informações necessárias para retornar ao programa atual no ponto da interrupção. A informação mínima exigida é (a) o estado do processador, que está contido em um registrador chamado palavra de estado do programa (PSW Program Status Word), e (b) o local da próxima instrução a ser executada, que está contida no contador de programa. Estas podem ser colocadas na pilha de controle do sistema. 5. O processador agora carrega o contador de programa com o local endereço inicial da rotina de tratamento de interrupção que responderá a essa interrupção. Dependendo da arquitetura de comunicação e do projeto do sistema operacional, pode haver uma única rotina, uma rotina para cada tipo de interrupção ou uma rotina para cada dispositivo e cada tipo de interrupção. Se houver mais de uma rotina de tratamento de interrupção, o processador precisa determinar qual irá chamar. Essa informação pode ter sido incluída no sinal de interrupção original, ou o processador pode ter que emitir uma soli citação ao dispositivo que emitiu a interrupção, para obter uma resposta que contém a informação necessária.
Compartilhar