Baixe o app para aproveitar ainda mais
Prévia do material em texto
SISTEMAS DISTRIBUÍDOS E COMPUTAÇÃO PARALELA AV Estacio, Like pfv, Salva tb, ajuda ai. 202x AV_202x FUNDAMENTOS DE SISTEMAS DISTRIBUÍDOS 1. A CPU (Central Processing Unit) e a GPU (Graphics Processing Unit, ou a Unidade de Processamento Gráfico) são dois componentes importantes em qualquer sistema computacional. A primeira é a peça central de qualquer computador, enquanto a segunda simplesmente não pode existir sem ela. Em relação ao tipo de arquitetura, considerando as diversas arquiteturas da taxonomia de Flynn, a GPU seria que tipo de arquitetura? Marque a alternativa correta. MISD. MIMD. MSIS. SSID. SIMD. 2. Em relação aos conceitos de paralelismo de tarefas, considere as afirmações a seguir. I) A computação assíncrona é executada. II) Tarefas diferentes são executadas nos mesmos dados ou em dados diferentes. III) A quantidade de paralelização é proporcional ao tamanho da entrada. Selecione a alternativa correta: As afirmações II e III estão corretas. As afirmações I e II estão corretas. Todas as afirmações estão corretas. Apenas a afirmação II está correta. As afirmações I e III estão corretas. FUNDAMENTOS DE COMPUTAÇÃO PARALELA 3. (BFC - 2021 - IBGE - Supervisor de Pesquisa) Leia a frase abaixo referente aos conceitos e fundamentos dos Sistemas Operacionais: "Considera-se que multithread seja a existência de vários __________, __________, sendo executadas __________" Assinale a alternativa que completa correta e respectivamente as lacunas: processos / no mesmo thread / sequencialmente. threads / no mesmo processo / em paralelo. processos / no mesmo thread / em paralelo. threads / em vários processos / em paralelo. threads / em vários processos / sequencialmente. 4. Em relação aos conceitos de variáveis compartilhadas, selecione a alternativa correta. I. Um cálculo especifica se uma determinada entrada pode resultar em saídas diferentes. II. O bloqueio de exclusão mútua, ou mutex, é o mais utilizado para se garantir a exclusão mútua. III. O programa tem uma condição de corrida quando um thread tenta acessar simultaneamente um recurso, e isso pode resultar em um erro. As afirmações I e II estão corretas. Apenas a afirmação II está correta. Apenas a afirmação I está correta. Todas as afirmações estão corretas. As afirmações II e III estão corretas. 5. Em relação aos conceitos de variáveis compartilhadas, selecione a alternativa correta. I. A sincronização, necessária em diversos programas, deve ter seu uso minimizado, pois demanda recursos computacionais, em especial nos ambientes de computação distribuída. II. O problema produtor consumidor se caracteriza da seguinte forma: o processo produtor gera informações que são gravadas em um buffer de tamanho limitado, e as informações são consumidas por um processo consumidor. Assim, o produtor pode produzir um item enquanto o consumidor consome outro. III. No problema dos leitores escritores, os processos leitores podem acessar a mesma variável, sem causar obstáculos de sincronização. As afirmações I e III estão corretas. As afirmações I e II estão corretas. Todas as afirmações estão corretas. As afirmações II e III estão corretas. Apenas a afirmação II está correta. COMPUTAÇÃO DISTRIBUÍDA 6. Utiliza diretivas específicas para programação paralela explícita: RMI PThreads MPI OpenMP JAVA 7. Sobre sockets TCP, assinale a alternativa que expressa sua melhor definição: O programador precisa se preocupar com o tamanho das mensagens a serem enviadas, pois o TCP não se encarrega de segmentar o stream do buffer de saída. Podem ser utilizados para fazer broadcast. Implementam um canal de comunicação não confiável, no qual os datagramas chegam na ordem correta. Em relação aos sockets UDP, apresentam menos overhead de comunicação, devido ao handshake de início de comunicação. Utilizam o conceito de stream (fluxo contínuo) de dados. TÓPICOS AVANÇADOS EM COMPUTAÇÃO DISTRIBUÍDA E PARALELA 8. Nas placas de vídeo com suporte à tecnologia GPGPU (CUDA, OPENCL), a quantidade de cuda cores/stream processors é uma característica diretamente associada à: Capacidade de armazenamento de texturas. Velocidade de processamento sequencial. Capacidade de paralelização de cálculos. Velocidade de acesso à memória principal (host). Banda disponível do barramento PCIe. 9. Uma imagem do Docker é criada a partir de uma série de camadas, onde cada uma representa uma instrução no Dockerfile da imagem. Considerando que um analista queira listar as camadas (layers) da imagem docker mailserver, ele deve executar o comando: docker image mailserver docker list mailserver docker layers mailserver docker history mailserver docker expose mailserver 10. Otimizar o código é a parte mais difícil e trabalhosa durante o desenvolvimento de um programa CUDA. Alguns pontos importantes a considerar são, exceto: Ocupação dos processadores. Divergência do controle de fluxo. Acesso descentralizado e independente à memória global. Conflitos de bancos da memória compartilhada. Sobrecarga da chamada do Kernel.
Compartilhar