Prévia do material em texto
Acelere Sua Carreira 2025.2 - Engenharia de … Testando os Conhecimentos - 1ª Lista de Exercícios Colaborar (/notific Informações Adicionais Período: 18/08/2025 00:00 à 30/11/2025 23:59 Situação: Tentativas: 0 / 3 Acessar atividade (/aluno/avaliacao/form/6536182201?atividadeDisciplinaId=19915719) 1) Uma empresa de e-commerce está desenvolvendo um sistema de gerenciamento de produtos que precisa armazenar e manipular informações sobre milhares de itens em seu catálogo. O sistema deve permitir busca eficiente por categoria, preço e disponibilidade, além de manter histórico de vendas para análise de desempenho. A equipe de desenvolvimento está avaliando diferentes estruturas de dados para otimizar as operações do sistema. Durante a análise de requisitos, identificou-se que o sistema precisa realizar operações frequentes de inserção de novos produtos, busca por produtos específicos, ordenação por diferentes critérios (preço, popularidade, data de cadastro) e remoção de produtos descontinuados. Além disso, o sistema deve manter relacionamentos entre produtos (produtos relacionados, acessórios) e permitir operações de filtragem complexas. Considerando as características das diferentes estruturas de dados disponíveis, avalie as seguintes afirmativas sobre a escolha adequada para cada funcionalidade: I. Para armazenar o catálogo principal de produtos onde são necessárias buscas frequentes por ID do produto, uma estrutura de hash table (dicionário) seria mais eficiente que uma lista linear, pois oferece tempo de acesso O(1) médio. II. Para manter o histórico de vendas ordenado cronologicamente com inserções frequentes no final e consultas por períodos específicos, uma estrutura de árvore binária de busca seria mais apropriada que uma lista duplamente ligada. III. Para implementar a funcionalidade de produtos relacionados, onde cada produto pode ter múltiplas conexões com outros produtos, uma estrutura de grafo seria mais adequada que uma matriz bidimensional. IV. Para operações de filtragem que exigem ordenação dinâmica por diferentes critérios (como preço ou popularidade), estruturas como árvores balanceadas (ex: AVL ou Red-Black Tree) são mais adequadas que arrays ordenados ou heaps, pois permitem inserções, remoções e buscas em tempo O(log n), mantendo os dados totalmente ordenados. Considerando o contexto apresentado, é correto o que se afirma em: Alternativas: 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 1/10 https://www.colaboraread.com.br/aluno/timeline/index/6536182201?ofertaDisciplinaId=2604650 https://www.colaboraread.com.br/aluno/timeline/index/6536182201?ofertaDisciplinaId=2604650 https://www.colaboraread.com.br/aluno/timeline/index/6536182201?ofertaDisciplinaId=2604650 https://www.colaboraread.com.br/notificacao/index https://www.colaboraread.com.br/notificacao/index https://www.colaboraread.com.br/notificacao/index https://www.colaboraread.com.br/aluno/avaliacao/form/6536182201?atividadeDisciplinaId=19915719 a) b) c) d) e) 2) a) b) c) d) e) 3) I, II e IV. II e IV. I, II e III. I, III e IV. I, II, III e IV. Uma startup de tecnologia está desenvolvendo uma aplicação web crítica para processamento de transações financeiras. Durante a fase de desenvolvimento, a equipe identificou vários bugs que estavam causando falhas intermitentes no sistema, incluindo problemas de concorrência, vazamentos de memória e erros de lógica em cálculos financeiros. O líder técnico implementou uma estratégia abrangente de depuração e testes que inclui: testes unitários automatizados para cada função crítica, testes de integração para verificar a comunicação entre módulos, profiling de memória para identificar vazamentos, logging detalhado para rastreamento de execução, e testes de carga para simular condições de alta demanda. A equipe também adotou práticas de Test-Driven Development (TDD), code review obrigatório, e integração contínua com pipeline automatizado de testes. Para garantir a qualidade em produção, foram implementados health checks, monitoramento de performance em tempo real e sistema de alertas automáticos. Durante a implementação dessas práticas, surgiram discussões sobre a eficácia de diferentes técnicas de depuração para tipos específicos de problemas. A equipe precisa priorizar as técnicas mais eficazes para cada categoria de bug identificado no sistema. Considerando o contexto apresentado e as técnicas de depuração e testes mencionadas, assinale a alternativa correta. Alternativas: Testes unitários são suficientes para garantir a qualidade do software, eliminando a necessidade de testes de integração em sistemas de transações financeiras. O profiling de memória é uma técnica de depuração específica para identificar vazamentos e otimizar o uso de recursos, sendo essencial em aplicações que processam grandes volumes de dados. Logging detalhado deve ser evitado em sistemas de produção pois compromete significativamente a performance, sendo recomendado apenas em ambiente de desenvolvimento. Test-Driven Development (TDD) é incompatível com metodologias ágeis pois aumenta o tempo de desenvolvimento inicial, reduzindo a velocidade de entrega. Health checks e monitoramento em tempo real são técnicas de teste que substituem completamente a necessidade de testes automatizados durante o desenvolvimento. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 2/10 a) b) c) d) e) 4) Uma empresa multinacional de streaming de vídeo opera uma infraestrutura distribuída globalmente, com data centers em múltiplos continentes para garantir baixa latência e alta disponibilidade para seus milhões de usuários. O sistema processa petabytes de dados diariamente e deve manter operação contínua mesmo durante falhas de hardware, problemas de rede ou sobrecarga de tráfego. A arquitetura atual utiliza microserviços distribuídos com replicação de dados, load balancers, cache distribuído e mecanismos de failover automático. Recentemente, a empresa enfrentou vários incidentes que expuseram vulnerabilidades nos mecanismos de tolerância a falhas: um data center ficou inacessível por 6 horas devido a problemas de conectividade, outro apresentou degradação de performance por falha em disco, e um terceiro sofreu sobrecarga durante um evento de alta audiência. A equipe de engenharia está reavaliando os mecanismos de tolerância a falhas implementados, incluindo: estratégias de replicação (master-slave, multi-master), algoritmos de consensus (Raft, PBFT), técnicas de circuit breaker para prevenir cascata de falhas, implementação de bulkhead pattern para isolamento de recursos, e estratégias de graceful degradation para manter funcionalidades essenciais durante falhas parciais. O objetivo é implementar uma solução robusta que garanta disponibilidade de 99.99% mesmo em cenários de falhas múltiplas e simultâneas, mantendo a experiência do usuário com degradação mínima de qualidade. Considerando o contexto apresentado e os mecanismos de tolerância a falhas em ambientes distribuídos, assinale a alternativa correta. Alternativas: A replicação master-slave é sempre superior à multi-master em sistemas distribuídos pois evita completamente conflitos de dados e garante consistência forte. O padrão circuit breaker é uma técnica de tolerância a falhas que monitora falhas em serviços dependentes e temporariamente bloqueia requisições para evitar propagação de falhas em cascata. Algoritmos de consensus como Raft são desnecessários em sistemas de streaming pois a perda eventual de alguns dados não impacta significativamente a experiência do usuário. A estratégia de graceful degradation deve ser evitada em sistemas críticos pois compromete a integridade dos dados e pode levar à inconsistênciado sistema. O bulkhead pattern é aplicável apenas a sistemas marítimos e não tem relevância em arquiteturas de software distribuído para isolamento de recursos. Uma empresa de e-commerce coletou dados de comportamento de compra de seus clientes durante os últimos três anos, incluindo informações demográficas, histórico de transações, produtos visualizados, tempo gasto no site e feedback de satisfação. O conjunto de dados contém 2 milhões de registros com 45 variáveis, incluindo dados numéricos, categóricos e temporais. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 3/10 a) b) c) d) e) 5) A equipe de ciência de dados foi encarregada de extrair insights sobre padrões de compra sazonal, segmentação de clientes, eficácia de campanhas de marketing e previsão de churn. Para isso, eles precisam utilizar ferramentas estatísticas e computacionais apropriadas para lidar com a complexidade e volume dos dados. Durante a análise exploratória inicial, a equipe identificou problemas como valores ausentes (15% dos registros), outliers em dados de transação, assimetria em distribuições de gastos, correlações não-lineares entre variáveis e necessidade de normalização para diferentes escalas de medidas. Eles precisam escolher as técnicas mais adequadas para cada tipo de análise. Considerando as ferramentas disponíveis (Python com pandas, scikit-learn, scipy; R com tidyverse, caret; SQL para agregações; Spark para processamento distribuído), avalie as seguintes afirmativas sobre interpretação de dados: I. Para análise de padrões sazonais em séries temporais de vendas, a decomposição STL (Seasonal and Trend decomposition using Loess) seria mais apropriada que análise de correlação linear simples, pois separa componentes de tendência, sazonalidade e ruído. II. Para identificar segmentos de clientes com base em múltiplas variáveis comportamentais, algoritmos de clustering como K-means devem sempre ser aplicados diretamente nos dados brutos sem normalização prévia para preservar as escalas originais das variáveis. III. Para análise de correlações não-lineares entre variáveis, o coeficiente de correlação de Spearman seria mais informativo que o coeficiente de Pearson, especialmente quando as relações são monotônicas mas não necessariamente lineares. IV. Para tratamento de valores ausentes em variáveis numéricas com distribuição assimétrica, a imputação por mediana seria mais robusta que a imputação por média, pois é menos sensível a outliers. Considerando o contexto apresentado, é correto o que se afirma em: Alternativas: I, II e IV. II e IV. I, II e III. I, III e IV. I, II, III e IV. Um hospital metropolitano quer reduzir o tempo de espera em seu pronto-socorro através de uma abordagem baseada em evidências. A instituição coletou dados históricos de 18 meses incluindo: horários de chegada dos pacientes, classificação de risco (triagem), tempo de atendimento por especialidade, recursos disponíveis (médicos, enfermeiros, leitos), diagnósticos finais e desfechos clínicos. A equipe multidisciplinar, incluindo médicos, administradores e cientistas de dados, precisa desenvolver soluções que otimizem o fluxo de pacientes mantendo a qualidade do atendimento. Os dados mostram padrões complexos: picos de demanda em determinados horários e dias da semana, variação sazonal de doenças, correlação entre tempo de espera e satisfação do paciente, e impacto de recursos limitados na eficiência operacional. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 4/10 a) b) c) d) e) 6) A análise inicial revelou que 40% dos pacientes de baixa prioridade esperam mais de 2 horas, enquanto casos de alta prioridade são atendidos em média em 15 minutos. Há também evidências de que a disponibilidade de especialistas específicos em diferentes turnos afeta significativamente os tempos de atendimento para determinados tipos de casos. Considerando a necessidade de desenvolver soluções analíticas baseadas em evidências, avalie as seguintes propostas: I. Implementar um modelo preditivo de demanda usando séries temporais para prever picos de chegada de pacientes e otimizar a escalação de recursos humanos preventivamente, baseado em padrões históricos e fatores externos (clima, eventos locais). II. Desenvolver um sistema de pontuação de risco revisado que incorpore não apenas sintomas clínicos, mas também dados históricos de tempo de atendimento e recursos necessários, usando algoritmos de machine learning para otimizar simultaneamente urgência médica e eficiência operacional. III. Criar dashboards em tempo real para gestores visualizarem métricas de performance (tempo médio de espera, taxa de ocupação, satisfação do paciente) e implementar alertas automáticos quando thresholds críticos forem atingidos, permitindo intervenções imediatas. IV. Aplicar análise de simulação estocástica para modelar diferentes cenários de configuração de recursos (número de médicos por turno, distribuição de especialistas) e avaliar o impacto nas métricas de performance antes de implementar mudanças operacionais. Considerando o contexto apresentado, é correto APENAS o que se afirma em: Alternativas: I e III. II e IV. I, II e III. I, III e IV. I, II, III e IV. Uma empresa de análise de mercado recebeu um dataset de pesquisa sobre preferências de consumo de uma multinacional de alimentos. O conjunto contém 500.000 registros coletados através de múltiplas fontes: pesquisas online, aplicativos móveis, dados de vendas de varejistas parceiros e redes sociais. O objetivo é identificar tendências de consumo para lançamento de novos produtos. Durante a análise preliminar, a equipe de ciência de dados descobriu várias inconsistências preocupantes. Primeiro, 35% dos respondentes da pesquisa online têm idades entre 18-25 anos, enquanto dados demográficos oficiais indicam que essa faixa representa apenas 12% da população-alvo. Segundo, dados de vendas de uma região específica mostram picos anômalos de 300% em determinados produtos durante períodos onde não houve campanhas promocionais ou eventos especiais. Adicionalmente, a equipe identificou que 20% dos registros de redes sociais são provenientes de contas com atividade suspeita (criadas recentemente, poucos seguidores, padrões de postagem automatizados). Os dados coletados via aplicativo móvel apresentam viés geográfico significativo, com 70% das respostas concentradas em grandes centros urbanos, não representando adequadamente mercados rurais e cidades menores. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 5/10 a) b) c) d) e) 7) A consultoria precisa entregar um relatório confiável sobre tendências de consumo, mas está enfrentando dilemas sobre como proceder com dados de qualidade questionável. A decisão sobre usar, filtrar ou descartar determinados conjuntos de dados impactará diretamente a validade das conclusões e recomendações estratégicas para o cliente. Considerando o contexto apresentado sobre qualidade e confiabilidade dos dados, assinale a alternativa correta. Alternativas: A representatividade da amostra pode ser ignorada quando o volume de dados é suficientemente grande, pois algoritmos de machine learning compensam automaticamente vieses amostrais. Dados com viés geográfico devem ser ponderados estatisticamente para corrigir a distribuição populacional, garantindo que diferentes regiões sejam adequadamente representadas na análise final. Registros de contas suspeitas em redes sociais devem ser mantidos na análise pois representam comportamentos reais de consumo, independentemente da autenticidade das contas.Picos anômalos em dados de vendas são sempre indicativos de erro de coleta e devem ser removidos automaticamente para não distorcer as análises estatísticas. A idade dos respondentes não é um fator crítico para validação de dados sobre preferências alimentares, sendo suficiente ter volume adequado de respostas para garantir confiabilidade. Uma cidade metropolitana com 3 milhões de habitantes está enfrentando múltiplos desafios urbanos complexos que impactam significativamente a qualidade de vida dos cidadãos. O trânsito caótico resulta em 2 horas diárias de tempo perdido por pessoa, o sistema de coleta de lixo opera com 60% de eficiência gerando acúmulo em várias regiões, a distribuição de energia apresenta picos de demanda que sobrecarregam a rede em 30% durante verões, e a segurança pública enfrenta dificuldades para alocar recursos preventivamente em áreas de maior risco. A prefeitura criou uma força-tarefa multidisciplinar para investigar como Inteligência Artificial pode abordar esses problemas de forma integrada. A equipe inclui urbanistas, engenheiros de tráfego, especialistas em sustentabilidade, analistas de segurança pública e cientistas de dados. Eles têm acesso a grandes volumes de dados: sensores de tráfego em tempo real, câmeras de monitoramento urbano, dados históricos de criminalidade, padrões de consumo energético, rotas de coleta de resíduos e dados demográficos detalhados. O desafio é identificar quais problemas são adequados para soluções de IA e como diferentes tecnologias podem ser aplicadas de forma complementar. A equipe precisa considerar não apenas a viabilidade técnica, mas também recursos disponíveis, tempo de implementação, impacto esperado e interdependências entre os sistemas urbanos. Avalie as seguintes propostas de aplicação de IA para resolver os problemas urbanos identificados: 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 6/10 a) b) c) d) e) 8) I. Implementar sistema de otimização de semáforos baseado em reinforcement learning que aprende continuamente com padrões de tráfego em tempo real, ajustando dinamicamente os tempos de abertura para minimizar congestionamentos em toda a rede viária. II. Desenvolver modelo de computer vision para monitoramento automático de acúmulo de lixo em vias públicas, integrando câmeras existentes com algoritmos de detecção de objetos para alertar equipes de limpeza sobre locais que necessitam atenção prioritária. III. Aplicar algoritmos de clustering e análise preditiva em dados históricos de criminalidade combinados com fatores socioeconômicos e eventos urbanos para identificar padrões espaço-temporais de risco e otimizar patrulhamento preventivo. IV. Utilizar redes neurais recorrentes para prever demanda energética com base em dados meteorológicos, calendário de eventos, padrões históricos de consumo e crescimento populacional, permitindo ajustes proativos na distribuição de energia. Considerando o contexto apresentado, é correto o que se afirma em: Alternativas: I, II e IV. II e IV. I, II, III e IV. I, II e III. I, III e IV. Um hospital universitário está desenvolvendo um sistema de IA para auxiliar no diagnóstico precoce de câncer através de análise de imagens médicas. O sistema utilizará deep learning para analisar tomografias, ressonâncias magnéticas e radiografias, prometendo reduzir o tempo de diagnóstico de semanas para horas e aumentar a precisão na detecção de tumores em estágios iniciais. O projeto envolve uma equipe multidisciplinar incluindo oncologistas, radiologistas, engenheiros de software, especialistas em IA e representantes de comitês de ética médica. Durante o desenvolvimento, surgiram questões complexas sobre as implicações éticas da implementação desta tecnologia na prática clínica real. O sistema apresenta alta acurácia (95%) em testes controlados, mas análises mais profundas revelaram que a performance varia significativamente entre diferentes grupos demográficos: 97% de acurácia para pacientes do sexo masculino caucasianos, mas apenas 89% para mulheres afrodescendentes. Além disso, o algoritmo foi treinado principalmente com dados de hospitais de países desenvolvidos, levantando questões sobre sua aplicabilidade global. Outros dilemas éticos emergiram: como comunicar ao paciente quando o diagnóstico da IA diverge da avaliação médica inicial, quem assume responsabilidade legal por diagnósticos incorretos, como garantir que médicos mantenham suas competências diagnósticas, e como lidar com o acesso desigual à tecnologia entre diferentes instituições de saúde. Considerando os princípios éticos fundamentais em IA (beneficência, não-maleficência, autonomia, justiça, transparência), avalie as seguintes afirmações sobre as implicações éticas: 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 7/10 a) b) c) d) e) 9) I. A implementação deve ser adiada até que a disparidade de performance entre grupos demográficos seja corrigida, pois viés algorítmico pode perpetuar desigualdades em saúde e violar o princípio da justiça distributiva. II. O sistema pode ser implementado imediatamente em sua versão atual, pois mesmo com variações de performance, ainda oferece benefícios médios superiores aos métodos tradicionais, maximizando o bem- estar geral dos pacientes. III. É essencial implementar mecanismos de explicabilidade que permitam aos médicos compreender as bases das decisões do algoritmo, garantindo transparência e mantendo a autonomia profissional na tomada de decisões clínicas. IV. A responsabilidade legal por diagnósticos deve permanecer exclusivamente com os profissionais médicos, sendo a IA tratada como ferramenta de apoio, preservando a relação médico-paciente e accountability profissional. Considerando o contexto apresentado, é correto APENAS o que se afirma em: Alternativas: I e III. II e IV. I, II e III. I, III e IV. I, II, III e IV. Uma startup de tecnologia educacional desenvolveu uma plataforma de aprendizado personalizado que utiliza múltiplos algoritmos de IA para adaptar conteúdo às necessidades individuais de cada estudante. O sistema emprega natural language processing para avaliar respostas em texto livre, computer vision para analisar expressões faciais durante videoaulas, recommendation systems para sugerir materiais de estudo, e reinforcement learning para otimizar sequências de aprendizado. A plataforma processa dados de 100.000 estudantes simultaneamente, gerando recomendações personalizadas em tempo real. O desafio técnico principal é integrar esses diferentes algoritmos de forma eficiente, mantendo latência baixa (menos de 200ms para resposta) e garantindo escalabilidade para crescimento futuro da base de usuários. A arquitetura atual utiliza microserviços em cloud, com cada algoritmo executando em containers separados. O sistema de NLP processa textos usando modelos transformers pré-treinados fine-tuned para domínio educacional. O módulo de computer vision emprega redes neurais convolucionais para análise de emoções. O sistema de recomendação utiliza collaborative filtering e content-based filtering híbrido. O módulo de reinforcement learning implementa algoritmos Q-learning para otimização de trajetórias de aprendizado. A equipe técnica está enfrentando desafios de performance, especialmente durante picos de uso (horários de aula), quando a latência aumenta significativamente. Eles precisam otimizar a integração entre os diferentes algoritmos sem comprometer a qualidade das recomendações personalizadas. Considerando o contexto apresentado sobre integração de algoritmos de IA, assinale a alternativa correta. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=26046508/10 a) b) c) d) e) 10) a) b) Alternativas: A integração de diferentes algoritmos de IA deve sempre priorizar a execução sequencial para garantir consistência dos resultados, mesmo que isso aumente a latência total do sistema. Implementar cache inteligente para resultados de modelos computacionalmente intensivos e utilizar processamento assíncrono para tarefas não-críticas pode reduzir significativamente a latência percebida pelo usuário. Todos os algoritmos devem ser executados com a mesma frequência e prioridade para garantir balanceamento da carga computacional entre os diferentes módulos de IA. A arquitetura de microserviços é inadequada para integração de algoritmos de IA pois introduz overhead de comunicação que sempre compromete a performance em aplicações de tempo real. Modelos de deep learning devem ser evitados em aplicações que requerem baixa latência, sendo preferível usar apenas algoritmos de machine learning tradicional para garantir performance adequada. Uma empresa multinacional de consultoria expandiu suas operações para 15 países e implementou uma infraestrutura de rede corporativa complexa conectando 45 escritórios regionais através de VPNs, links dedicados e conexões de internet redundantes. A rede utiliza roteamento dinâmico (OSPF e BGP), VLANs para segmentação por departamentos, firewalls distribuídos e sistemas de monitoramento centralizado. Recentemente, a empresa começou a enfrentar problemas intermitentes de conectividade que afetam significativamente a produtividade. Usuários relatam lentidão no acesso a sistemas corporativos, falhas em videoconferências internacionais, perda de conexão com serviços na nuvem e dificuldades para acessar recursos compartilhados entre escritórios. A equipe de TI identificou sintomas diversos: alguns escritórios perdem conectividade completa por períodos de 5-15 minutos, outros experimentam alta latência (>500ms) para determinados destinos, há reports de perda de pacotes intermitente (3-8%), e timeouts frequentes em aplicações que dependem de conexões persistentes. O problema parece afetar diferentes regiões geográficas de forma não padronizada. Para diagnosticar sistematicamente esses problemas de conectividade, a equipe precisa aplicar metodologias estruturadas que isolem as causas raízes, considerando as múltiplas camadas da infraestrutura de rede (física, enlace, rede, transporte) e os diferentes componentes envolvidos (ISPs, equipamentos de rede, configurações, links de comunicação). Considerando o contexto apresentado sobre diagnóstico de problemas de conectividade, assinale a alternativa correta. Alternativas: Problemas intermitentes de conectividade são sempre causados por falhas de hardware e devem ser resolvidos através da substituição preventiva de todos os equipamentos de rede críticos. A análise de logs de equipamentos de rede combinada com testes de conectividade sistemáticos (ping, traceroute, análise de latência) permite identificar padrões e isolar segmentos problemáticos da infraestrutura. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 9/10 c) d) e) Alta latência em conexões internacionais é inevitável devido à distância geográfica e não pode ser otimizada através de ajustes na configuração de rede ou seleção de rotas. Perda de pacotes intermitente indica exclusivamente problemas na camada física da rede e deve ser abordada apenas através de substituição de cabos e interfaces de rede. Sistemas de monitoramento de rede são desnecessários para diagnóstico de problemas complexos, sendo mais eficiente confiar apenas em relatórios de usuários para identificar falhas. 11/11/2025, 20:59 Colaborar - Testando os Conhecimentos - 1ª Lista de Exercícios https://www.colaboraread.com.br/aluno/avaliacao/index/6536182201?atividadeDisciplinaId=19915719&ofertaDisciplinaId=2604650 10/10