Baixe o app para aproveitar ainda mais
Prévia do material em texto
http://goo.gl/TPfv6z AULA 1: Lentidão é sintoma, não o problema; DISPONIBILIDADE: É um pré requisito da avaliação de desempenho. ESTUDAR PARÂMETROS DO PING Tamanho do pacote é um indicativo de desempenho (recurso do ping) Testar traceroute p/ verificar tempos a cada salto, inclusive ativos internos O que é parâmetro aceitável de desempenho? Atender os requisitos acordados por ambas as partes: Saber valor de referência, de acordo com manual ou documento do fabricante (material de referência) Levar em consideração variáveis do ambiente Obs: Dar exemplos, como o tempo de resposta, tempo de consulta em um banco SQL AULA 2: Modelagem analítica, baseada em modelos matemáticos Medição sofre alterações em diferentes dias e horários. Escolher melhores momentos para efetuar medição, de acordo com histórico do ambiente analisado. Simulação não trabalha com dados e ambiente real Métrica orientada a evento, tracing, indireta, Amostragem. Qual técnica usar? Recomenda-se usar sempre duas. Medição só pode ser feita em ambientes reais, que já existam. Análise de desempenho se preocupa com o dia de amanhã, será que a infra estrutura vai aguentar daqui 6 meses? Resultados devem ser apresentados de forma compreenssível para os públicos que irão analisá-los AULA 3: Serviço que analisa caixa de Email para “capturar” NF-E (XML) AULA 4 Qual melhor e pior momento para fazer medições? Decisão com base no cenário. Se já tiver dados sendo coletados, analisar com base no histórico quais os melhores e piores momentos. Curiosidade: é possível definir maior prioridade para Emails sem anexo (em alguns) SJF AULA ++ Aferição: Medição conferida Prototipagem: Serve para entender/visualizar como irá ficar o produto final Para aferir um sistema, ele deve existir e estar disponível. Estocástico não é aleatório, pois pode-se definir uma probabilidade dos resultados Coleta de dados é utilizado para comparar com os parâmetros aceitáveis de desempenho. Somente a coleta dos dados não é suficiente. Ex: Mostrar uma tela Nagios com tudo verde não diz nada. Carga de trabalho: Quantidade de requisições feitas pelo usuário para o sistema AULA ++ Metodologia de teste de desempenho: Definir objetivos do teste Tem influência direta no custo e esforço do projeto (capacidade do servidor web/bdo, descobrir timeout, identificar gargalos) Entender o ambiente Ajuda a definir com mais precisão a natureza da carga de trabalho e dos serviços oferecidos SLA = Service Level Agreement Especificar o plano de testes Identificar: o que testar, ordem dos testes, resultados esperados. Como solicitar o serviço? Incluir: Carga de trabalho, piores e melhores momentos (não há dias e horários certos) Responder as perguntas: Como as variáveis de entrada são controladas? Qual o grau desejado de confiança nas medições? definir carga de trabalho de teste Incluir diferentes grupos de usuários, diferentes perfis Importante para mensurar configurar o ambiente de teste Instalar ferramentas para medição de testes executar os testes Deve haver uma descrição detalhada do teste analisar os resultados do teste Comparar com parâmetros aceitáveis de desempenho da empresa Identificar gargalos Apresentar diagnósticos Verificar se houve erros de medição NNF = Next, Next, Finish AULA ++ DURAÇÃO: Falhas transiente: Falhas recuperáveis: Falhas que podem ser contornadas com certa facilidade, porém perceptíveis do ponto de vista do usuário. Ex: lentidão ou equipamento danificado cujo temos peça de reposição disponível Falhas permanentes: EFEITO Funcional: Desempenho: ESCOPO Falha parcial: Parte do sistema ou serviços fica indisponível Falha total:
Compartilhar