Baixe o app para aproveitar ainda mais
Prévia do material em texto
Nesta webaula, estudaremos a prática de produção de interfaces interativas, focando em: métodos de avaliação de interfaces e avaliação heurística, problemas visuais e de usabilidade em sistemas computacionais e usabilidade mobile/web, objetivos e planos de testes de interfaces e testes práticos, e , por �m, relatório de usabilidade de interface e melhoria da usabilidade de interfaces. Avaliação de interface Ciclo de vida simples (Preece et al. 2002) Ciclo de vida simples foi visto anteriormente em Processos de Design de IHC. Nessa webaula vamos abordar os diferentes processo da atividade de avaliação. Interface e Usabilidade Avaliação e testes de usabilidade em interfaces Você sabia que seu material didático é interativo e multimídia? Isso signi�ca que você pode interagir com o conteúdo de diversas formas, a qualquer hora e lugar. Na versão impressa, porém, alguns conteúdos interativos �cam desabilitados. Por essa razão, �que atento: sempre que possível, opte pela versão digital. Bons estudos! Fonte: Barbosa e Silva (2010) Atividades genéricas: testes de usabilidade Os métodos de avaliação de IHC possuem as seguintes atividades básicas: preparação, coleta de dados, interpretação, consolidação e relato dos resultados. Caso a avaliação encontre problemas ou oportunidades de melhoria, também é planejado um reprojeto do sistema. Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Demonstraremos os métodos de avaliação de interface. Diferentes formas de observar, registrar o despenho e opinião dos participantes durante sessões de interações com interfaces interativas. Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Tipos de avaliação Existem três tipos de avaliação de interface: Investigação São métodos que permitem ao avaliador ter acesso, interpretar e analisar concepções, opiniões, expectativas e comportamentos do usuário relacionados com sistemas interativos. Observação Registrar dados observados, esses métodos permitem identi�car problemas reais que os usuários enfrentaram durante sua experiência de uso do sistema sendo avaliado. Inspeção Tentar identi�car problemas que os usuários podem vir a ter quando interagirem com o sistema. Esses métodos geralmente não envolvem diretamente usuários e, portanto, tratam de experiências de uso potenciais, e não reais. Métodos de avaliação Os métodos de avaliação de interface podem ser divididos em: Investigação Pode envolver usuários �nais ou não. Questionários: coletar rapidamente dados (principalmente quantitativos) de muitos usuários Entrevistas: coletar informações detalhadas e profundas de usuários individuais. Grupos de foco: avaliar atitudes, opiniões e impressões dos usuários. Estudo de campo: entender usuários, seu ambiente e suas tarefas em contexto. Observação Envolve usuários �nais em situações reais. Teste de usabilidade: visa a avaliar a usabilidade de um sistema interativo a partir de experiências de uso dos seus usuários-alvo. Comunicabilidade: avaliação de comunicabilidade visa apreciar a qualidade da comunicação da metamensagem do designer para os usuários. Prototipagem em Papel: prototipação em papel avalia a usabilidade de um design de IHC representado em papel, através de simulações de uso com a participação de potenciais usuários. Focaremos apenas no teste de usabilidade. Ele visa a avaliar a usabilidade de um sistema interativo a partir de experiências de uso dos seus usuários-alvo. Os objetivos da avaliação determinam quais critérios de usabilidade devem ser medidos. Para realizar as medições desejadas, um grupo de usuários é convidado a realizar um conjunto de tarefas usando o sistema num ambiente controlado, como um laboratório. Na atividade de preparação, são realizadas as atividades comuns aos métodos de avaliação por observação. Em particular, são de�nidas as tarefas que os participantes vão realizar e os dados a serem coletados. A coleta de dados inclui o questionário pré-teste, a sessão de observação e a entrevista pós-teste. Nas atividades de interpretação e consolidação, os dados dos participantes devem ser organizados de modo a evidenciar as relações entre eles. Relatos dos resultados informa o desempenho dos participantes. Exemplo de perguntas a serem respondidas: “Quantos erros os usuários cometem nas primeiras sessões de uso?” “Quantos usuários conseguiram completar com sucesso determinadas tarefas?” “Quanto tempo o usuário demorou para realizar um cadastro?” Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Exemplo de resultados: tempo médio para registro de um arquivo Fonte: Barbosa e Silva (2010) Dentro do método de observação existem as etiquetas, que podem ser compreendidas pelos seguintes itens: E agora? Onde estou? Epa! O que é isto? Socorro! Assim não dá. Porque não funciona? Desisto Pra mim, está bom. Não, obrigado. Vai de outro jeito. Ué, o que houve? Cadê? Observação: avaliação de comunicabilidade Representantes dos usuários são convidados a realizar um conjunto de tarefas utilizando o sistema em um ambiente controlado, como um laboratório. Os avaliadores analisam cada registro de experiências de uso para compreender como foi a interação de cada usuário com o sistema sendo avaliado. O foco dessa análise abrange os prováveis caminhos de interpretação dos usuários, suas intenções de comunicação e, principalmente, as rupturas de comunicação que ocorreram durante a interação. Na atividade de interpretação, o avaliador faz a etiquetagem dos vídeos. Ele assiste a cada vídeo de interação repetidas vezes para identi�car rupturas de comunicação, ou seja, momentos da interação em que o usuário demonstra não ter entendido a metacomunicação do designer, ou momentos em que o usuário encontra di�culdades de expressar sua intenção de comunicação na interface. Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Exemplo: Atividades do método de avaliação de comunicabilidade. Fonte: Barbosa e Silva (2010) 1. Usuário seleciona os itens deseja ordenar. 2. Ele procura uma opção de ordenação: Etiqueta: Cadê? Exemplo: 3. Decide procurar em Ferramentas - Opções. Etiqueta: Cadê? 4. Examina a guia Exibir: Etiqueta: Cadê? Atividades do método de avaliação de comunicabilidade Fonte: Barbosa e Silva (2010) Tabulação e Interpretação: signi�cado da análise Fonte: elaborado pelo autor Observação: prototipagem de papel Avalia a usabilidade de um design de IHC representado em papel, através de simulações de uso com a participação de potenciais usuários. É um método rápido e barato de identi�car problemas de usabilidade com a participação dos usuários, Identi�ca problemas antes mesmo de construir uma solução executável. Percurso cognitivo Objetivo de avaliar a facilidade de aprendizado de um sistema interativo, através da exploração da sua interface. Motivado pela maioria das pessoas por “aprender fazendo”. Considera principalmente a correspondência entre o modelo conceitual dos usuários e a imagem do sistema. O objetivo principal é facilitar o uso de um sistema por usuários novatos. Entretanto, existem grandes desa�os para a implementação de uma interface capaz de negociar signi�cado dos e resolver ambiguidades e imprecisões nas ilocuções dos usuários. Em geral, os usuários têm di�culdade para entenderem os limites do sistema, ou seja, qual é o subconjunto da linguagem natural que o sistema consegue interpretar. Além disso, esse estilo de interação se torna ine�ciente para usuários experientes, quando comparado com a interação por linguagem de comando. Inspeção Não envolve diretamente os usuários alvo. Tratam de uso potenciais e não reais. Percurso cognitivo: objetivo é avaliar a facilidade de aprendizado de um sistema interativo, através da exploração da sua interface. “aprenderem fazendo”. Inspeção semiótica: O objetivo da inspeção semiótica é avaliar a qualidade da emissão da metacomunicação do designercodi�cada na interface Avaliação heurística: orienta os avaliadores a inspecionar sistematicamente a interface em busca de problemas que prejudiquem a usabilidade. Atividades do método percurso cognitivo Fonte: Barbosa e Silva (2010). Atividades do método percurso cognitivo Avaliação heurística Método criado para encontrar problemas de usabilidade durante o processo de design interativo; Simples, rápido e de baixo custo para avaliar IHC 3 a 5 especialistas em IHC inspecionam a interface, sem envolver usuários. Conjunto de 10 heurística. Fonte: Barbosa e Silva (2010). Inspeção – heurística de nielsen Visibilidade do estado do sistema. Correspondência entre o sistema e o mundo real. Controle e liberdade do usuário. Consistência e padronização. Apoio ao reconhecimento, diagnóstico e recuperação de erros. Prevenção de erros. Reconhecimento em vez de memorização. Flexibilidade e e�ciência de uso. Projeto estético e minimalista. Ajuda e documentação. Atividades do método percurso cognitivo Fonte: Barbosa e Silva (2010). Problemas de usabilidade Atividades genéricas: testes de usabilidade Como reunir, contabilizar e sumarizar os dados dos participantes para a elaboração dos resultados na próxima etapa. Descrição de um problema Cada avaliador deve julgar a severidade (ou gravidade) dos problemas encontrados, para facilitar a análise de custo/benefício da correção dos problemas e priorização dos esforços de correção ou reprojeto. Severidade de um problema: A frequência que ocorre: é um problema comum ou raro de acontecer? Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) O impacto do problema: se ocorrer, será fácil ou difícil para os usuários superarem o problema? A persistência: O problema ocorre apenas uma vez e será superado pelo usuários, ou atrapalhará repetidas vezes? Como identi�car um problema prioritário? Natureza do problema. Barreira, obstáculo ou ruído. Natureza da tarefa. Importante e frequente. Secundária e esporádica. Quais usuários. Geral, novatos, intermitentes. Especialistas ou usuários especiais. Para facilitar a compreensão e comparação do julgamento dos problemas encontrados, Nielsen (1994) sugere: Problema cosmético: não precisa consertar, ao menos que haja tempo. Problema pequeno. O conserto pode receber baixa prioridade. Problema grande. Problema catastró�co. Problema cosmético Não precisa consertar, ao menos que haja tempo. Problema pequeno O conserto pode receber baixa prioridade. Problema grande Importante de ser consertado e deve receber alta prioridade. Esse tipo de problema prejudica fatores de usabilidade tidos como importantes para o projeto (por exemplo, são exigidos muitos passos de interação para alcançar um objetivo que deveria ser atingido de forma e�ciente). Problema catastró�co É extremamente importante consertá-lo antes de se lançar o produto. Se mantido, o problema provavelmente impedirá que o usuário realize suas tarefas e alcance seus objetivos. Problemas de usabilidade Erros mais comuns de usabilidade em aplicativos mobile: Não customizar para Android. Não levar o processo de integração a sério. Não dar atenção a arquitetura da informação e navegação. Não simpli�car o processo de check-out. Não suportar orientações para tela paisagem e de retrato. Ter muitos passos para prosseguir. Não estreitar o círculo de engajamento. Android e iOS são duas plataformas extremamente diferente. Integração: Deixar atrativos nas primeiras visitas. Caminho que os visitantes fazem para navegar dentro de um aplicativo Check-out: elimine escolhas ou instalando logins do Facebook. Experiência positiva para o usuário e um alto engajamento. Erros mais comuns de usabilidade em páginas web: Não ter velocidade, design e carregamento adequado O site é lento: problemas com servidor. Pouco contraste entre o fundo e o texto: cores extravagantes. Fonte: Opção de aumentar e reduzir a fonte. Muitas propagandas de PopUps. Página de erro 404 personalizada da noção para o usuário que ele pode ter errado e não a página. Identidade confusa É difícil encontrar o logo da empresa. A homepage não deixa claro sobre o que o site é em poucos segundos. A página “sobre a empresa” não é fácil ser encontrada. Não existe uma área para contato no site. Navegabilidade ruim Bons menus �cam �xos do lado esquerdo ou na parte superior do layout. Usar opção de mudar a cor quando for uma opção cliclável. Pesquisa geralmente �ca no canto superior direito da página. Conteúdo mal escrito e diagramado Os elementos do resumo dos artigos na homepage não são clicáveis. Seu site usa uma “sala mista” de cores. S t t b d ê f it itáli lt Seu texto abusa de ênfase em negrito, itálico e cx. alta. Anúncios por toda parte e URLs mal estruturados. Testes usabilidade Atividades genéricas: testes de usabilidade Apesar de alguns equivocadamente considerarem a atividade e preparação burocrática, a atividade é fundamental para a condução adequada de uma avaliação que forneça resultados úteis e con�áveis. Ela não pode ser negligenciada, pois pode acarretar em desperdício de tempo, dinheiro e outros recursos, envolvendo avaliadores, usuários e demais interessados na avaliação. Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Tipos de teste de usabilidade Os testes de usabilidade são divididos em: Teste de Exploração Quando usar: Fases iniciais do design. Quais funcionalidade incluir? Objetivos: Explorar o modelo mental do usuário a respeito das tarefas em questão. Veri�car se o usuário aprova as funcionalidades propostas. Metodologia: Usuário explora o modelo da interface dando sugestões para o avaliador. Exemplo: O usuário é apresentado a um problema concreto e estimulado a falar sobre suas expectativas suposições e intenções para a resolução do problema. Teste de Avaliação Quando usar: Nas fases intermediárias do ciclo de design. Tipos de teste de usabilidade Estabeleça a equipe: Quem participará da parte de planejamento? Quem serão os experimentadores? Característica e tipo de teste: Duas maiores preocupações: Con�abilidade: grau de certeza de que o mesmo resultado será obtido se o teste for repetido. Validade: os resultados re�etirem os aspectos de usabilidade que deseja testar. Duas fases principais: Planejamento. Execução. Objetivos: Determinar se os modelos conceituais foram implementados adequadamente. Buscar veri�car se o usuário consegue realizar as tarefas. Metodologia: Usuários executa tarefas e o avaliador observa sem interferir. Alguns dados quantitativos de e�ciência de uso são anotados (tempo, quantidade erros e etc), mas dado mais ênfase ao comportamento do usuário. Exemplo: Usuário é solicitado a renovar um livro no sistema on-line da biblioteca. Teste de Validação Quando usar: Na fase �nal, perto do lançamento do produto. Objetivos: Certi�car que o produto está de acordo com o que foi especi�cado e se enquadra nos padrões de usabilidade e performance de�nidos. Metodologia: Determinar tempos para as tarefas e veri�car se o usuário consegue realizá-las dentro daquele tempo. Exemplo: Tarefa de renovar o livro na biblioteca no tempo previsto de 1 minuto. Teste de Comparação Quando usar: Qualquer estágio do ciclo de design. Objetivos: Comparar soluções alternativas entre si e determinar qual delas é mais fácil de usar. Metodologia: Um teste exploratório onde diversas soluções são comparadas entre si. O resultado é um produto que combina o melhor dessas ideias. Exemplo: Localizar onde se encontra o help nos seguintes sites. Embora os cuidados ao lidar com os participantes sejam sempre prioritários, é importante também considerar os aspectos éticos relacionados aos dados coleta dos, em particular no que diz respeito à validade e con�abilidade dos dados, e à retenção de dados e documentação. Qual teste vai ser realizado? Público-alvo:Quem serão os usuários e como serão conseguidos? Quantos usuários são necessários? Recursos necessários para a realização do teste: Quando e onde o teste irá acontecer? Qual a duração prevista de cada sessão de teste? Qual o suporte computacional necessário? Quais softwares precisam estar a disposição? Qual deverá ser o estado do sistema no início do teste? Objetivos e métricas: O que se deseja obter através do teste? Quais dados serão coletados? Planejamento (ii) Recursos necessários para a realização do teste: Quando e onde o teste irá acontecer? Qual a duração prevista de cada sessão de teste? Qual o suporte computacional necessário? Quais softwares precisam estar a disposição? Qual deverá ser o estado do sistema no início do teste? Objetivos e métricas: O que se deseja obter através do teste? Quais dados serão coletados? Planejamento (iii) Cenários e tarefas: Quais tarefas que serão solicitadas aos usuários? Quanto o experimentador poderá ajudar o usuário durante o teste? De�nição de como será a análise dos resultados: Como os dados serão analisados uma vez que tenham sido coletados? Qual critério será utilizado para de�nir que os usuários terminaram cada tarefa corretamente? Qual o critério para determinar que a interface é um sucesso? Função dos experimentadores Escolha usuários signi�cativos Envolva usuários reais Se não for possível, seleciona usuários parecidos Idade; nível educacional. Experiência com computadores e domínio da tarefa. Erro comum: interface para público em geral e recrutar alunos de computação como alunos de testes. Como os dados serão analisados uma vez que tenham sido coletados? Qual critério será utilizado para de�nir que os usuários terminaram cada tarefa corretamente? Qual o critério para determinar que a interface é um sucesso? Os usuários Devem ter conhecimento extenso sobre a aplicação e sobre a interface. Não precisam saber como o sistema foi implementado. Mas devem estar prontos para lidar com problemas que afetam o teste (ex. Sistema travar). Podem ser os designers, desde que mantenham isenção. Métrica Para tipo de método de avaliação, algumas métricas são mais usadas do que as outras. Algumas delas são: Tempo de cada tarefa. Porcentagem de tarefas completadas. Porcentagem de tarefas não-completadas. Número de erros. Tempo de navegação para encontrar uma informação. Número de passos. Número de cliques. Quantidade de informações encontradas. Número de acessos ao help. Dados qualitativos Dados qualitativos são coletados oralmente, por escrito, por questionário ou por meio de perguntas feitas para o usuário As percepções e satisfação, apesar de dados qualitativos (subjetivo) podem ser quanti�cados usando “notas” para: Facilidade de uso. Facilidade de navegação. Utilidade. Facilidade de aprendizado; Os avaliadores devem buscar participantes que representem o público-alvo do sistema avaliado, ou seja, que possuam características semelhantes aos usuários típicos. A de�nição dos per�s de participantes pode considerar fatores como: idade, sexo, formação acadêmica, grau de conhecimento sobre o domínio, nível de experiência na realização das tarefas e nível de experiência no uso do sistema avaliado e de sistemas semelhantes, por exemplo. Sempre que possível e pertinente, o avaliador deve buscar equilibrar o número de homens e mulheres. Curiosidade Dumas e Redish (1999) relatam que uma avaliação de IHC em geral envolve de cinco a 12 usuários. Nielsen (2000), por sua vez, a�rma que bastam cinco usuários para encontrarmos a maioria dos problemas na interface (85%, segundo o seu experimento), alcançando uma boa relação custo–benefício. Facilidade de recuperar de um erro. Help. Dados qualitativos Questionário de pré-teste Para de�nir o per�l dos participantes. Questionário pós-teste Geralmente utilizado para obter a satisfação do usuário e opinião Autorização (termo de consentimento) Declaração de que o usuário está de acordo em participar dos teste e que esses dados serão utilizados para uma determinada �nalidade, mantendo-se anonimato das informações. Julgar a facilidade de aprendizado do sistema, o método considera principalmente a correspondência entre o modelo conceitual dos usuários e a imagem do sistema, no que tange à conceitualização da tarefa, ao vocabulário utilizado e à resposta do sistema a cada ação realizada. Validação de melhorias da usabilidade de interfaces Testes de usabilidade Uma vez concluída a interpretação individual dos dados coletados, seja das previsões dos avaliadores ou das observações das experiências de uso dos participantes, os resultados individuais são consolidados e analisados em conjunto, em uma análise denominada de intersujeito ou interparticipante Consolidação dos resultados Atividades do teste de usabilidade Fonte: Barbosa e Silva (2010) Na consolidação dos resultados, os avaliadores devem novamente endereçar as questões que motivaram o estudo, buscando respondê-las ou justi�car por que alguma resposta não foi encontrada. Mesmo no caso de avaliações empíricas, a generalização dos resultados exige muito cuidado. Eles sempre são fortemente in�uenciados pelo ambiente de avaliação e pelas características, preferências, interesses e necessidades dos participantes individuais. Relato dos resultados Os resultados de uma avaliação de IHC normalmente indicam tendências de problemas, e não uma certeza de que eles vão ocorrer durante o uso do sistema: Caso não sejam encontrados problemas durante a avaliação, também não podemos a�rmar categoricamente que o sistema tenha alta qualidade de uso. Podemos a�rmar apenas que o estudo revelou problemas num determinado escopo do sistema avaliado com base em um certo planejamento. O relato dos resultados geralmente incluem: Busca recorrências nos resultados de todos os participantes de acordo com o método selecionados: Resultado individuais são consolidados e analisado em conjunto. Resultados comuns a vários participantes de um grupo permitem fazer uma distinção entre características representativas do grupo. A generalização dos resultados exige muito cuidado, pois podem ser in�uenciados por fatores externos. Objetivos e escopo da avaliação Os objetivos da avaliação são de�nidos com base em requisições, reclamações ou comportamentos dos stakeholders do sistema. O escopo da avaliação delimita-se quais partes da interface, caminhos de interação, tarefas e per�s de usuário �zeram parte da avaliação. Métodos de avaliação empregadores Pode ser mais de um método: Método por observação.: teste de usabilidade, comunicabilidade ou prototipagem em papel. Método Inspeção: avaliação heurística e percurso cognitivo ou inspeção semiótica. Número e per�l de usuários e avaliadores O número e o per�l de usuários e avaliadores que participaram da avaliação: o método que envolva usuários �nais ou especialistas e quantidade de usuários e os respectivos per�s. Um sumário dos dados coletados: quais dados foram coletados e mostre os resultados em forma de tabelas e grá�cos. Relato da interpretação e análise dos dados Um relato da interpretação e análise dos dados: reúne, contabiliza e sumariza os dados coletados dos participantes; mostra as violações das heurísticas;; análise se o usuário executa as ações corretamente, e análise dos signos estáticos e dinâmicos corresponde a metamensagem; Lista dos problemas encontrados A ação que o usuário deveria executar. Local na interface onde ocorre o problema. Descrição do problema e justi�cativa do problema. Diretriz(es) violada(s). Severidade do problema. Sugestões de solução Planejamento para o reprojeto do sistema Design interativo: Reprojetar o sistema. Evidenciar os pontos que precisam ser melhorados e o que pode ser: aproveitado (sem alteração); refeito (Correções) e descartado (tudo). Situação-problema Uma empresa na área da tecnologia da informação que desenvolveaplicações web para diversos segmentos do Brasil. A empresa adota a metodologia de desenvolvimento ágil e tem como principal slogan “Criamos a sua solução em tempo recorde”. O dono da empresa considera desnecessário contratar um funcionário para avaliar as interfaces e prefere receber feedbacks gratuitos dos usuários. No entanto, ultimamente os usuários tem reclamado quanto a usabilidade de suas aplicações web. Devido a grande quantidade de reclamações o empresário viu na necessidade de contratar um funcionário que �que apenas avaliando as interfaces de seus produtos. Dessa forma, você foi contratado para tal função. Na primeira reunião o chefe ti diz: “Gostaria que você avaliasse as interfaces considerando o slogan da empresa”. Então, como você vai avaliar as aplicações desenvolvidas? Resolução da situação-problema Dois métodos mais ágeis Questionários: criação de um formulário eletrônico para os usuários responderem. Conforme recebimento dos feedbacks, realizava avaliação e passaria para a equipe de desenvolvimento. Teste de Usabilidade: em paralelo, selecionava usuários com per�s relacionados ao uso da aplicação para teste de usabilidade mais dinâmicos. Lembre-se dos métodos de avaliação: Investigação: Questionários; realização de entrevistas Grupos de foco; estudos de campo. Observação Teste de usabilidade; comunicabilidade; prot. papel. Inspeção: Avaliação heurística; percurso cognitivo; semiótica.
Compartilhar