Buscar

Acessibilidade de Dispositivos Móveis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 10 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 10 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 10 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Acessibilidade de Dispositivos Móveis: 
Mapeamento de Problemas e Estudo de Gestos de Toque 
Rafael Jeferson Pezzuto 
Damaceno 
Universidade Federal do ABC 
rafael.damaceno@ufabc.edu.br 
Juliana Cristina Braga 
Universidade Federal do ABC 
juliana.braga@ufabc.edu.br 
Jesús Pascual Mena Chalco 
Universidade Federal do ABC 
jesus.mena@ufabc.edu.br 
 
ABSTRACT 
Mobile devices can be a valuable in improving the quality of 
life of visually impaired people, enabling greater 
independence to perform daily tasks. A review was carried 
out to map the existing accessibility problems in the 
interaction of people with visual impairment with mobile 
devices. Seven groups of problems were found, which 
allowed establishment a set of recommendations and future 
studies to improve accessibility on mobile devices. A case 
study was planned and conducted addressing the group 
“gesture-based interaction”, which had the highest number 
of problems in the literature review. The empirical study 
aimed to evaluate touch gestures made by 12 visually 
impaired people by using an application developed for this 
purpose. Gestures represented by the letters “V” and “Z” had 
performance similar to those already available on the 
Android Platform. Other factors have influenced the 
recognition with speed being the main factor in reducing the 
performance of gestures. 
Author Keywords 
Mobile devices; visually impaired people; accessibility; 
touch-screen; gestures; systematic review; empirical study. 
ACM Classification Keywords 
H.5.2. User Interfaces: Human-centered computing; 
Empirical studies in accessibility; 
INTRODUÇÃO 
Segundo a Organização Mundial da Saúde (OMS), 
deficiência visual é definida como a perda total ou parcial, 
congênita ou adquirida, da visão. Há dois grupos de 
deficiência: cegueira e baixa visão. Na cegueira há perda 
total da visão ou pouquíssima capacidade de enxergar, até a 
perda de percepção luminosa. A baixa visão caracteriza-se 
pela alteração da capacidade funcional da visão, conservando 
resíduos de visão [42]. No caso da adquirida, o indivíduo 
nasce com o sentido da visão, tendo a possibilidade de 
guardar memórias visuais. No caso da congênita, não há esta 
possibilidade, pois o indivíduo nasce sem a capacidade da 
visão [15]. 
A deficiência visual acarreta dificuldades nas habilidades 
básicas de um indivíduo, tais como mobilidade, execução de 
atividades diárias e profissionais, comunicação, entre outras 
[15]. Como aliado para contrapor estas dificuldades existe a 
tecnologia assistiva, termo que se refere ao conjunto de 
recursos e serviços que contribuem para a ampliação de 
habilidades funcionais deficitárias, proporcionando à pessoa 
com deficiência independência, qualidade de vida e inclusão 
social [2]. São exemplos destes recursos, especificamente 
para pessoas com deficiência visual (PDV), leitores de tela e 
de textos impressos, impressoras Braille, lentes e lupas 
eletrônicas [2]. 
Os dispositivos móveis são um importante aliado, já que 
podem concentrar estes recursos em um único aparelho, 
facilitando a portabilidade e reduzindo o custo. Estudos 
testaram junto a PDV aplicativos para comunicar-se em 
redes sociais [13], locomover-se [14], reconhecer cédulas de 
dinheiro [36] e realizar tarefas no âmbito acadêmico [40]. 
Estes são apenas alguns exemplos que ilustram o potencial 
dos dispositivos móveis na inclusão social e digital de PDV. 
No entanto, diferentes estudos têm relatado uma série de 
problemas na interação de PDV com estes dispositivos. 
Especificamente relacionado ao hardware dos aparelhos, 
naqueles mais recentes, há uma tendência ter-se cada vez 
menos botões físicos, que por sua posição fixa, são 
considerados mais fáceis de acessar por PDV [31]. 
Relacionado ao software, tem sido relatadas falhas na 
interação baseada em gestos de toque [23,26,33,37], forma 
de interação que é utilizada para controlar o leitor de tela dos 
dispositivos. A dificuldade para aprender a realizar estes 
gestos tem sido apontada como uma das razões para estas 
falhas [37]. 
Os problemas apontados impedem que PDV usufruam de 
benefícios que dispositivos móveis podem trazer. Este 
trabalho tem como objetivo (a) mapear os problemas de 
acessibilidade de PDV aos dispositivos e (b) avaliar um 
conjunto alternativo de gestos de toque realizados por PDV 
que possibilite melhor precisão na interação com telas de 
toque. 
Este trabalho foi organizado da seguinte maneira: a seção 2 
apresenta os trabalhos relacionados à acessibilidade de 
dispositivos móveis considerando estudos sistemáticos e de 
gestos de toque, a seção 3 descreve a primeira etapa deste 
trabalho e a seção 4 descreve o estudo empírico de gestos de 
toque. Por fim, a seção 5 conclui este trabalho. 
 
 
 
 
 
Permission to make digital or hard copies of all or part of this work for 
personal or classroom use is granted without fee provided that copies are 
not made or distributed for profit or commercial advantage and that copies 
bear this notice and the full citation on the first page. To copy otherwise, or 
republish, to post on servers or to redistribute to lists, requires prior specific 
permission and/or a fee. Proceedings of IHC'16, Brazilian Symposium on 
Human Factors in Computing Systems. October 04-07, 2016, São Paulo, 
São Paulo, Brazil. Copyright 2016 SBC. ISBN 978-85-7669-346-8 (online). 
TRABALHOS RELACIONADOS 
Essa seção apresenta trabalhos relacionados às duas etapas 
dessa pesquisa. De acordo com a revisão bibliográfica 
realizada nessa pesquisa, apenas um estudo, conduzido por 
Hakobyan et al. [19], adotou a técnica de revisão sistemática 
para investigar o tema de acessibilidade de dispositivos 
móveis. A busca considerou as bases Web of Science, 
PubMed, Elsevier e Springer, obtendo resultados até 
novembro de 2011. Os autores incluíram 168 artigos, cuja 
análise mostrou haver dois campos de estudos de 
acessibilidade: um se refere a acessibilidade da interface dos 
dispositivos móveis em si, como a interação por gestos de 
toque, por exemplo, e outra se refere a usar os dispositivos 
móveis para auxiliar em tarefas diárias. 
Diferentemente, a primeira etapa deste trabalho tem como 
objetivo investigar o primeiro campo, focando nas formas de 
interação de PDV com a interface de dispositivos móveis. 
Além disso, optou-se por incluir outras bases de dados como 
a Association for Computing Machinery Digital Library 
(ACM) e a IEEE Xplore Digital Library (IEEE). 
Com relação à segunda etapa do presente trabalho, uma série 
de estudos tem abordado a realização de gestos de toque por 
PDV. McGookin et al. [28] analisaram a interação de pessoas 
(com os olhos vendados) com tocadores de música. Os 
resultados indicaram haver dificuldades para o correto 
reconhecimento de deslizamentos com um dedo na direção 
vertical e de toques simples com um dedo. 
Já para smartphones, Kane et al. [20] desenvolveram o Slide 
Rule, sistema de interação baseada em gestos de 
deslizamentos vertical, horizontal, livres e em forma de “L”. 
Os resultados indicaram haver menor tempo para execução 
de tarefas usando os gestos do Slide Rule, no entanto, o 
número de erros foi maior, quando comparada à interação 
por botões físicos. 
Kane et al. [22] investigaram as diferenças de realização de 
gestos por pessoas com e sem deficiência visual. Foi 
identificado que o número de traços, o tamanho, o tempo e a 
variabilidade são maiores nos gestos realizados pelas PDV. 
Oh et al. [33] avaliaram duas formas de ensinar PDV a 
realizarem gestos em telas sensíveis ao toque. Uma das 
formas usa retorno verbal e outra sonificação, para indicar 
características dos gestos como localização, tamanho, 
velocidade, direção e forma. Apesar da maioria dos 
participantes preferirem a correção verbal, houve avaliação 
positiva, por exemplo,para indicar a velocidade do gesto por 
meio da sonificação. 
Luthra e Ghosh [26] estudaram os gestos do leitor de tela 
TalkBack, disponível na plataforma Android. Os gestos em 
forma de “L” tiveram baixo desempenho, não sendo 
interpretados corretamente pelo sistema. Apesar disso, os 
participantes do estudo (PDV) avaliaram estes gestos como 
fáceis de fazer. 
Rodrigues et al. [37], por meio de um estudo longitudinal de 
oito semanas, investigaram o processo de adoção de 
smartphones por PDV. Foi identificado que o tutorial de 
explicação do leitor de tela TalkBack é ineficiente, tendo os 
participantes concluído apenas uma das cinco tarefas 
disponíveis. Também, quatro dos cinco participantes não 
conseguiram fazer gestos representados pela letra “L”, 
mesmo após 15 tentativas. 
Os estudos de Luthra et al. [26] e Rodrigues et al. [37], 
apesar de analisarem os gestos em forma de “L”, não o fazem 
individualmente, dado que são aceitas oito variações deste 
gesto no leitor de tela TalkBack. O presente trabalho analisa 
de forma individual todos as variações do gesto representado 
pela letra “L” disponíveis no leitor de tela TalkBack. 
ETAPA 1: MAPEAMENTO E RECOMENDAÇÕES 
Planejamento e Condução 
Na fase inicial do mapeamento sistemático foi definida a 
seguinte pergunta norteadora da pesquisa, com base no 
objetivo do trabalho: “Quais são os problemas de 
acessibilidade dos deficientes visuais aos dispositivos 
móveis?”. A partir desta pergunta, foi construída a seguinte 
string de busca1: 
(accessibility OR “assistive technologies” OR “screen reader”) 
AND (blind OR disability OR disabled OR deficiency OR 
handicapped OR impairment OR “visually disabled”) AND 
(android OR ipad OR iphone OR “mobile device” OR “mobile 
phone” OR smartphone OR tablet OR touchscreen OR ubiquity) 
Foram definidas as seguintes bases de dados para realização 
das buscas: Association for Computing Machinery Digital 
Library (ACM), IEEE Xplore Digital Library (IEEE), ISI 
Web of Science (WOS) e Science Direct (SD). A expressão 
de busca genérica definida anteriormente foi adequada para 
cada base de dados, de forma a abranger o título, resumo e 
palavras-chave dos documentos. 
Foram critérios de inclusão: (i) abordar acessibilidade de 
dispositivo móvel e (ii) abordar deficiência visual. Foram 
critérios de exclusão: (i) não abordar interface de dispositivo 
móvel, (ii) ter foco em tarefas que não a interação com o 
dispositivo, (iii) ser solução exclusiva em hardware, (iv) ser 
documento repetido ou (v) versão anterior e (vi) estar em 
idioma diferente do português ou inglês. 
A Tabela 1 mostra os documentos encontrados, incluídos e 
excluídos. Além dos documentos incluídos por meio do 
mapeamento sistemático, foram acrescentados mais cinco 
artigos, considerando citações de outros documentos e 
congressos recentes da área, representados na tabela como 
“EXTRA”. 
 Documentos 
Base Encontrados Excluídos Incluídos 
ACM 73 54 19 
IEEE 49 42 7 
SD 17 17 0 
WOS 106 96 10 
EXTRA 5 - 5 
Total 245 209 41 
Tabela 1. Documentos encontrados, excluídos e incluídos no 
mapeamento sistemático. 
_____________________________________________ 
1Acreditamos que estes termos contemplam outros sistemas como iOS e 
Windows Phone. 
Mapeamento de Problemas 
Esta seção apresenta o mapeamento de problemas 
encontrados na literatura analisada a partir da revisão. Os 
problemas foram mapeados em sete categorias: borda não 
sensível ao toque, botões, comando de voz, entrada de dados, 
interação por gestos, leitor de tela e retorno ao usuário. Na 
Tabela 2 listamos todos os problemas identificados para cada 
categoria. As referências bibliográficas são apontadas em 
cada item. 
A categoria “Borda não sensível ao toque” se refere aos 
problemas relacionados a incapacidade de se diferenciar, por 
meio do tato, as partes da tela que são sensíveis ao toque. Já 
as dificuldades relacionadas a botões físicos, capacitivos e 
virtuais estão incluídas na categoria “Botões”. Os problemas 
referentes a emissão e interpretação de comandos de voz, do 
ponto de vista do usuário e do sistema, respectivamente, 
estão incluídos na categoria “Comandos de voz”. A categoria 
“Entrada de dados” inclui os problemas relativos a escrita de 
texto por meio de teclados com layout QWERTY, físicos e 
virtuais, bem como formas alternativas como “Braille” e 
teclados multitoque. Os problemas relacionados à interação 
com o leitor de tela utilizando gestos de toque estão relatados 
na categoria “Interação por gestos”. Na categoria “Leitor de 
tela” são abordados os problemas sobre a compreensão e 
eficiência da leitura dos elementos da tela de sistemas. Por 
fim, na categoria “Retorno ao usuário” são descritos os 
problemas que envolvem padrões vibratórios e retorno 
auditivo para informar ao usuário sobre o estado de sistemas. 
Recomendações de Acessibilidade 
A seguir apresentamos as recomendações para solucionar os 
problemas identificados na primeira etapa deste estudo 
(Tabela 2). As recomendações foram divididas nas mesmas 
sete categorias dos problemas: borda não sensível ao toque, 
botões, comandos de voz, entrada de dados, interação por 
gestos, leitor de tela e retorno ao usuário. 
Borda Não Sensível ao Toque 
Para os problemas de bordas não sensíveis ao toque, sugere-
se soluções simples e de baixo custo, como a afixação de 
adesivos no contorno da borda permitindo que PDV possam 
se orientar melhor. Esta solução já havia sido utilizada no 
estudo realizado por Bonner et al. [3]. 
Botões 
Com relação aos botões, é preciso realizar pesquisas para 
identificar o número ideal de botões físicos, seu tamanho e 
forma. Algumas iniciativas já foram feitas, no entanto, 
limitaram-se a botões físicos de telefones sem a tecnologia 
de toque [6]. Ainda neste caminho, em uma das fases de 
elaboração de heurísticas do estudo de Mi et al. [29], uma 
das recomendações se referiu a necessidade de botões físicos 
terem diferentes tamanhos, formas e texturas, para facilitar 
sua diferenciação, reforçando a necessidade de mais 
pesquisas neste campo. 
Caso haja disponibilidade de botões físicos no dispositivo, 
recomenda-se associar a estes elementos, as funções dos 
aplicativos em uso, como no protótipo de mapas de tempo 
para PDV criado por Carroll et al. [5]. Neste contexto, os 
participantes do estudo de Chiti e Leporini [8] sugeriram que 
a principal função de cada aplicativo fosse sempre mapeada 
para um mesmo botão virtual, com localização fixa na tela. 
Isso facilitaria o acesso do PDV à principal função de cada 
aplicativo, mesmo que o aplicativo nunca tenha sido 
utilizado. 
Comandos de Voz 
Para solucionar os problemas decorrentes de ruídos externos, 
seria necessário aprimorar os algoritmos de reconhecimento 
de voz utilizados nos dispositivos. Neste campo, devem ser 
considerados os diferentes sotaques, idiomas, entonação e 
particularidades de cada indivíduo, para o reconhecimento 
destes comandos. Com relação ao problema de falta de 
privacidade, o dispositivo deve prover formas alternativas de 
interação que não exponham o usuário, tal como a interação 
por meio de gestos. 
Sugere-se pesquisar outras maneiras de ativar os comandos 
de voz, como por exemplo a inserção de um botão físico, de 
fácil acesso, para ativar instantaneamente o modo de espera 
por comandos, como apontado por Mi et al. [29]. Para 
agilizar a interação no uso de comandos de voz, sugere-se 
permitir a emissão de mais de um comando por vez, como 
abordado no estudo de Zhong et al. [43]. Também, teria 
potencial de melhorar a interação caso os comandos de voz 
pudessem controlar os dispositivos como um todo, e não 
apenas aplicativos particulares, como abordado por Zhong et 
al. [43]. 
Entrada de Dados 
A maior parte dos problemas de entrada de dados se refere à 
velocidade de digitação, tanto parateclados físicos como 
virtuais. Com relação a teclados físicos, a solução passa por 
evitar a disponibilização de teclados que representam mais 
de um caractere por tecla. Para o caso de teclados virtuais, 
uma solução é dividi-lo em várias telas. Entretanto, deve-se 
atentar ao fato de que a transição entre uma tela e outra 
necessita ser realizada sem maiores dificuldades para as 
PDV. Essa abordagem é apresentada por Bonner et al. [3]. 
Uma maneira de aumentar a rapidez da busca de PDV pelas 
teclas é manter a configuração dentro dos padrões mais 
utilizados por eles. Para isso, o dispositivo deve permitir a 
configuração do padrão do teclado. No entanto, sugere-se 
manter a necessidade de confirmação de cada caractere 
digitado pela PDV [39], caso contrário a PDV pode digitar 
palavras erradas. 
Ainda, sugere-se estudar formas de aproximar a localização 
das teclas (numéricas ou de caracteres) à forma feita em 
teclados físicos, em que uma ou mais letras/números servem 
de base para encontrar outras letras/números, como apontado 
por Guerreiro et al. [17] e Chiti e Leporini [8]. O uso de 
marcas táteis no número “5” tiveram avaliação positiva, no 
entanto, são necessários testes em maior escala [8]. 
 
Categoria Problema 
(A) Borda não 
sensível ao toque 
A.1 A borda não sensível ao toque possui dimensões elevadas [10] 
A.2 Não há diferenciação tátil nas bordas da tela [1,9,10,12] 
(B) Botões 
B.1 A ausência de botões físicos dificulta a interação [8,13,27,31] 
B.2 A dimensão pequena dos botões físicos dificulta a interação [7,21] 
B.3 A grande proximidade entre os botões físicos dificulta a interação [28] 
B.4 A grande proximidade entre os botões virtuais dificulta a interação [29] 
B.5 A grande quantidade de botões físicos dificulta a interação [7] 
B.6 Os botões capacitivos não possuem limites físicos, confundindo sua localização com a região da tela sensível ao toque [37] 
B.7 Os botões virtuais acarretam menor sensibilidade tátil [7] 
(C) Comandos de 
voz 
C.1 Apenas um comando de voz é reconhecido por vez [29,43] 
C.2 Há baixa privacidade ao emitir comandos de voz [7] 
C.3 Há diminuição do desempenho do reconhecimento em condições de ruído [7] 
C.4 Há diminuição do desempenho do reconhecimento devido à entonação e à acentuação [7] 
C.5 Há dificuldade para ativar comando de voz [29] 
C.6 Há necessidade de mentalizar instrução por voz, aumentando carga de memória do indivíduo [7] 
C.7 O reconhecimento de voz funciona apenas em alguns aplicativos [43] 
C.8 O uso de comandos de voz é computacionalmente custoso [7] 
(D) Entrada de 
dados 
D.1 A digitação de textos é lenta em teclados QWERTY virtuais [17,34] 
D.2 As teclas mais distantes das bordas são mais difíceis de encontrar do que as mais próximas das bordas, em teclados virtuais 
QWERTY [32] 
D.3 É preciso conhecer previamente Braille para ter bom desempenho de digitação utilizando esta modalidade [13,30] 
D.4 É preciso pressionar uma mesma tecla várias vezes para acessar determinados caracteres em teclados físicos [18,30] 
D.5 É preciso trocar o modo do teclado virtual, para acessar determinados caracteres [23] 
D.6 Há ausência de marca tátil para o número 5, no teclado numérico virtual, e para as letras “F” e “J” no teclado QWERTY virtual 
[8,17] 
D.7 Há erros ao corrigir caracteres digitados equivocadamente, substituindo por fonemas semelhantes, em teclados virtuais [32] 
D.8 Há erros de omissão de caracteres, faltando um ou mais ao digitar palavras em teclados virtuais [32] 
D.9 Há necessidade de confirmação de cada caractere digitado em teclados virtuais [39] 
D.10 Há necessidade de navegar pelo teclado virtual para localizar os caracteres desejados [3] 
D.11 Há um segundo de espera para entrar com cada tecla em teclados virtuais [34] 
D.12 O teclado numérico virtual é denso dificultando, a interação [34] 
(E) Interação por 
gestos 
E.1 A baixa flexibilidade de ângulo e velocidade dos gestos, por parte do sistema, dificultam seu reconhecimento [26] 
E.2 Gestos representados pela forma da letra “L” são difíceis de fazer [26,37] 
E.3 Gestos representados por formas geométricas fechadas (círculo e triângulo) são difíceis de fazer [26] 
E.4 Gestos representados por formas geométricas são lentos de se fazer [26] 
E.5 Há conflito na desambiguação entre dois toques com um dedo e três toques com um dedo [26] 
E.6 Há dificuldade para fazer gestos estando em movimento [24] 
E.7 Há dificuldade para fazer gestos próximos à barra superior de sistemas [23] 
E.8 Há dificuldade para fazer gestos representados por símbolos, sendo maior no caso de pessoas com deficiência visual de nascença 
[22,26] 
E.9 Há dificuldade para fazer o gesto de dois toques com um dedo [38] 
E.10 Há dificuldade para se localizar na tela para realizar gestos [28] 
E.11 Há erros na identificação de gestos multitoque, já que o sistema, por vezes, falha para reconhecer mais de um dedo em contato 
com a tela [38] 
E.12 Há falha de interpretação de gestos em geral, pelo sistema [20,22,26,28] 
E.13 Há mudança indevida de foco ao tentar fazer o gesto dois toques com um dedo [34] 
E.14 Não é possível alterar mapeamento dos gestos às funções do sistema [24] 
E.15 Não há consistência de gestos entre diferentes sistemas [33] 
E.16 Não há gestos que acionam as principais funções do sistema [26] 
E.17 O toque acidental na tela, com outro dedo, prejudica o reconhecimento de gestos [20] 
E.18 Os manuais de explicação de como fazer gestos de toque não são eficientes [29,33,37] 
E.19 Quando um aplicativo aceita gestos de toque próprios, há conflito entre estes gestos e os do leitor de tela do sistema [34] 
(F) Leitor de tela 
F.1 A leitura é linear, demorando para se ter noção global da interface [11,34] 
F.2 A pronúncia de algumas palavras é problemática [1] 
F.3 A voz do leitor de tela é artificial [13] 
F.4 Alguns elementos de interface não são lidos [23,29,34] 
F.5 Há baixa familiaridade com o leitor de tela de dispositivos móveis [35] 
F.6 Há conflito ao usar o leitor de tela do sistema em conjunto com o leitor embutido em aplicativos [9,11] 
F.7 Há desconforto ao ouvir o leitor de tela em ambientes ruidosos [21,34] 
F.8 Há leitura de apenas o que está em foco [11] 
F.9 Não há controle de velocidade de leitura [10,41] 
F.10 Não há um botão para interromper a leitura imediatamente [29] 
F.11 O foco do leitor de tela muda indevidamente [4,34] 
F.12 O foco do leitor de tela não possui uma ordem de navegação lógica [4,34] 
F.13 O leitor de tela é lento [13] 
F.14 O texto lido é, por vezes, inadequado [34] 
(G) Retorno ao 
usuário 
G.1 Há ausência de retorno ao usuário, ao interagir com alguns elementos de interface [34] 
G.2 Há dificuldade para compreender diferentes padrões vibratórios [29] 
G.3 Há dificuldade para compreender a orientação da interface, utilizando apenas o retorno auditivo [4] 
G.4 Retorno auditivo é prejudicado em ambientes ruidosos [23,38] 
G.5 Usar apenas o retorno auditivo não é o suficiente para a interação [38] 
Tabela 2. Síntese do mapeamento de problemas identificados na literatura. 
Interação por Gestos 
Dentre todas as categorias, a interação por gestos foi aquela 
que apresentou maior número de problemas (19 ao todo). 
Isso é justificado pelo fato desse tipo de interação ser muito 
nova, havendo a necessidade de mais estudos e melhorias nos 
algoritmos de reconhecimento de gestos e interação. Uma 
sugestão imediata para esse problema seria utilizar softwares 
que auxiliam no treinamento de PDV para realizar os gestos, 
como o proposto no estudo empírico deste trabalho. Uma 
abordagem semelhante foi adotada por Oh et al. [33], usando 
técnicas de sonificação e verbalização para corrigir gestos 
feitos por PDV. 
Um fator contribui à melhoria do reconhecimento de gestos 
é a diminuição do rigor à forma e velocidade para aceitar 
cada gesto realizado, para evitar o elevado número de erros 
dereconhecimento, como no caso dos gestos em “L” [26,37]. 
Leitor de Tela 
De modo geral, os problemas do leitor de tela dos 
dispositivos móveis ainda são os mesmos existentes em 
computadores fixos. Isso implica que ainda há um campo de 
pesquisa a ser explorado. Sugere-se uma quebra de 
paradigmas nos leitores de telas para dispositivos com telas 
de toque que, hoje, precisam ler a tela sequencialmente sendo 
que o ideal é que lesse a partir do ponto de interesse do 
usuário. Nesse caso, como cada aplicativo possui uma 
interface particular, com elementos dispostos em diferentes 
posições, podem ser pesquisadas estratégias para padronizá-
los, isto é, formas de facilitar a localização da principal 
função de cada um. 
Os problemas de controle do foco do leitor de tela, bem como 
a descrição de elementos de interface, podem ser corrigidos 
seguindo-se boas práticas de programação, como apontado 
por Mi et al. [29]. 
Retorno ao Usuário 
O retorno ao usuário pelos dispositivos pode ser realizado 
através de vibração, sonificação e verbalização. Cada um 
deles apresenta um tipo de problema de acordo com o 
contexto de tipo de usuário. Uma solução genérica seria 
utilizar os três tipos de retorno de acordo com as situações, 
como apontado por Buzzi et al. [4], Carroll et al. [5] e 
Rodriguez-Sanchez et al. [38]. A escolha de qual tipo de 
retorno ao usuário utilizar pode se dar por meio automático 
ou configuração manual, cabendo mais pesquisas neste 
campo. 
ETAPA 2: ESTUDO EMPÍRICO DE GESTOS DE TOQUE 
Após verificar, por meio do mapeamento sistemático, os 
problemas e recomendações de acessibilidade de PDV aos 
dispositivos móveis, realizamos um estudo empírico em uma 
das sete classes dos problemas mapeados. Como foi 
identificado maior número de problemas (19) na classe de 
interação por gestos, o estudo empírico seguiu essa temática. 
Participantes 
Participaram do experimento 12 PDV (4 mulheres e 8 
homens), recrutadas na instituição Projeto Adote um 
Cidadão, situada no município de São Bernardo-SP2. A idade 
dos participantes variou de 45 a 66 anos (Média = 55.1, 
Desvio-padrão = 6.6). Os requisitos para os participantes 
serem incluídos no experimento foram: ter deficiência visual, 
ser usuário experiente de leitor de tela em sistemas desktop e 
ser iniciante ou nunca ter tido contato com tecnologias de 
telas de toque. 
Equipamentos 
Os participantes executaram as tarefas do experimento em 
tablets de 10.1 pol. modelo Samsung Galaxy Note N8000 
com Android 4.4. As bordas da tela do aparelho foram 
adaptadas com uma diferenciação tátil para facilitar a 
identificação da parte sensível ao toque. Um aplicativo 
desenvolvido no contexto deste trabalho armazenou as 
informações de gestos realizados pelos participantes, para 
posterior análise e cálculo de desempenho de 
reconhecimento correto. Uma folha, confeccionada 
manualmente, contendo as formas de diferentes gestos 
descritas em alto relevo, foi disponibilizada aos participantes 
para facilitar a identificação de qual gesto deveria ser 
realizado na tela do tablet. 
Aplicativo para Gestos de Toque 
A aplicação, desenvolvida para plataforma Android, contém 
duas funções: treinamento e coleta de gestos de toque. 
Escolheu-se esta plataforma por ser de código aberto, 
gratuita e amplamente usada no contexto acadêmico. Para 
reconhecer os gestos de toque, foi utilizado o algoritmo 
Protractor [25], disponibilizado pela própria plataforma e 
utilizado no leitor de tela TalkBack. Este algoritmo usa uma 
solução de forma fechada para encontrar o alinhamento 
angular ótimo entre a amostra modelo, previamente 
cadastrada no aplicativo, e a amostra teste, realizada pelo 
usuário na tela do aplicativo. 
O código fonte do leitor de tela TalkBack3 e da plataforma 
de reconhecimento de gestos da Google4 foram examinados 
a fim de verificar os parâmetros considerados no 
reconhecimento de gestos. Isto permitiu estabelecer quatro 
parâmetros: (a) forma, (b) tempo total de realização do gesto, 
(c) tempo para começar a mover o dedo, após tocar a tela, e 
(d) velocidade inicial de realização do gesto. Estes 
parâmetros são avaliados durante a realização de cada gesto 
de toque no aplicativo. 
Modo de Treinamento de Gestos 
No modo de treinamento, o usuário realiza qualquer gesto na 
tela e o aplicativo informa qual gesto foi realizado, 
comparando a forma da amostra feita com as formas das 
amostras previamente cadastradas no aplicativo. O aplicativo 
informa, por meio de áudio, qual gesto foi realizado e qual é 
a sua função no sistema. Também, é capaz de informar ao 
usuário, por meio de áudio, os casos em que não houve 
atendimento aos parâmetros da plataforma. 
Modo de Coleta de Gestos 
No modo de coleta de dados, o aplicativo pede ao usuário 
para fazer um determinado gesto, pressionando, em seguida, 
_____________________________________________ 
2http://www.adoteumcidadao.com.br, último acesso em 8 Jun 2016 
3https://code.google.com/p/eyes-free, último acesso em 20 Dez 2015 
4https://developer.android.com/reference, último acesso em 10 Jun 2016 
um botão de confirmação. Cada gesto é solicitado por meio 
de áudio e sua confirmação também é informada. Neste caso, 
os erros não são informados e os dados são armazenados para 
posterior avaliação. Nestes dados, cada gesto de toque é 
composto por um conjunto de pontos com as seguintes 
informações: identificação do equipamento, identificação da 
sessão, identificação do participante, identificação do tipo de 
gesto, coordenadas cartesianas x e y e tempo de ocorrência. 
Desempenho dos Gestos 
Neste trabalho são avaliados ao todo 27 diferentes tipos de 
gestos, dos quais 16 já existem no TalkBack e 9 foram 
extraídos da literatura [20,22,26,28,37]. Consideramos que 
para estes gestos, ainda não houve avaliação individual que 
considerasse parâmetros da plataforma Android. Os 27 
gestos estão divididos em cinco grupos: (a) Básicos, (b) Vai-
e-Vem, (c) Em-L, (d) Símbolos e (e) Figuras. A Figura 1 
apresenta a forma dos 27 gestos cadastrados no aplicativo 
para comparação com as amostras teste realizadas pelos 
participantes durante o experimento. Os grupos (a), (b) e (c) 
contém os 16 gestos do TalkBack e os grupos (d) e (e) contém 
os gestos extraídos da literatura. 
Em uma abordagem inicial, as amostras teste feitas pelos 
participantes foram comparadas com amostras modelo já 
disponíveis pelo leitor de tela TalkBack e por amostras feitas 
pelo pesquisador, o que denominamos de modelo Padrão P0. 
Para cada gesto há uma forma cadastrada no aplicativo, a 
qual a amostra teste deve ser comparada. 
Após a obtenção de todas as amostras testes dos 
participantes, recriamos o modelo de comparação usando 
estas amostras e recalculamos o desempenho de todos os 
gestos. Isto foi realizado para minimizar a influência das 
amostras de comparação do TalkBack e do pesquisador no 
desempenho. Assim, o novo modelo de comparação, que 
denominamos de Procrustes, contém as características das 
amostras feitas pelos participantes. 
A esse novo conjunto de gestos de comparação 
denominamos de modelo Procrustes (P1, P2 e P3), nome que 
se refere ao algoritmo de análise estatística de formas 
geométricas desenvolvido por Gower [16]. No caso dos 
gestos de toque, dado um conjunto de amostras de gestos de 
exemplo, o algoritmo permite deixar todas as amostras em 
uma mesma posição, tamanho e rotação. No caso dos gestos 
de toque coletados neste trabalho, os dados de entrada, 
possuíam, inicialmente, diferentes números de pontos, assim, 
foi preciso, antes, normalizar cada amostra do mesmo tipo 
para uma quantidade igual de pontos. Isso resultou na 
geração de três modelos novos, para cada tipo de gesto, com 
número de pontos mínimo (P1), máximo (P2) e médio (P3). 
Além da forma dos gestos, que é avaliada sob as óticas 
Padrão e Procrustes, o desempenhotambém é avaliado em 
conjunto com parâmetros da plataforma Android. Entre estes 
parâmetros estão: tempo total de realização do gesto, tempo 
para começar a mover o dedo, após tocar a tela, e velocidade 
inicial de realização do gesto. Ao adotar a análise da forma 
em conjunto com os três parâmetros, de forma simultânea, 
simula-se o ambiente real de execução do leitor de tela 
TalkBack. 
Procedimento 
O estudo com usuários durou cinco horas, divididas em duas 
sessões de duas horas e trinta minutos. O experimento 
consistiu em duas fases: treinamento e coleta de gestos. 
Treinamento de Gestos de Toque 
Inicialmente os participantes foram apresentados ao tablet e 
à folha de gestos em alto relevo. O aplicativo foi aberto na 
modalidade de treinamento de gestos e os participantes 
foram orientados a verificar a forma dos gestos na folha de 
alto relevo e a reproduzi-las no tablet. Esta etapa teve 
duração de 30 minutos, tempo em que todos os participantes 
realizaram pelo menos uma amostra correta de cada um dos 
27 gestos. Caso algum gesto fosse realizado de forma 
incorreta, o aplicativo informava via voz, a ocorrência do 
erro, sendo orientado pelo coordenador das atividades sobre 
como resolvê-los. 
Coleta de Gestos de Toque 
O aplicativo de gestos foi aberto na modalidade de coleta, 
que solicita por voz para o participante fazer um gesto e 
 
Figura 1: Forma dos 27 gestos de toque (modelo Padrão em verde e modelo Procrustes P3 em vermelho). Gestos do TalkBack: (a) Básicos, (b) Vai-e-
Vem e (c) Em-L. Gestos novos: (d) Símbolos e (e) Figuras. 
 
confirmá-lo por meio do botão de volume. Nesta 
modalidade, o aplicativo não retorna qualquer informação 
quanto a ocorrência de erros, gravando em texto todos os 
dados capturados pela interface de toque. Ao todo foram 
solicitados 54 gestos de toque para cada participante, sendo 
duas amostras para cada tipo. Foi permitido o uso da folha de 
gestos em alto relevo, caso houvesse necessidade de lembrar 
a forma. 
Resultados do Estudo Empírico 
Esta seção apresenta o desempenho dos 642 gestos 
considerando os seguintes parâmetros: forma (A), tempo 
total de realização de gesto (B), tempo para começar a mover 
o dedo, após tocar a tela (C) e velocidade de realização do 
gesto (D). O número total de amostras por gesto é 24, exceto 
para os gestos “Direita-Esquerda” e “Baixo-Cima”, que foi 
de 22, e os gestos “Cima-Baixo” e “N” que foi de 23. 
Desempenho de Acordo com a Forma 
Os melhores desempenhos foram obtidos pelos gestos 
“Esquerda” e “Direita”, apresentando 100% de 
reconhecimento correto cada um, considerando o modelo P0. 
O gesto Triângulo obteve o pior desempenho (37.5%). Com 
relação ao modelo P1, o pior resultado foi obtido pelo gesto 
símbolo menor (12.5%). Com relação aos modelos P2 e P3, 
o pior desempenho foi obtido pelo gesto “Cima”, em ambos 
os casos, com 4.2% (ver Tabela 3). 
Os desempenhos para os símbolos “Z”, “V” e “V de ponta 
cabeça”, obtiveram, respectivamente, 91,7%, 88,5% e 85,4% 
de reconhecimento correto, valores próximos aos gestos 
Básicos do TalkBack. Com relação à vantagem de se adotar 
novos modelos de comparação da forma, dez gestos 
apresentam desempenho superior usando um dos modelos P1 
a P3, quando comparados ao modelo P0. Entre estes gestos 
estão “Esquerda-Direita”, “V”, “Baixo-Cima”, “V de ponta 
cabeça”, “Direita-Esquerda”, “Baixo-Esquerda”, “Símbolo 
Maior”, “Esquerda-Baixo”, “Triângulo” e “Símbolo Menor”. 
As melhores mudanças foram do gesto “Triângulo” que 
passou de 37,5% para 54,2% e do gesto “Símbolo Maior”, de 
41,7% para 79,2%. 
Apesar disso, não houve melhora de desempenho dos 642 
gestos como um todo adotando-se os modelos P1-P3. Dos 27 
gestos, 17 apresentam queda de desempenho, sendo a maior 
a do gesto “Cima”, que passou de 95,8% (P0 e P1) para 4,2% 
(P2 e P3). Outro piora importante foi a do gesto “Cima-
Esquerda”, passando de 79,2% (P1) para 20,8% (P2 e P3). 
Desempenho de Acordo com os Outros Parâmetros 
Esta seção mostra o desempenho dos gestos conforme os 
seguintes parâmetros: forma (A), tempo para iniciar o 
movimento (B), tempo total (C) e velocidade inicial (D). 
Estes parâmetros foram combinados em quatro diferentes 
conjuntos: AB, AC, AD e ABCD. A letra “A” representa o 
parâmetro da forma usando o modelo Padrão (P0). 
Adotando-se o conjunto AB, os gestos “Esquerda”, “Direita” 
e “Cima-Baixo” tiveram o melhor desempenho (100% de 
reconhecimento correto cada). Por outro lado, o gesto 
“Triângulo” obteve o pior desempenho, com 25%. Com 
relação aos novos gestos (grupos Símbolos e Figuras), “Z”, 
“V de ponta cabeça” e “V” obtiveram desempenho acima de 
70.8% (ver Tabela 4). 
Gesto n Modelo (%) P0 P1 P2 P3 𝑃" 
Esquerda 24 100.0 100.0 100.0 100.0 100.0 
Direita 24 100.0 100.0 100.0 100.0 100.0 
Baixo 24 95.8 95.8 95.8 95.8 95.8 
Cima-Baixo 23 95.8 95.8 95.8 95.8 95.8 
Esquerda-Direita 24 91.7 95.8 95.8 95.8 94.8 
Z 24 91.7 91.7 91.7 91.7 91.7 
V 24 83.3 87.5 91.7 91.7 88.5 
Baixo-Cima 22 79.2 91.7 87.5 87.5 86.5 
V de ponta cabeça 24 83.3 87.5 83.3 87.5 85.4 
Direita-Esquerda 22 75.0 87.5 87.5 87.5 84.4 
Baixo-Esquerda 24 70.8 83.3 83.3 83.3 80.2 
Cima-Direita 24 79.2 79.2 79.2 79.2 79.2 
S 24 75.0 70.8 75.0 75.0 74.0 
Baixo-Direita 24 70.8 70.8 70.8 70.8 70.8 
Maior 24 41.7 79.2 79.2 79.2 69.8 
C 24 70.8 70.8 66.7 70.8 69.8 
Esquerda-Cima 24 66.7 66.7 62.5 62.5 64.6 
Esquerda-Baixo 24 58.3 62.5 62.5 62.5 61.5 
N 23 70.8 50.0 54.2 50.0 56.3 
Triângulo 24 37.5 54.2 54.2 54.2 50.0 
Cima 24 95.8 95.8 4.2 4.2 50.0 
C espelhado 24 54.2 41.7 45.8 41.7 45.8 
Direita-Cima 24 58.3 41.7 41.7 41.7 45.8 
Círculo 24 50.0 33.3 33.3 33.3 37.5 
Cima-Esquerda 24 79.2 25.0 20.8 20.8 36.5 
Menor 24 45.8 12.5 70.8 12.5 35.4 
Direita-Baixo 24 75.0 20.8 20.8 20.8 34.4 
Tabela 3. Percentual de gestos corretos considerando a forma como 
parâmetro único e usando os modelos P0 a P3. 𝑷$ representa a média 
aritmética dos quatro modelos. 
Gesto n Parâmetro AB AC AD ABCD 
Baixo 24 95.8 79.2 29.2 29.2 
Esquerda-Direita 24 87.5 75.0 29.2 29.2 
Baixo-Cima 22 81.8 68.2 27.3 22.7 
Direita-Esquerda 22 81.8 72.7 22.7 22.7 
Direita 24 100.0 79.2 20.8 20.8 
Cima 24 95.8 91.7 20.8 20.8 
Esquerda 24 100.0 79.2 16.7 16.7 
Direita-Baixo 24 70.8 58.3 16.7 16.7 
Cima-Baixo 23 100.0 91.3 13.0 13.0 
Z 24 79.2 75.0 16.7 12.5 
Esquerda-Cima 24 66.7 58.3 8.3 8.3 
Símbolo Menor 24 45.8 37.5 8.3 8.3 
S 24 66.7 66.7 8.3 8.3 
N 23 65.2 65.2 4.3 4.3 
Círculo 24 41.7 33.3 4.2 4.2 
Baixo-Direita 24 70.8 54.2 8.3 4.2 
Triângulo 24 25.0 16.7 4.2 4.2 
Cima-Direita 24 75.0 66.7 4.2 4.2 
C 24 70.8 62.5 0 0 
Baixo-Esquerda 24 62.5 54.2 0 0 
Símbolo Maior 24 41.7 41.7 0 0 
Esquerda-Baixo 24 50.0 45.8 0 0 
C espelhado 24 54.2 41.7 0 0 
Direita-Cima 24 54.2 45.8 0 0 
Cima-Esquerda 24 70.8 45.8 0 0 
V de ponta cabeça 24 83.3 58.3 4.2 0 
V 24 79.2 79.2 0 0 
Total 642 70.9 60.7 9.8 9.2 
Tabela 4. Percentual de gestos corretos considerando a forma 
combinada com um ou mais dos seguintes parâmetros: tempo para 
iniciar o movimento (B), tempo total (C) e velocidade inicial (D). 
Considerando o conjunto de parâmetros AC, os gestos 
“Cima” e “Cima-Baixo” tiveram o melhor desempenho, com 
91.7% e 91.3%, respectivamente. Os gestos Símbolo Menor 
e Círculo tiveram os piores desempenhos, com 37.5% e 
33.3%, respectivamente. Dos novos gestos, as letras “Z” e 
“V” tiveram desempenho acima de 75%. 
Respeito à avaliação usando os conjuntos AD e ABCD, os 
gestos “Baixo” e “Esquerda-Direita” tiveram o melhor 
desempenho, com 29.2% cada. Os gestos “C”, “Baixo-
Esquerda”, “Símbolo Maior”, “Esquerda-Baixo”, “C 
espelhado”, “Direita-Cima”, “Cima-Esquerda”, “V de ponta 
cabeça” e “V” obtiveram os piores valores, com 0% cada. 
Dos novos gestos, a letra “Z” foi o que obteve o melhor 
desempenho, com 12.5%. 
É importantenotar que o acréscimo dos parâmetros B e C no 
cálculo do desempenho dos 642 gestos, fez com que o 
desempenho reduzisse para 70.9% e 60.7%, 
respectivamente. Já a adição do parâmetro D reduziu o 
desempenho geral para 9,2%. 
Discussão Acerca do Estudo Empírico 
Apesar de Kane et al. [22] sugerirem que gestos 
representados por letras não fossem utilizados em sistemas, 
dado que PDV podem ter dificuldade para compreendê-los, 
nossos resultados mostraram que as letras “Z”, “V” e “V de 
ponta cabeça” obtiveram ótimo desempenho. Estes gestos 
podem ser uma importante alternativa como atalhos para as 
funções básicas de aplicativos, como copiar e colar, por 
exemplo. 
Uma possível explicação para o bom desempenho destes 
gestos pode ser o fato de se permitir o uso da folha de gestos 
em alto relevo para a memorização das formas. Assim, esta 
folha pode ter potencial para ser um importante instrumento 
de auxílio na educação de gestos de toque. 
Os gestos do TalkBack que tiveram os piores desempenhos 
foram “Esquerda-Baixo” e “Direita-Cima”, pertencentes ao 
grupo Em-L. Rodrigues et al. [37] também verificaram 
desempenho menor deste grupo, em relação aos outros. 
Por outro lado, Luthra e Ghosh [26] identificaram que os 
gestos angulares, especificamente os Em-L, “Símbolo 
Menor” e “Símbolo Maior” foram avaliados como fáceis de 
fazer, segundo opinião de PDV. A avaliação foi feita por 
meio de escala Likert, em que o participante pontuava entre 
1 e 7 o grau de facilidade para realizar o gesto. O 
desempenho, neste caso, se referiu a opinião dos 
participantes e não ao ponto de vista de reconhecimento do 
sistema. 
Para melhorar o desempenho, adotamos uma segunda 
abordagem, baseada na geração e utilização dos modelos P1 
a P3, para comparação. Com estes modelos, alguns gestos 
tiveram melhor desempenho, como os do grupo Vai-e-Vem, 
e outros tiveram piora, como os dos grupos Em-L e 
Símbolos. 
Usando o modelo P1, o desempenho se manteve próximo ao 
modelo P0. Gestos como o “Símbolo Maior” e “Triângulo” 
obtiveram mais amostras corretas, havendo indícios de que a 
utilização de novos modelos de comparação, gerados 
baseando-se em gestos feitos pelos usuários, é um caminho 
para melhorar o desempenho (é necessário, entretanto, que 
se investiguem formas de manter o desempenho prévio). 
Com relação aos outros parâmetros, no nosso entendimento, 
não foram encontrados na literatura estudos que os 
abordassem especificamente. Nós identificamos que, apesar 
da forma de um gesto estar correta, pode ocorrer de o mesmo 
não ser reconhecido por conta destes outros parâmetros. 
Considerar a velocidade inicial como um dos parâmetros 
para cálculo de desempenho fez com que o número de 
reconhecimentos corretos decaísse bruscamente, 
apresentando valores iguais ou inferiores a 23,9%. Este é um 
indício de que a velocidade inicial é o parâmetro mais 
importante para o reconhecimento adequado das amostras 
teste, deixando em segundo plano os outros parâmetros, 
inclusive a forma do gesto previamente cadastrada no 
aplicativo. 
Nesse contexto, a velocidade de gesto já havia sido 
mencionada no estudo de Oh et al. [33], que usou sonificação 
para orientar o quão rápido está sendo executado um gesto. 
Esta técnica colabora para o ensino de gestos, podendo ser 
objeto de futuras investigações. 
Ainda, Kane et al. [22] recomendaram que a velocidade de 
realização de gestos seja mais flexível e Luthra e Ghosh [26] 
mencionaram a velocidade como fator influenciador das 
falhas dos gestos Em-L. Os resultados do presente trabalho 
corroboram com estas afirmações. Cabe reflexão acerca de 
manter ou não a velocidade como um dos parâmetros para 
reconhecimento de gestos. Uma solução é implementar um 
botão de fácil acesso para entrar/sair do modo de gestos, 
considerando apenas a forma para o reconhecimento. 
CONCLUSÃO 
Este trabalho teve como foco a abordagem da interação de 
PDV com o sistema de dispositivos móveis. Na primeira 
etapa uma série de problemas de acessibilidade foram 
identificados em documentos obtidos por meio de 
mapeamento sistemático, que podem ser alvo de futuras 
pesquisas. Ao todo, foram identificados 65 problemas que 
envolvem a interação de PDV com dispositivos móveis. 
Estes problemas foram mapeados em sete grupos, sendo que 
o grupo que apresentou maior número de problemas foi o de 
interação por gestos, com 19 ao todo. 
Estes problemas podem acarretar na diminuição do acesso ao 
mundo digital por parte de PDV. Também, podem prejudicar 
o uso de aplicativos que auxiliam em tarefas cotidianas. 
Foram feitas 28 recomendações que tem o potencial de 
melhorar a acessibilidade para PDV. 
Na segunda etapa do trabalho, identificamos gestos que 
podem ser implementados em sistemas reais, tendo potencial 
para melhorar o uso dos dispositivos. Os gestos 
representados pelas “V”, “V de ponta cabeça” e “Z” 
apresentaram desempenho próximo dos melhores gestos 
Básicos do Android. Estes gestos podem ser utilizados como 
atalhos para funções de aplicativos, mudando o paradigma 
linear adotado nos leitores de tela. 
Evidenciamos que o reconhecimento de gestos de toque 
possui influência da forma previamente cadastrada no leitor 
de tela. Sugere-se que os gestos utilizados como padrão de 
comparação sejam dinâmicos, ou seja, sejam atualizados 
periodicamente. Dessa forma, o usuário melhoraria sua 
precisão ao executar os gestos de toque, cometendo menos 
erros e tendo maior eficiência no uso dos aplicativos. 
Outros parâmetros, além da forma dos gestos, influenciam 
no desempenho do reconhecimento, parâmetros estes que 
não foram, ainda, abordados na literatura. A velocidade foi o 
parâmetro que mais contribuiu negativamente para o 
reconhecimento, sendo sugerido que se evite seu uso no 
reconhecimento de gestos. 
AGRADECIMENTOS 
Os autores agradecem à UFABC e à CAPES. Agradecemos 
também aos revisores anônimos e aos professores André 
Luiz Brandão, Edson Pinheiro Pimentel, Ig Ibert Bittencourt 
e Yossi Zana pelas valiosas contribuições a este trabalho. 
REFERÊNCIAS 
1. Ana Flavia de Andrade da Silva, Annibal Biondi Mendes da 
Silva, Veronica Oliveira Pontes, Elaine Naomi Watanabe, 
Marcia Ito, and Vagner Figueredo de Santana. 2013. Estudo 
sobre o uso de tablets como ferramenta de suporte à interação 
De pessoas cegas com painéis digitais. In Proceedings of the 
12th Brazilian Symposium on Human Factors in Computing 
Systems. Brazilian Computer Society, 268–271. 
2. Rita Bersch. 2008. Introdução à tecnologia assistiva. Porto 
Alegre: CEDI (2008). 
3. Matthew N. Bonner, Jeremy T. Brudvik, Gregory D. Abowd, 
and W. Keith Edwards. 2010. No-look notes: accessible eyes-
free multi-touch text entry. In Proceedings of the 8th 
International Conference on Pervasive Computing. Springer, 
409–426. 
4. Maria Claudia Buzzi, Marina Buzzi, Barbara Leporini, and 
Maria Teresa Paratore. 2013. Vibro-tactile enrichment improves 
blind user interaction with mobile touchscreens. In Human-
Computer Interaction - INTERACT 2013. Springer, 641–648. 
5. Dustin Carroll, Suranjan Chakraborty, and Jonathan Lazar. 
2013. Designing accessible visualizations: The case of 
designing a weather map for blind users. In Proceedings of the 
7th International Conference on Universal Access in Human-
Computer Interaction: Design Methods, Tools, and Interaction 
Techniques for eInclusion. Springer, 436–445. 
6. Tamal Chakraborty and Debasis Samanta. 2012. BlindGuide: 
An audio based eyes-free caller guide for people with visual 
impairment. In 4th International Conference on Intelligent 
Human Computer Interaction. IEEE, 1-6. 
7. Tuhin Chakraborty and Debasis Samanta. 2013. Exploring an 
effective interaction mode for blind mobile users in india. In 
Proceedings of the 11th Asia Pacific Conference on Computer 
Human Interaction. ACM, 371–378. 
8. Sarah Chitiand Barbara Leporini. 2012. Accessibility of 
Android-based mobile devices: A prototype to investigate 
interaction with blind users. In Computers Helping People with 
Special Needs: 13th International Conference. Springer, 607–
614. 
9. Yoonjung Choi and Ki-Hyung Hong. 2012. User requirements 
for camera-based mobile applications on touch screen devices 
for blind people. In Computers Helping People with Special 
Needs: 13th International Conference. Springer, 48–51. 
10. Laisa C.P. Costa, Nicholas S. Almeida, Ana G.D. Correa, Roseli 
D. Lopes, and Marcelo K. Zuffo. 2013. Accessible display 
design to control home area networks. IEEE Transactions on 
Consumer Electronics 59, 2(2013): 422–427. 
11. Sabine Croxford and Cathy Rundle. 2013. Blind people and 
apps on mobile phones and tablets - Challenges and 
possibilities. In Proceedings of the International Conference on 
Ergonomics & Human Factors. Taylor & Francis, 343–346. 
12. Yasmine N. El-Glaly, Francis Quek, Tonya Smith-Jackson, and 
Gurjot Dhillon. 2013. Touch-screens are not tangible: fusing 
tangible interaction with touch glass in readers for the blind. In 
Proceedings of the 7th International Conference on Tangible, 
Embedded and Embodied Interaction. ACM, 245–253. 
13. Agebson Rocha Façanha, Windson Viana, Mauro Cavalcante 
Pequeno, Márcia de Borba Campos, and Jaime Sánchez. 2014. 
Touchscreen mobile phones virtual keyboarding for people with 
visual disabilities. In Human-Computer Interaction. 
Applications and Services. Springer, 134–145. 
14. Aura Ganz, James M. Schafer, Yang Tao, Carole Wilson, and 
Meg Robertson. 2014. PERCEPT-II: Smartphone based indoor 
navigation system for the blind. In 36th Annual International 
Conference of the IEEE Engineering in Medicine and Biology 
Society. 3662–3665. 
15. Marta Gil. 2000. Deficiência Visual. Ministério da Educação, 
Brasília (2000). 
16. John C Gower. 1975. Generalized procrustes analysis. 
Psychometrika 40, 1 (1975): 33–51. 
17. João Guerreiro, André Rodrigues, Kyle Montague, Tiago João 
Vieira Guerreiro, Hugo Nicolau, and Daniel Gonçalves. 2015. 
Tablets get physical: non-visual text entry on tablet devices. In 
Proceedings of the 17th International ACM SIGACCESS 
Conference on Computers and Accessibility. ACM, 39–42. 
18. Tiago Guerreiro, Hugo Nicolau, Joaquim Jorge, and Daniel 
Gonçalves. 2009. NavTap: a long term study with excluded 
blind users. In Proceedings of the 11th International ACM 
SIGACCESS Conference on Computers and Accessibility. 
ACM, 99–106. 
19. Lilit Hakobyan, Jo Lumsden, Dympna O’Sullivan, and Hannah 
Bartlett. 2013. Mobile assistive technologies for the visually 
impaired. Survey of Ophthalmology 58, 6 (2013): 513–528. 
20. Shaun K Kane, Jeffrey P Bigham, and Jacob O Wobbrock. 
2008. Slide rule: making mobile touch screens accessible to 
blind people using multi-touch interaction techniques. In 
Proceedings of the 10th international ACM SIGACCESS 
conference on Computers and accessibility. ACM, 73–80. 
21. Shaun K. Kane, Chandrika Jayant, Jacob O. Wobbrock, and 
Richard E. Ladner. 2009. Freedom to roam: a study of mobile 
device adoption and accessibility for people with visual and 
motor disabilities. In Proceedings of the 11th International 
ACM SIGACCESS Conference on Computers and Accessibility. 
ACM, 115–122. 
22. Shaun K. Kane, Jacob O. Wobbrock, and Richard E. Ladner. 
2011. Usable gestures for blind people: understanding 
preference and performance. In Proceedings of the SIGCHI 
Conference on Human Factors in Computing Systems. ACM, 
413–422. 
23. Barbara Leporini, Maria Claudia Buzzi, and Marina Buzzi. 
2012. Interacting with mobile devices via VoiceOver: usability 
and accessibility issues. In Proceedings of the 24th Australian 
Computer-Human Interaction Conference. ACM, 339–348. 
24. Frank Chun Yat Li, David Dearman, and Khai N. Truong. 2010. 
Leveraging proprioception to make mobile phones more 
accessible to users with visual impairments. In Proceedings of 
the 12th International ACM SIGACCESS Conference on 
Computers and Accessibility. ACM, 187-194. 
25. Yang Li. 2010. Protractor: a fast and accurate gesture 
recognizer. In Proceedings of the SIGCHI Conference on 
Human Factors in Computing Systems. ACM, 2169–2172. 
26. Vikas Luthra and Sanjay Ghosh. 2015. Understanding, 
evaluating and analyzing touch screen gestures for visually 
impaired users in mobile environment. In Universal Access in 
Human-Computer Interaction. Access to Interaction. Springer, 
25–36. 
27. Norbert Markus, Szabolcs Malik, Zoltan Juhasz, and András 
Arató. 2012. Accessibility for the blind on an open-source 
mobile platform: Mobile Slate Talker (MOST) for Android. In 
Proceedings of the 13th International Conference on 
Computers Helping People with Special Needs. Springer, 599–
606. 
28. David McGookin, Stephen Brewster, and WeiWei Jiang. 2008. 
Investigating touchscreen accessibility for people with visual 
impairments. In Proceedings of the 5th Nordic Conference on 
Human-computer Interaction: Building Bridges. ACM, 298–
307. 
29. Na Mi, Lora A. Cavuoto, Kenneth Benson, Tonya Smith-
Jackson, and Maury A. Nussbaum. 2014. A heuristic checklist 
for an accessible smartphone interface design. Universal Access 
in the Information Society 13, 4 (2014): 351–365. 
30. S. Misra, S.M. Banubakode, and C.A. Dhawale. 2014. Novel 
user interface for text entry on touch screen mobile device for 
visually impaired users. In Global Summit on Computer 
Information Technology. IEEE, 1–5. 
31. T. Miura, H. Matsuzaka, M. Sakajiri, and T. Ono. 2012. Usages 
and demands to touchscreen interface: A questionnaire survey 
in Japanese visually impaired people. In IEEE International 
Conference on Systems, Man, and Cybernetics. IEEE, 2933–
2938. 
32. Hugo Nicolau, Kyle Montague, André Rodrigues, Tiago 
Guerreiro, and Vicki Hanson. 2015. Typing performance of 
blind users: An analysis of touch behaviors, learning effect, and 
in-situ usage. In Proceedings of the 17th International ACM 
SIGACCESS Conference on Computers and Accessibility 
(2015). 
33. Uran Oh, Shaun K. Kane, and Leah Findlater. 2013. Follow that 
sound: using sonification and corrective verbal feedback to 
teach touchscreen gestures. In Proceedings of the 15th 
International ACM SIGACCESS Conference on Computers and 
Accessibility. ACM, 13. 
34. Kyudong Park, Taedong Goh, and Hyo-Jeong So. 2014. Toward 
accessible mobile application design: developing mobile 
application accessibility guidelines for people with visual 
impairment. In Proceedings of HCI Korea, Hanbit Media, Inc., 
31–38. 
35. Marc Pous, Circe Serra-Vallmitjana, Rafael Giménez, Marc 
Torrent-Moreno, and David Boix. 2012. Enhancing 
accessibility: Mobile to ATM case study. In IEEE Consumer 
Communications and Networking Conference. IEEE 404-408. 
36. Mihály Radványi, Zóra Solymár, Attila Stubendek, and Kristóf 
Karacs. 2011. Mobile banknote recognition: Topological 
models in scene understanding. In Proceedings of the 4th 
International Symposium on Applied Sciences in Biomedical 
and Communication Technologies. ACM, 185:1-185:5. 
37. André Rodrigues, Kyle Montague, Hugo Nicolau, and Tiago 
Guerreiro. 2015. Getting smartphones to TalkBack: 
Understanding the smartphone adoption process of blind users. 
In Proceedings of the 17th International ACM SIGACCESS 
Conference on Computers and Accessibility (2015). 
38. MC Rodriguez-Sanchez, MA Moreno-Alvarez, E Martin, S 
Borromeo, and JA Hernandez-Tamames. 2014. Accessible 
smartphones for blind users: A case study for a wayfinding 
system. Expert Systems with Applications 41, 16 (2014): 7210–
7222. 
39. Vaspol Ruamviboonsuk, Shiri Azenkot, and Richard E. Ladner. 
2012. Tapulator: A non-visual calculator using natural prefix-
free codes. In Proceedings of the 14th International ACM 
SIGACCESS Conference on Computersand Accessibility, 
ACM, 221–222. 
40. Janaina Silva, Juliana Cristina Braga, and Rafael Jeferson 
Pezzuto Damaceno. 2015. Estudo de Aplicativos Móveis para 
Deficientes Visuais no Âmbito Acadêmico. In Anais do 
Simpósio Brasileiro de Informática na Educação, Vol. 26. 722. 
41. Pawel Strumillo, Piotr Skulimowski, and Maciej Polanczyk. 
2009. Programming Symbian smartphones for the blind and 
visually impaired. In Computers in Medical Activity. Springer. 
129–136. 
42. World Health Organization (WHO). 1993. International 
Classification of Impairments, Disabilities, and Handicaps: A 
Manual of Classification Relating to the Consequences of 
Disease. Geneva: World Health Organization (WHO). 
43. Yu Zhong, T. V. Raman, Casey Burkhardt, Fadi Biadsy, and 
Jeffrey P. Bigham. 2014. JustSpeak: enabling universal voice 
control on Android. In Proceedings of the 11th Web for All 
Conference.

Outros materiais