Baixe o app para aproveitar ainda mais
Prévia do material em texto
Acessibilidade de Dispositivos Móveis: Mapeamento de Problemas e Estudo de Gestos de Toque Rafael Jeferson Pezzuto Damaceno Universidade Federal do ABC rafael.damaceno@ufabc.edu.br Juliana Cristina Braga Universidade Federal do ABC juliana.braga@ufabc.edu.br Jesús Pascual Mena Chalco Universidade Federal do ABC jesus.mena@ufabc.edu.br ABSTRACT Mobile devices can be a valuable in improving the quality of life of visually impaired people, enabling greater independence to perform daily tasks. A review was carried out to map the existing accessibility problems in the interaction of people with visual impairment with mobile devices. Seven groups of problems were found, which allowed establishment a set of recommendations and future studies to improve accessibility on mobile devices. A case study was planned and conducted addressing the group “gesture-based interaction”, which had the highest number of problems in the literature review. The empirical study aimed to evaluate touch gestures made by 12 visually impaired people by using an application developed for this purpose. Gestures represented by the letters “V” and “Z” had performance similar to those already available on the Android Platform. Other factors have influenced the recognition with speed being the main factor in reducing the performance of gestures. Author Keywords Mobile devices; visually impaired people; accessibility; touch-screen; gestures; systematic review; empirical study. ACM Classification Keywords H.5.2. User Interfaces: Human-centered computing; Empirical studies in accessibility; INTRODUÇÃO Segundo a Organização Mundial da Saúde (OMS), deficiência visual é definida como a perda total ou parcial, congênita ou adquirida, da visão. Há dois grupos de deficiência: cegueira e baixa visão. Na cegueira há perda total da visão ou pouquíssima capacidade de enxergar, até a perda de percepção luminosa. A baixa visão caracteriza-se pela alteração da capacidade funcional da visão, conservando resíduos de visão [42]. No caso da adquirida, o indivíduo nasce com o sentido da visão, tendo a possibilidade de guardar memórias visuais. No caso da congênita, não há esta possibilidade, pois o indivíduo nasce sem a capacidade da visão [15]. A deficiência visual acarreta dificuldades nas habilidades básicas de um indivíduo, tais como mobilidade, execução de atividades diárias e profissionais, comunicação, entre outras [15]. Como aliado para contrapor estas dificuldades existe a tecnologia assistiva, termo que se refere ao conjunto de recursos e serviços que contribuem para a ampliação de habilidades funcionais deficitárias, proporcionando à pessoa com deficiência independência, qualidade de vida e inclusão social [2]. São exemplos destes recursos, especificamente para pessoas com deficiência visual (PDV), leitores de tela e de textos impressos, impressoras Braille, lentes e lupas eletrônicas [2]. Os dispositivos móveis são um importante aliado, já que podem concentrar estes recursos em um único aparelho, facilitando a portabilidade e reduzindo o custo. Estudos testaram junto a PDV aplicativos para comunicar-se em redes sociais [13], locomover-se [14], reconhecer cédulas de dinheiro [36] e realizar tarefas no âmbito acadêmico [40]. Estes são apenas alguns exemplos que ilustram o potencial dos dispositivos móveis na inclusão social e digital de PDV. No entanto, diferentes estudos têm relatado uma série de problemas na interação de PDV com estes dispositivos. Especificamente relacionado ao hardware dos aparelhos, naqueles mais recentes, há uma tendência ter-se cada vez menos botões físicos, que por sua posição fixa, são considerados mais fáceis de acessar por PDV [31]. Relacionado ao software, tem sido relatadas falhas na interação baseada em gestos de toque [23,26,33,37], forma de interação que é utilizada para controlar o leitor de tela dos dispositivos. A dificuldade para aprender a realizar estes gestos tem sido apontada como uma das razões para estas falhas [37]. Os problemas apontados impedem que PDV usufruam de benefícios que dispositivos móveis podem trazer. Este trabalho tem como objetivo (a) mapear os problemas de acessibilidade de PDV aos dispositivos e (b) avaliar um conjunto alternativo de gestos de toque realizados por PDV que possibilite melhor precisão na interação com telas de toque. Este trabalho foi organizado da seguinte maneira: a seção 2 apresenta os trabalhos relacionados à acessibilidade de dispositivos móveis considerando estudos sistemáticos e de gestos de toque, a seção 3 descreve a primeira etapa deste trabalho e a seção 4 descreve o estudo empírico de gestos de toque. Por fim, a seção 5 conclui este trabalho. Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. Proceedings of IHC'16, Brazilian Symposium on Human Factors in Computing Systems. October 04-07, 2016, São Paulo, São Paulo, Brazil. Copyright 2016 SBC. ISBN 978-85-7669-346-8 (online). TRABALHOS RELACIONADOS Essa seção apresenta trabalhos relacionados às duas etapas dessa pesquisa. De acordo com a revisão bibliográfica realizada nessa pesquisa, apenas um estudo, conduzido por Hakobyan et al. [19], adotou a técnica de revisão sistemática para investigar o tema de acessibilidade de dispositivos móveis. A busca considerou as bases Web of Science, PubMed, Elsevier e Springer, obtendo resultados até novembro de 2011. Os autores incluíram 168 artigos, cuja análise mostrou haver dois campos de estudos de acessibilidade: um se refere a acessibilidade da interface dos dispositivos móveis em si, como a interação por gestos de toque, por exemplo, e outra se refere a usar os dispositivos móveis para auxiliar em tarefas diárias. Diferentemente, a primeira etapa deste trabalho tem como objetivo investigar o primeiro campo, focando nas formas de interação de PDV com a interface de dispositivos móveis. Além disso, optou-se por incluir outras bases de dados como a Association for Computing Machinery Digital Library (ACM) e a IEEE Xplore Digital Library (IEEE). Com relação à segunda etapa do presente trabalho, uma série de estudos tem abordado a realização de gestos de toque por PDV. McGookin et al. [28] analisaram a interação de pessoas (com os olhos vendados) com tocadores de música. Os resultados indicaram haver dificuldades para o correto reconhecimento de deslizamentos com um dedo na direção vertical e de toques simples com um dedo. Já para smartphones, Kane et al. [20] desenvolveram o Slide Rule, sistema de interação baseada em gestos de deslizamentos vertical, horizontal, livres e em forma de “L”. Os resultados indicaram haver menor tempo para execução de tarefas usando os gestos do Slide Rule, no entanto, o número de erros foi maior, quando comparada à interação por botões físicos. Kane et al. [22] investigaram as diferenças de realização de gestos por pessoas com e sem deficiência visual. Foi identificado que o número de traços, o tamanho, o tempo e a variabilidade são maiores nos gestos realizados pelas PDV. Oh et al. [33] avaliaram duas formas de ensinar PDV a realizarem gestos em telas sensíveis ao toque. Uma das formas usa retorno verbal e outra sonificação, para indicar características dos gestos como localização, tamanho, velocidade, direção e forma. Apesar da maioria dos participantes preferirem a correção verbal, houve avaliação positiva, por exemplo,para indicar a velocidade do gesto por meio da sonificação. Luthra e Ghosh [26] estudaram os gestos do leitor de tela TalkBack, disponível na plataforma Android. Os gestos em forma de “L” tiveram baixo desempenho, não sendo interpretados corretamente pelo sistema. Apesar disso, os participantes do estudo (PDV) avaliaram estes gestos como fáceis de fazer. Rodrigues et al. [37], por meio de um estudo longitudinal de oito semanas, investigaram o processo de adoção de smartphones por PDV. Foi identificado que o tutorial de explicação do leitor de tela TalkBack é ineficiente, tendo os participantes concluído apenas uma das cinco tarefas disponíveis. Também, quatro dos cinco participantes não conseguiram fazer gestos representados pela letra “L”, mesmo após 15 tentativas. Os estudos de Luthra et al. [26] e Rodrigues et al. [37], apesar de analisarem os gestos em forma de “L”, não o fazem individualmente, dado que são aceitas oito variações deste gesto no leitor de tela TalkBack. O presente trabalho analisa de forma individual todos as variações do gesto representado pela letra “L” disponíveis no leitor de tela TalkBack. ETAPA 1: MAPEAMENTO E RECOMENDAÇÕES Planejamento e Condução Na fase inicial do mapeamento sistemático foi definida a seguinte pergunta norteadora da pesquisa, com base no objetivo do trabalho: “Quais são os problemas de acessibilidade dos deficientes visuais aos dispositivos móveis?”. A partir desta pergunta, foi construída a seguinte string de busca1: (accessibility OR “assistive technologies” OR “screen reader”) AND (blind OR disability OR disabled OR deficiency OR handicapped OR impairment OR “visually disabled”) AND (android OR ipad OR iphone OR “mobile device” OR “mobile phone” OR smartphone OR tablet OR touchscreen OR ubiquity) Foram definidas as seguintes bases de dados para realização das buscas: Association for Computing Machinery Digital Library (ACM), IEEE Xplore Digital Library (IEEE), ISI Web of Science (WOS) e Science Direct (SD). A expressão de busca genérica definida anteriormente foi adequada para cada base de dados, de forma a abranger o título, resumo e palavras-chave dos documentos. Foram critérios de inclusão: (i) abordar acessibilidade de dispositivo móvel e (ii) abordar deficiência visual. Foram critérios de exclusão: (i) não abordar interface de dispositivo móvel, (ii) ter foco em tarefas que não a interação com o dispositivo, (iii) ser solução exclusiva em hardware, (iv) ser documento repetido ou (v) versão anterior e (vi) estar em idioma diferente do português ou inglês. A Tabela 1 mostra os documentos encontrados, incluídos e excluídos. Além dos documentos incluídos por meio do mapeamento sistemático, foram acrescentados mais cinco artigos, considerando citações de outros documentos e congressos recentes da área, representados na tabela como “EXTRA”. Documentos Base Encontrados Excluídos Incluídos ACM 73 54 19 IEEE 49 42 7 SD 17 17 0 WOS 106 96 10 EXTRA 5 - 5 Total 245 209 41 Tabela 1. Documentos encontrados, excluídos e incluídos no mapeamento sistemático. _____________________________________________ 1Acreditamos que estes termos contemplam outros sistemas como iOS e Windows Phone. Mapeamento de Problemas Esta seção apresenta o mapeamento de problemas encontrados na literatura analisada a partir da revisão. Os problemas foram mapeados em sete categorias: borda não sensível ao toque, botões, comando de voz, entrada de dados, interação por gestos, leitor de tela e retorno ao usuário. Na Tabela 2 listamos todos os problemas identificados para cada categoria. As referências bibliográficas são apontadas em cada item. A categoria “Borda não sensível ao toque” se refere aos problemas relacionados a incapacidade de se diferenciar, por meio do tato, as partes da tela que são sensíveis ao toque. Já as dificuldades relacionadas a botões físicos, capacitivos e virtuais estão incluídas na categoria “Botões”. Os problemas referentes a emissão e interpretação de comandos de voz, do ponto de vista do usuário e do sistema, respectivamente, estão incluídos na categoria “Comandos de voz”. A categoria “Entrada de dados” inclui os problemas relativos a escrita de texto por meio de teclados com layout QWERTY, físicos e virtuais, bem como formas alternativas como “Braille” e teclados multitoque. Os problemas relacionados à interação com o leitor de tela utilizando gestos de toque estão relatados na categoria “Interação por gestos”. Na categoria “Leitor de tela” são abordados os problemas sobre a compreensão e eficiência da leitura dos elementos da tela de sistemas. Por fim, na categoria “Retorno ao usuário” são descritos os problemas que envolvem padrões vibratórios e retorno auditivo para informar ao usuário sobre o estado de sistemas. Recomendações de Acessibilidade A seguir apresentamos as recomendações para solucionar os problemas identificados na primeira etapa deste estudo (Tabela 2). As recomendações foram divididas nas mesmas sete categorias dos problemas: borda não sensível ao toque, botões, comandos de voz, entrada de dados, interação por gestos, leitor de tela e retorno ao usuário. Borda Não Sensível ao Toque Para os problemas de bordas não sensíveis ao toque, sugere- se soluções simples e de baixo custo, como a afixação de adesivos no contorno da borda permitindo que PDV possam se orientar melhor. Esta solução já havia sido utilizada no estudo realizado por Bonner et al. [3]. Botões Com relação aos botões, é preciso realizar pesquisas para identificar o número ideal de botões físicos, seu tamanho e forma. Algumas iniciativas já foram feitas, no entanto, limitaram-se a botões físicos de telefones sem a tecnologia de toque [6]. Ainda neste caminho, em uma das fases de elaboração de heurísticas do estudo de Mi et al. [29], uma das recomendações se referiu a necessidade de botões físicos terem diferentes tamanhos, formas e texturas, para facilitar sua diferenciação, reforçando a necessidade de mais pesquisas neste campo. Caso haja disponibilidade de botões físicos no dispositivo, recomenda-se associar a estes elementos, as funções dos aplicativos em uso, como no protótipo de mapas de tempo para PDV criado por Carroll et al. [5]. Neste contexto, os participantes do estudo de Chiti e Leporini [8] sugeriram que a principal função de cada aplicativo fosse sempre mapeada para um mesmo botão virtual, com localização fixa na tela. Isso facilitaria o acesso do PDV à principal função de cada aplicativo, mesmo que o aplicativo nunca tenha sido utilizado. Comandos de Voz Para solucionar os problemas decorrentes de ruídos externos, seria necessário aprimorar os algoritmos de reconhecimento de voz utilizados nos dispositivos. Neste campo, devem ser considerados os diferentes sotaques, idiomas, entonação e particularidades de cada indivíduo, para o reconhecimento destes comandos. Com relação ao problema de falta de privacidade, o dispositivo deve prover formas alternativas de interação que não exponham o usuário, tal como a interação por meio de gestos. Sugere-se pesquisar outras maneiras de ativar os comandos de voz, como por exemplo a inserção de um botão físico, de fácil acesso, para ativar instantaneamente o modo de espera por comandos, como apontado por Mi et al. [29]. Para agilizar a interação no uso de comandos de voz, sugere-se permitir a emissão de mais de um comando por vez, como abordado no estudo de Zhong et al. [43]. Também, teria potencial de melhorar a interação caso os comandos de voz pudessem controlar os dispositivos como um todo, e não apenas aplicativos particulares, como abordado por Zhong et al. [43]. Entrada de Dados A maior parte dos problemas de entrada de dados se refere à velocidade de digitação, tanto parateclados físicos como virtuais. Com relação a teclados físicos, a solução passa por evitar a disponibilização de teclados que representam mais de um caractere por tecla. Para o caso de teclados virtuais, uma solução é dividi-lo em várias telas. Entretanto, deve-se atentar ao fato de que a transição entre uma tela e outra necessita ser realizada sem maiores dificuldades para as PDV. Essa abordagem é apresentada por Bonner et al. [3]. Uma maneira de aumentar a rapidez da busca de PDV pelas teclas é manter a configuração dentro dos padrões mais utilizados por eles. Para isso, o dispositivo deve permitir a configuração do padrão do teclado. No entanto, sugere-se manter a necessidade de confirmação de cada caractere digitado pela PDV [39], caso contrário a PDV pode digitar palavras erradas. Ainda, sugere-se estudar formas de aproximar a localização das teclas (numéricas ou de caracteres) à forma feita em teclados físicos, em que uma ou mais letras/números servem de base para encontrar outras letras/números, como apontado por Guerreiro et al. [17] e Chiti e Leporini [8]. O uso de marcas táteis no número “5” tiveram avaliação positiva, no entanto, são necessários testes em maior escala [8]. Categoria Problema (A) Borda não sensível ao toque A.1 A borda não sensível ao toque possui dimensões elevadas [10] A.2 Não há diferenciação tátil nas bordas da tela [1,9,10,12] (B) Botões B.1 A ausência de botões físicos dificulta a interação [8,13,27,31] B.2 A dimensão pequena dos botões físicos dificulta a interação [7,21] B.3 A grande proximidade entre os botões físicos dificulta a interação [28] B.4 A grande proximidade entre os botões virtuais dificulta a interação [29] B.5 A grande quantidade de botões físicos dificulta a interação [7] B.6 Os botões capacitivos não possuem limites físicos, confundindo sua localização com a região da tela sensível ao toque [37] B.7 Os botões virtuais acarretam menor sensibilidade tátil [7] (C) Comandos de voz C.1 Apenas um comando de voz é reconhecido por vez [29,43] C.2 Há baixa privacidade ao emitir comandos de voz [7] C.3 Há diminuição do desempenho do reconhecimento em condições de ruído [7] C.4 Há diminuição do desempenho do reconhecimento devido à entonação e à acentuação [7] C.5 Há dificuldade para ativar comando de voz [29] C.6 Há necessidade de mentalizar instrução por voz, aumentando carga de memória do indivíduo [7] C.7 O reconhecimento de voz funciona apenas em alguns aplicativos [43] C.8 O uso de comandos de voz é computacionalmente custoso [7] (D) Entrada de dados D.1 A digitação de textos é lenta em teclados QWERTY virtuais [17,34] D.2 As teclas mais distantes das bordas são mais difíceis de encontrar do que as mais próximas das bordas, em teclados virtuais QWERTY [32] D.3 É preciso conhecer previamente Braille para ter bom desempenho de digitação utilizando esta modalidade [13,30] D.4 É preciso pressionar uma mesma tecla várias vezes para acessar determinados caracteres em teclados físicos [18,30] D.5 É preciso trocar o modo do teclado virtual, para acessar determinados caracteres [23] D.6 Há ausência de marca tátil para o número 5, no teclado numérico virtual, e para as letras “F” e “J” no teclado QWERTY virtual [8,17] D.7 Há erros ao corrigir caracteres digitados equivocadamente, substituindo por fonemas semelhantes, em teclados virtuais [32] D.8 Há erros de omissão de caracteres, faltando um ou mais ao digitar palavras em teclados virtuais [32] D.9 Há necessidade de confirmação de cada caractere digitado em teclados virtuais [39] D.10 Há necessidade de navegar pelo teclado virtual para localizar os caracteres desejados [3] D.11 Há um segundo de espera para entrar com cada tecla em teclados virtuais [34] D.12 O teclado numérico virtual é denso dificultando, a interação [34] (E) Interação por gestos E.1 A baixa flexibilidade de ângulo e velocidade dos gestos, por parte do sistema, dificultam seu reconhecimento [26] E.2 Gestos representados pela forma da letra “L” são difíceis de fazer [26,37] E.3 Gestos representados por formas geométricas fechadas (círculo e triângulo) são difíceis de fazer [26] E.4 Gestos representados por formas geométricas são lentos de se fazer [26] E.5 Há conflito na desambiguação entre dois toques com um dedo e três toques com um dedo [26] E.6 Há dificuldade para fazer gestos estando em movimento [24] E.7 Há dificuldade para fazer gestos próximos à barra superior de sistemas [23] E.8 Há dificuldade para fazer gestos representados por símbolos, sendo maior no caso de pessoas com deficiência visual de nascença [22,26] E.9 Há dificuldade para fazer o gesto de dois toques com um dedo [38] E.10 Há dificuldade para se localizar na tela para realizar gestos [28] E.11 Há erros na identificação de gestos multitoque, já que o sistema, por vezes, falha para reconhecer mais de um dedo em contato com a tela [38] E.12 Há falha de interpretação de gestos em geral, pelo sistema [20,22,26,28] E.13 Há mudança indevida de foco ao tentar fazer o gesto dois toques com um dedo [34] E.14 Não é possível alterar mapeamento dos gestos às funções do sistema [24] E.15 Não há consistência de gestos entre diferentes sistemas [33] E.16 Não há gestos que acionam as principais funções do sistema [26] E.17 O toque acidental na tela, com outro dedo, prejudica o reconhecimento de gestos [20] E.18 Os manuais de explicação de como fazer gestos de toque não são eficientes [29,33,37] E.19 Quando um aplicativo aceita gestos de toque próprios, há conflito entre estes gestos e os do leitor de tela do sistema [34] (F) Leitor de tela F.1 A leitura é linear, demorando para se ter noção global da interface [11,34] F.2 A pronúncia de algumas palavras é problemática [1] F.3 A voz do leitor de tela é artificial [13] F.4 Alguns elementos de interface não são lidos [23,29,34] F.5 Há baixa familiaridade com o leitor de tela de dispositivos móveis [35] F.6 Há conflito ao usar o leitor de tela do sistema em conjunto com o leitor embutido em aplicativos [9,11] F.7 Há desconforto ao ouvir o leitor de tela em ambientes ruidosos [21,34] F.8 Há leitura de apenas o que está em foco [11] F.9 Não há controle de velocidade de leitura [10,41] F.10 Não há um botão para interromper a leitura imediatamente [29] F.11 O foco do leitor de tela muda indevidamente [4,34] F.12 O foco do leitor de tela não possui uma ordem de navegação lógica [4,34] F.13 O leitor de tela é lento [13] F.14 O texto lido é, por vezes, inadequado [34] (G) Retorno ao usuário G.1 Há ausência de retorno ao usuário, ao interagir com alguns elementos de interface [34] G.2 Há dificuldade para compreender diferentes padrões vibratórios [29] G.3 Há dificuldade para compreender a orientação da interface, utilizando apenas o retorno auditivo [4] G.4 Retorno auditivo é prejudicado em ambientes ruidosos [23,38] G.5 Usar apenas o retorno auditivo não é o suficiente para a interação [38] Tabela 2. Síntese do mapeamento de problemas identificados na literatura. Interação por Gestos Dentre todas as categorias, a interação por gestos foi aquela que apresentou maior número de problemas (19 ao todo). Isso é justificado pelo fato desse tipo de interação ser muito nova, havendo a necessidade de mais estudos e melhorias nos algoritmos de reconhecimento de gestos e interação. Uma sugestão imediata para esse problema seria utilizar softwares que auxiliam no treinamento de PDV para realizar os gestos, como o proposto no estudo empírico deste trabalho. Uma abordagem semelhante foi adotada por Oh et al. [33], usando técnicas de sonificação e verbalização para corrigir gestos feitos por PDV. Um fator contribui à melhoria do reconhecimento de gestos é a diminuição do rigor à forma e velocidade para aceitar cada gesto realizado, para evitar o elevado número de erros dereconhecimento, como no caso dos gestos em “L” [26,37]. Leitor de Tela De modo geral, os problemas do leitor de tela dos dispositivos móveis ainda são os mesmos existentes em computadores fixos. Isso implica que ainda há um campo de pesquisa a ser explorado. Sugere-se uma quebra de paradigmas nos leitores de telas para dispositivos com telas de toque que, hoje, precisam ler a tela sequencialmente sendo que o ideal é que lesse a partir do ponto de interesse do usuário. Nesse caso, como cada aplicativo possui uma interface particular, com elementos dispostos em diferentes posições, podem ser pesquisadas estratégias para padronizá- los, isto é, formas de facilitar a localização da principal função de cada um. Os problemas de controle do foco do leitor de tela, bem como a descrição de elementos de interface, podem ser corrigidos seguindo-se boas práticas de programação, como apontado por Mi et al. [29]. Retorno ao Usuário O retorno ao usuário pelos dispositivos pode ser realizado através de vibração, sonificação e verbalização. Cada um deles apresenta um tipo de problema de acordo com o contexto de tipo de usuário. Uma solução genérica seria utilizar os três tipos de retorno de acordo com as situações, como apontado por Buzzi et al. [4], Carroll et al. [5] e Rodriguez-Sanchez et al. [38]. A escolha de qual tipo de retorno ao usuário utilizar pode se dar por meio automático ou configuração manual, cabendo mais pesquisas neste campo. ETAPA 2: ESTUDO EMPÍRICO DE GESTOS DE TOQUE Após verificar, por meio do mapeamento sistemático, os problemas e recomendações de acessibilidade de PDV aos dispositivos móveis, realizamos um estudo empírico em uma das sete classes dos problemas mapeados. Como foi identificado maior número de problemas (19) na classe de interação por gestos, o estudo empírico seguiu essa temática. Participantes Participaram do experimento 12 PDV (4 mulheres e 8 homens), recrutadas na instituição Projeto Adote um Cidadão, situada no município de São Bernardo-SP2. A idade dos participantes variou de 45 a 66 anos (Média = 55.1, Desvio-padrão = 6.6). Os requisitos para os participantes serem incluídos no experimento foram: ter deficiência visual, ser usuário experiente de leitor de tela em sistemas desktop e ser iniciante ou nunca ter tido contato com tecnologias de telas de toque. Equipamentos Os participantes executaram as tarefas do experimento em tablets de 10.1 pol. modelo Samsung Galaxy Note N8000 com Android 4.4. As bordas da tela do aparelho foram adaptadas com uma diferenciação tátil para facilitar a identificação da parte sensível ao toque. Um aplicativo desenvolvido no contexto deste trabalho armazenou as informações de gestos realizados pelos participantes, para posterior análise e cálculo de desempenho de reconhecimento correto. Uma folha, confeccionada manualmente, contendo as formas de diferentes gestos descritas em alto relevo, foi disponibilizada aos participantes para facilitar a identificação de qual gesto deveria ser realizado na tela do tablet. Aplicativo para Gestos de Toque A aplicação, desenvolvida para plataforma Android, contém duas funções: treinamento e coleta de gestos de toque. Escolheu-se esta plataforma por ser de código aberto, gratuita e amplamente usada no contexto acadêmico. Para reconhecer os gestos de toque, foi utilizado o algoritmo Protractor [25], disponibilizado pela própria plataforma e utilizado no leitor de tela TalkBack. Este algoritmo usa uma solução de forma fechada para encontrar o alinhamento angular ótimo entre a amostra modelo, previamente cadastrada no aplicativo, e a amostra teste, realizada pelo usuário na tela do aplicativo. O código fonte do leitor de tela TalkBack3 e da plataforma de reconhecimento de gestos da Google4 foram examinados a fim de verificar os parâmetros considerados no reconhecimento de gestos. Isto permitiu estabelecer quatro parâmetros: (a) forma, (b) tempo total de realização do gesto, (c) tempo para começar a mover o dedo, após tocar a tela, e (d) velocidade inicial de realização do gesto. Estes parâmetros são avaliados durante a realização de cada gesto de toque no aplicativo. Modo de Treinamento de Gestos No modo de treinamento, o usuário realiza qualquer gesto na tela e o aplicativo informa qual gesto foi realizado, comparando a forma da amostra feita com as formas das amostras previamente cadastradas no aplicativo. O aplicativo informa, por meio de áudio, qual gesto foi realizado e qual é a sua função no sistema. Também, é capaz de informar ao usuário, por meio de áudio, os casos em que não houve atendimento aos parâmetros da plataforma. Modo de Coleta de Gestos No modo de coleta de dados, o aplicativo pede ao usuário para fazer um determinado gesto, pressionando, em seguida, _____________________________________________ 2http://www.adoteumcidadao.com.br, último acesso em 8 Jun 2016 3https://code.google.com/p/eyes-free, último acesso em 20 Dez 2015 4https://developer.android.com/reference, último acesso em 10 Jun 2016 um botão de confirmação. Cada gesto é solicitado por meio de áudio e sua confirmação também é informada. Neste caso, os erros não são informados e os dados são armazenados para posterior avaliação. Nestes dados, cada gesto de toque é composto por um conjunto de pontos com as seguintes informações: identificação do equipamento, identificação da sessão, identificação do participante, identificação do tipo de gesto, coordenadas cartesianas x e y e tempo de ocorrência. Desempenho dos Gestos Neste trabalho são avaliados ao todo 27 diferentes tipos de gestos, dos quais 16 já existem no TalkBack e 9 foram extraídos da literatura [20,22,26,28,37]. Consideramos que para estes gestos, ainda não houve avaliação individual que considerasse parâmetros da plataforma Android. Os 27 gestos estão divididos em cinco grupos: (a) Básicos, (b) Vai- e-Vem, (c) Em-L, (d) Símbolos e (e) Figuras. A Figura 1 apresenta a forma dos 27 gestos cadastrados no aplicativo para comparação com as amostras teste realizadas pelos participantes durante o experimento. Os grupos (a), (b) e (c) contém os 16 gestos do TalkBack e os grupos (d) e (e) contém os gestos extraídos da literatura. Em uma abordagem inicial, as amostras teste feitas pelos participantes foram comparadas com amostras modelo já disponíveis pelo leitor de tela TalkBack e por amostras feitas pelo pesquisador, o que denominamos de modelo Padrão P0. Para cada gesto há uma forma cadastrada no aplicativo, a qual a amostra teste deve ser comparada. Após a obtenção de todas as amostras testes dos participantes, recriamos o modelo de comparação usando estas amostras e recalculamos o desempenho de todos os gestos. Isto foi realizado para minimizar a influência das amostras de comparação do TalkBack e do pesquisador no desempenho. Assim, o novo modelo de comparação, que denominamos de Procrustes, contém as características das amostras feitas pelos participantes. A esse novo conjunto de gestos de comparação denominamos de modelo Procrustes (P1, P2 e P3), nome que se refere ao algoritmo de análise estatística de formas geométricas desenvolvido por Gower [16]. No caso dos gestos de toque, dado um conjunto de amostras de gestos de exemplo, o algoritmo permite deixar todas as amostras em uma mesma posição, tamanho e rotação. No caso dos gestos de toque coletados neste trabalho, os dados de entrada, possuíam, inicialmente, diferentes números de pontos, assim, foi preciso, antes, normalizar cada amostra do mesmo tipo para uma quantidade igual de pontos. Isso resultou na geração de três modelos novos, para cada tipo de gesto, com número de pontos mínimo (P1), máximo (P2) e médio (P3). Além da forma dos gestos, que é avaliada sob as óticas Padrão e Procrustes, o desempenhotambém é avaliado em conjunto com parâmetros da plataforma Android. Entre estes parâmetros estão: tempo total de realização do gesto, tempo para começar a mover o dedo, após tocar a tela, e velocidade inicial de realização do gesto. Ao adotar a análise da forma em conjunto com os três parâmetros, de forma simultânea, simula-se o ambiente real de execução do leitor de tela TalkBack. Procedimento O estudo com usuários durou cinco horas, divididas em duas sessões de duas horas e trinta minutos. O experimento consistiu em duas fases: treinamento e coleta de gestos. Treinamento de Gestos de Toque Inicialmente os participantes foram apresentados ao tablet e à folha de gestos em alto relevo. O aplicativo foi aberto na modalidade de treinamento de gestos e os participantes foram orientados a verificar a forma dos gestos na folha de alto relevo e a reproduzi-las no tablet. Esta etapa teve duração de 30 minutos, tempo em que todos os participantes realizaram pelo menos uma amostra correta de cada um dos 27 gestos. Caso algum gesto fosse realizado de forma incorreta, o aplicativo informava via voz, a ocorrência do erro, sendo orientado pelo coordenador das atividades sobre como resolvê-los. Coleta de Gestos de Toque O aplicativo de gestos foi aberto na modalidade de coleta, que solicita por voz para o participante fazer um gesto e Figura 1: Forma dos 27 gestos de toque (modelo Padrão em verde e modelo Procrustes P3 em vermelho). Gestos do TalkBack: (a) Básicos, (b) Vai-e- Vem e (c) Em-L. Gestos novos: (d) Símbolos e (e) Figuras. confirmá-lo por meio do botão de volume. Nesta modalidade, o aplicativo não retorna qualquer informação quanto a ocorrência de erros, gravando em texto todos os dados capturados pela interface de toque. Ao todo foram solicitados 54 gestos de toque para cada participante, sendo duas amostras para cada tipo. Foi permitido o uso da folha de gestos em alto relevo, caso houvesse necessidade de lembrar a forma. Resultados do Estudo Empírico Esta seção apresenta o desempenho dos 642 gestos considerando os seguintes parâmetros: forma (A), tempo total de realização de gesto (B), tempo para começar a mover o dedo, após tocar a tela (C) e velocidade de realização do gesto (D). O número total de amostras por gesto é 24, exceto para os gestos “Direita-Esquerda” e “Baixo-Cima”, que foi de 22, e os gestos “Cima-Baixo” e “N” que foi de 23. Desempenho de Acordo com a Forma Os melhores desempenhos foram obtidos pelos gestos “Esquerda” e “Direita”, apresentando 100% de reconhecimento correto cada um, considerando o modelo P0. O gesto Triângulo obteve o pior desempenho (37.5%). Com relação ao modelo P1, o pior resultado foi obtido pelo gesto símbolo menor (12.5%). Com relação aos modelos P2 e P3, o pior desempenho foi obtido pelo gesto “Cima”, em ambos os casos, com 4.2% (ver Tabela 3). Os desempenhos para os símbolos “Z”, “V” e “V de ponta cabeça”, obtiveram, respectivamente, 91,7%, 88,5% e 85,4% de reconhecimento correto, valores próximos aos gestos Básicos do TalkBack. Com relação à vantagem de se adotar novos modelos de comparação da forma, dez gestos apresentam desempenho superior usando um dos modelos P1 a P3, quando comparados ao modelo P0. Entre estes gestos estão “Esquerda-Direita”, “V”, “Baixo-Cima”, “V de ponta cabeça”, “Direita-Esquerda”, “Baixo-Esquerda”, “Símbolo Maior”, “Esquerda-Baixo”, “Triângulo” e “Símbolo Menor”. As melhores mudanças foram do gesto “Triângulo” que passou de 37,5% para 54,2% e do gesto “Símbolo Maior”, de 41,7% para 79,2%. Apesar disso, não houve melhora de desempenho dos 642 gestos como um todo adotando-se os modelos P1-P3. Dos 27 gestos, 17 apresentam queda de desempenho, sendo a maior a do gesto “Cima”, que passou de 95,8% (P0 e P1) para 4,2% (P2 e P3). Outro piora importante foi a do gesto “Cima- Esquerda”, passando de 79,2% (P1) para 20,8% (P2 e P3). Desempenho de Acordo com os Outros Parâmetros Esta seção mostra o desempenho dos gestos conforme os seguintes parâmetros: forma (A), tempo para iniciar o movimento (B), tempo total (C) e velocidade inicial (D). Estes parâmetros foram combinados em quatro diferentes conjuntos: AB, AC, AD e ABCD. A letra “A” representa o parâmetro da forma usando o modelo Padrão (P0). Adotando-se o conjunto AB, os gestos “Esquerda”, “Direita” e “Cima-Baixo” tiveram o melhor desempenho (100% de reconhecimento correto cada). Por outro lado, o gesto “Triângulo” obteve o pior desempenho, com 25%. Com relação aos novos gestos (grupos Símbolos e Figuras), “Z”, “V de ponta cabeça” e “V” obtiveram desempenho acima de 70.8% (ver Tabela 4). Gesto n Modelo (%) P0 P1 P2 P3 𝑃" Esquerda 24 100.0 100.0 100.0 100.0 100.0 Direita 24 100.0 100.0 100.0 100.0 100.0 Baixo 24 95.8 95.8 95.8 95.8 95.8 Cima-Baixo 23 95.8 95.8 95.8 95.8 95.8 Esquerda-Direita 24 91.7 95.8 95.8 95.8 94.8 Z 24 91.7 91.7 91.7 91.7 91.7 V 24 83.3 87.5 91.7 91.7 88.5 Baixo-Cima 22 79.2 91.7 87.5 87.5 86.5 V de ponta cabeça 24 83.3 87.5 83.3 87.5 85.4 Direita-Esquerda 22 75.0 87.5 87.5 87.5 84.4 Baixo-Esquerda 24 70.8 83.3 83.3 83.3 80.2 Cima-Direita 24 79.2 79.2 79.2 79.2 79.2 S 24 75.0 70.8 75.0 75.0 74.0 Baixo-Direita 24 70.8 70.8 70.8 70.8 70.8 Maior 24 41.7 79.2 79.2 79.2 69.8 C 24 70.8 70.8 66.7 70.8 69.8 Esquerda-Cima 24 66.7 66.7 62.5 62.5 64.6 Esquerda-Baixo 24 58.3 62.5 62.5 62.5 61.5 N 23 70.8 50.0 54.2 50.0 56.3 Triângulo 24 37.5 54.2 54.2 54.2 50.0 Cima 24 95.8 95.8 4.2 4.2 50.0 C espelhado 24 54.2 41.7 45.8 41.7 45.8 Direita-Cima 24 58.3 41.7 41.7 41.7 45.8 Círculo 24 50.0 33.3 33.3 33.3 37.5 Cima-Esquerda 24 79.2 25.0 20.8 20.8 36.5 Menor 24 45.8 12.5 70.8 12.5 35.4 Direita-Baixo 24 75.0 20.8 20.8 20.8 34.4 Tabela 3. Percentual de gestos corretos considerando a forma como parâmetro único e usando os modelos P0 a P3. 𝑷$ representa a média aritmética dos quatro modelos. Gesto n Parâmetro AB AC AD ABCD Baixo 24 95.8 79.2 29.2 29.2 Esquerda-Direita 24 87.5 75.0 29.2 29.2 Baixo-Cima 22 81.8 68.2 27.3 22.7 Direita-Esquerda 22 81.8 72.7 22.7 22.7 Direita 24 100.0 79.2 20.8 20.8 Cima 24 95.8 91.7 20.8 20.8 Esquerda 24 100.0 79.2 16.7 16.7 Direita-Baixo 24 70.8 58.3 16.7 16.7 Cima-Baixo 23 100.0 91.3 13.0 13.0 Z 24 79.2 75.0 16.7 12.5 Esquerda-Cima 24 66.7 58.3 8.3 8.3 Símbolo Menor 24 45.8 37.5 8.3 8.3 S 24 66.7 66.7 8.3 8.3 N 23 65.2 65.2 4.3 4.3 Círculo 24 41.7 33.3 4.2 4.2 Baixo-Direita 24 70.8 54.2 8.3 4.2 Triângulo 24 25.0 16.7 4.2 4.2 Cima-Direita 24 75.0 66.7 4.2 4.2 C 24 70.8 62.5 0 0 Baixo-Esquerda 24 62.5 54.2 0 0 Símbolo Maior 24 41.7 41.7 0 0 Esquerda-Baixo 24 50.0 45.8 0 0 C espelhado 24 54.2 41.7 0 0 Direita-Cima 24 54.2 45.8 0 0 Cima-Esquerda 24 70.8 45.8 0 0 V de ponta cabeça 24 83.3 58.3 4.2 0 V 24 79.2 79.2 0 0 Total 642 70.9 60.7 9.8 9.2 Tabela 4. Percentual de gestos corretos considerando a forma combinada com um ou mais dos seguintes parâmetros: tempo para iniciar o movimento (B), tempo total (C) e velocidade inicial (D). Considerando o conjunto de parâmetros AC, os gestos “Cima” e “Cima-Baixo” tiveram o melhor desempenho, com 91.7% e 91.3%, respectivamente. Os gestos Símbolo Menor e Círculo tiveram os piores desempenhos, com 37.5% e 33.3%, respectivamente. Dos novos gestos, as letras “Z” e “V” tiveram desempenho acima de 75%. Respeito à avaliação usando os conjuntos AD e ABCD, os gestos “Baixo” e “Esquerda-Direita” tiveram o melhor desempenho, com 29.2% cada. Os gestos “C”, “Baixo- Esquerda”, “Símbolo Maior”, “Esquerda-Baixo”, “C espelhado”, “Direita-Cima”, “Cima-Esquerda”, “V de ponta cabeça” e “V” obtiveram os piores valores, com 0% cada. Dos novos gestos, a letra “Z” foi o que obteve o melhor desempenho, com 12.5%. É importantenotar que o acréscimo dos parâmetros B e C no cálculo do desempenho dos 642 gestos, fez com que o desempenho reduzisse para 70.9% e 60.7%, respectivamente. Já a adição do parâmetro D reduziu o desempenho geral para 9,2%. Discussão Acerca do Estudo Empírico Apesar de Kane et al. [22] sugerirem que gestos representados por letras não fossem utilizados em sistemas, dado que PDV podem ter dificuldade para compreendê-los, nossos resultados mostraram que as letras “Z”, “V” e “V de ponta cabeça” obtiveram ótimo desempenho. Estes gestos podem ser uma importante alternativa como atalhos para as funções básicas de aplicativos, como copiar e colar, por exemplo. Uma possível explicação para o bom desempenho destes gestos pode ser o fato de se permitir o uso da folha de gestos em alto relevo para a memorização das formas. Assim, esta folha pode ter potencial para ser um importante instrumento de auxílio na educação de gestos de toque. Os gestos do TalkBack que tiveram os piores desempenhos foram “Esquerda-Baixo” e “Direita-Cima”, pertencentes ao grupo Em-L. Rodrigues et al. [37] também verificaram desempenho menor deste grupo, em relação aos outros. Por outro lado, Luthra e Ghosh [26] identificaram que os gestos angulares, especificamente os Em-L, “Símbolo Menor” e “Símbolo Maior” foram avaliados como fáceis de fazer, segundo opinião de PDV. A avaliação foi feita por meio de escala Likert, em que o participante pontuava entre 1 e 7 o grau de facilidade para realizar o gesto. O desempenho, neste caso, se referiu a opinião dos participantes e não ao ponto de vista de reconhecimento do sistema. Para melhorar o desempenho, adotamos uma segunda abordagem, baseada na geração e utilização dos modelos P1 a P3, para comparação. Com estes modelos, alguns gestos tiveram melhor desempenho, como os do grupo Vai-e-Vem, e outros tiveram piora, como os dos grupos Em-L e Símbolos. Usando o modelo P1, o desempenho se manteve próximo ao modelo P0. Gestos como o “Símbolo Maior” e “Triângulo” obtiveram mais amostras corretas, havendo indícios de que a utilização de novos modelos de comparação, gerados baseando-se em gestos feitos pelos usuários, é um caminho para melhorar o desempenho (é necessário, entretanto, que se investiguem formas de manter o desempenho prévio). Com relação aos outros parâmetros, no nosso entendimento, não foram encontrados na literatura estudos que os abordassem especificamente. Nós identificamos que, apesar da forma de um gesto estar correta, pode ocorrer de o mesmo não ser reconhecido por conta destes outros parâmetros. Considerar a velocidade inicial como um dos parâmetros para cálculo de desempenho fez com que o número de reconhecimentos corretos decaísse bruscamente, apresentando valores iguais ou inferiores a 23,9%. Este é um indício de que a velocidade inicial é o parâmetro mais importante para o reconhecimento adequado das amostras teste, deixando em segundo plano os outros parâmetros, inclusive a forma do gesto previamente cadastrada no aplicativo. Nesse contexto, a velocidade de gesto já havia sido mencionada no estudo de Oh et al. [33], que usou sonificação para orientar o quão rápido está sendo executado um gesto. Esta técnica colabora para o ensino de gestos, podendo ser objeto de futuras investigações. Ainda, Kane et al. [22] recomendaram que a velocidade de realização de gestos seja mais flexível e Luthra e Ghosh [26] mencionaram a velocidade como fator influenciador das falhas dos gestos Em-L. Os resultados do presente trabalho corroboram com estas afirmações. Cabe reflexão acerca de manter ou não a velocidade como um dos parâmetros para reconhecimento de gestos. Uma solução é implementar um botão de fácil acesso para entrar/sair do modo de gestos, considerando apenas a forma para o reconhecimento. CONCLUSÃO Este trabalho teve como foco a abordagem da interação de PDV com o sistema de dispositivos móveis. Na primeira etapa uma série de problemas de acessibilidade foram identificados em documentos obtidos por meio de mapeamento sistemático, que podem ser alvo de futuras pesquisas. Ao todo, foram identificados 65 problemas que envolvem a interação de PDV com dispositivos móveis. Estes problemas foram mapeados em sete grupos, sendo que o grupo que apresentou maior número de problemas foi o de interação por gestos, com 19 ao todo. Estes problemas podem acarretar na diminuição do acesso ao mundo digital por parte de PDV. Também, podem prejudicar o uso de aplicativos que auxiliam em tarefas cotidianas. Foram feitas 28 recomendações que tem o potencial de melhorar a acessibilidade para PDV. Na segunda etapa do trabalho, identificamos gestos que podem ser implementados em sistemas reais, tendo potencial para melhorar o uso dos dispositivos. Os gestos representados pelas “V”, “V de ponta cabeça” e “Z” apresentaram desempenho próximo dos melhores gestos Básicos do Android. Estes gestos podem ser utilizados como atalhos para funções de aplicativos, mudando o paradigma linear adotado nos leitores de tela. Evidenciamos que o reconhecimento de gestos de toque possui influência da forma previamente cadastrada no leitor de tela. Sugere-se que os gestos utilizados como padrão de comparação sejam dinâmicos, ou seja, sejam atualizados periodicamente. Dessa forma, o usuário melhoraria sua precisão ao executar os gestos de toque, cometendo menos erros e tendo maior eficiência no uso dos aplicativos. Outros parâmetros, além da forma dos gestos, influenciam no desempenho do reconhecimento, parâmetros estes que não foram, ainda, abordados na literatura. A velocidade foi o parâmetro que mais contribuiu negativamente para o reconhecimento, sendo sugerido que se evite seu uso no reconhecimento de gestos. AGRADECIMENTOS Os autores agradecem à UFABC e à CAPES. Agradecemos também aos revisores anônimos e aos professores André Luiz Brandão, Edson Pinheiro Pimentel, Ig Ibert Bittencourt e Yossi Zana pelas valiosas contribuições a este trabalho. REFERÊNCIAS 1. Ana Flavia de Andrade da Silva, Annibal Biondi Mendes da Silva, Veronica Oliveira Pontes, Elaine Naomi Watanabe, Marcia Ito, and Vagner Figueredo de Santana. 2013. Estudo sobre o uso de tablets como ferramenta de suporte à interação De pessoas cegas com painéis digitais. In Proceedings of the 12th Brazilian Symposium on Human Factors in Computing Systems. Brazilian Computer Society, 268–271. 2. Rita Bersch. 2008. Introdução à tecnologia assistiva. Porto Alegre: CEDI (2008). 3. Matthew N. Bonner, Jeremy T. Brudvik, Gregory D. Abowd, and W. Keith Edwards. 2010. No-look notes: accessible eyes- free multi-touch text entry. In Proceedings of the 8th International Conference on Pervasive Computing. Springer, 409–426. 4. Maria Claudia Buzzi, Marina Buzzi, Barbara Leporini, and Maria Teresa Paratore. 2013. Vibro-tactile enrichment improves blind user interaction with mobile touchscreens. In Human- Computer Interaction - INTERACT 2013. Springer, 641–648. 5. Dustin Carroll, Suranjan Chakraborty, and Jonathan Lazar. 2013. Designing accessible visualizations: The case of designing a weather map for blind users. In Proceedings of the 7th International Conference on Universal Access in Human- Computer Interaction: Design Methods, Tools, and Interaction Techniques for eInclusion. Springer, 436–445. 6. Tamal Chakraborty and Debasis Samanta. 2012. BlindGuide: An audio based eyes-free caller guide for people with visual impairment. In 4th International Conference on Intelligent Human Computer Interaction. IEEE, 1-6. 7. Tuhin Chakraborty and Debasis Samanta. 2013. Exploring an effective interaction mode for blind mobile users in india. In Proceedings of the 11th Asia Pacific Conference on Computer Human Interaction. ACM, 371–378. 8. Sarah Chitiand Barbara Leporini. 2012. Accessibility of Android-based mobile devices: A prototype to investigate interaction with blind users. In Computers Helping People with Special Needs: 13th International Conference. Springer, 607– 614. 9. Yoonjung Choi and Ki-Hyung Hong. 2012. User requirements for camera-based mobile applications on touch screen devices for blind people. In Computers Helping People with Special Needs: 13th International Conference. Springer, 48–51. 10. Laisa C.P. Costa, Nicholas S. Almeida, Ana G.D. Correa, Roseli D. Lopes, and Marcelo K. Zuffo. 2013. Accessible display design to control home area networks. IEEE Transactions on Consumer Electronics 59, 2(2013): 422–427. 11. Sabine Croxford and Cathy Rundle. 2013. Blind people and apps on mobile phones and tablets - Challenges and possibilities. In Proceedings of the International Conference on Ergonomics & Human Factors. Taylor & Francis, 343–346. 12. Yasmine N. El-Glaly, Francis Quek, Tonya Smith-Jackson, and Gurjot Dhillon. 2013. Touch-screens are not tangible: fusing tangible interaction with touch glass in readers for the blind. In Proceedings of the 7th International Conference on Tangible, Embedded and Embodied Interaction. ACM, 245–253. 13. Agebson Rocha Façanha, Windson Viana, Mauro Cavalcante Pequeno, Márcia de Borba Campos, and Jaime Sánchez. 2014. Touchscreen mobile phones virtual keyboarding for people with visual disabilities. In Human-Computer Interaction. Applications and Services. Springer, 134–145. 14. Aura Ganz, James M. Schafer, Yang Tao, Carole Wilson, and Meg Robertson. 2014. PERCEPT-II: Smartphone based indoor navigation system for the blind. In 36th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. 3662–3665. 15. Marta Gil. 2000. Deficiência Visual. Ministério da Educação, Brasília (2000). 16. John C Gower. 1975. Generalized procrustes analysis. Psychometrika 40, 1 (1975): 33–51. 17. João Guerreiro, André Rodrigues, Kyle Montague, Tiago João Vieira Guerreiro, Hugo Nicolau, and Daniel Gonçalves. 2015. Tablets get physical: non-visual text entry on tablet devices. In Proceedings of the 17th International ACM SIGACCESS Conference on Computers and Accessibility. ACM, 39–42. 18. Tiago Guerreiro, Hugo Nicolau, Joaquim Jorge, and Daniel Gonçalves. 2009. NavTap: a long term study with excluded blind users. In Proceedings of the 11th International ACM SIGACCESS Conference on Computers and Accessibility. ACM, 99–106. 19. Lilit Hakobyan, Jo Lumsden, Dympna O’Sullivan, and Hannah Bartlett. 2013. Mobile assistive technologies for the visually impaired. Survey of Ophthalmology 58, 6 (2013): 513–528. 20. Shaun K Kane, Jeffrey P Bigham, and Jacob O Wobbrock. 2008. Slide rule: making mobile touch screens accessible to blind people using multi-touch interaction techniques. In Proceedings of the 10th international ACM SIGACCESS conference on Computers and accessibility. ACM, 73–80. 21. Shaun K. Kane, Chandrika Jayant, Jacob O. Wobbrock, and Richard E. Ladner. 2009. Freedom to roam: a study of mobile device adoption and accessibility for people with visual and motor disabilities. In Proceedings of the 11th International ACM SIGACCESS Conference on Computers and Accessibility. ACM, 115–122. 22. Shaun K. Kane, Jacob O. Wobbrock, and Richard E. Ladner. 2011. Usable gestures for blind people: understanding preference and performance. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM, 413–422. 23. Barbara Leporini, Maria Claudia Buzzi, and Marina Buzzi. 2012. Interacting with mobile devices via VoiceOver: usability and accessibility issues. In Proceedings of the 24th Australian Computer-Human Interaction Conference. ACM, 339–348. 24. Frank Chun Yat Li, David Dearman, and Khai N. Truong. 2010. Leveraging proprioception to make mobile phones more accessible to users with visual impairments. In Proceedings of the 12th International ACM SIGACCESS Conference on Computers and Accessibility. ACM, 187-194. 25. Yang Li. 2010. Protractor: a fast and accurate gesture recognizer. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM, 2169–2172. 26. Vikas Luthra and Sanjay Ghosh. 2015. Understanding, evaluating and analyzing touch screen gestures for visually impaired users in mobile environment. In Universal Access in Human-Computer Interaction. Access to Interaction. Springer, 25–36. 27. Norbert Markus, Szabolcs Malik, Zoltan Juhasz, and András Arató. 2012. Accessibility for the blind on an open-source mobile platform: Mobile Slate Talker (MOST) for Android. In Proceedings of the 13th International Conference on Computers Helping People with Special Needs. Springer, 599– 606. 28. David McGookin, Stephen Brewster, and WeiWei Jiang. 2008. Investigating touchscreen accessibility for people with visual impairments. In Proceedings of the 5th Nordic Conference on Human-computer Interaction: Building Bridges. ACM, 298– 307. 29. Na Mi, Lora A. Cavuoto, Kenneth Benson, Tonya Smith- Jackson, and Maury A. Nussbaum. 2014. A heuristic checklist for an accessible smartphone interface design. Universal Access in the Information Society 13, 4 (2014): 351–365. 30. S. Misra, S.M. Banubakode, and C.A. Dhawale. 2014. Novel user interface for text entry on touch screen mobile device for visually impaired users. In Global Summit on Computer Information Technology. IEEE, 1–5. 31. T. Miura, H. Matsuzaka, M. Sakajiri, and T. Ono. 2012. Usages and demands to touchscreen interface: A questionnaire survey in Japanese visually impaired people. In IEEE International Conference on Systems, Man, and Cybernetics. IEEE, 2933– 2938. 32. Hugo Nicolau, Kyle Montague, André Rodrigues, Tiago Guerreiro, and Vicki Hanson. 2015. Typing performance of blind users: An analysis of touch behaviors, learning effect, and in-situ usage. In Proceedings of the 17th International ACM SIGACCESS Conference on Computers and Accessibility (2015). 33. Uran Oh, Shaun K. Kane, and Leah Findlater. 2013. Follow that sound: using sonification and corrective verbal feedback to teach touchscreen gestures. In Proceedings of the 15th International ACM SIGACCESS Conference on Computers and Accessibility. ACM, 13. 34. Kyudong Park, Taedong Goh, and Hyo-Jeong So. 2014. Toward accessible mobile application design: developing mobile application accessibility guidelines for people with visual impairment. In Proceedings of HCI Korea, Hanbit Media, Inc., 31–38. 35. Marc Pous, Circe Serra-Vallmitjana, Rafael Giménez, Marc Torrent-Moreno, and David Boix. 2012. Enhancing accessibility: Mobile to ATM case study. In IEEE Consumer Communications and Networking Conference. IEEE 404-408. 36. Mihály Radványi, Zóra Solymár, Attila Stubendek, and Kristóf Karacs. 2011. Mobile banknote recognition: Topological models in scene understanding. In Proceedings of the 4th International Symposium on Applied Sciences in Biomedical and Communication Technologies. ACM, 185:1-185:5. 37. André Rodrigues, Kyle Montague, Hugo Nicolau, and Tiago Guerreiro. 2015. Getting smartphones to TalkBack: Understanding the smartphone adoption process of blind users. In Proceedings of the 17th International ACM SIGACCESS Conference on Computers and Accessibility (2015). 38. MC Rodriguez-Sanchez, MA Moreno-Alvarez, E Martin, S Borromeo, and JA Hernandez-Tamames. 2014. Accessible smartphones for blind users: A case study for a wayfinding system. Expert Systems with Applications 41, 16 (2014): 7210– 7222. 39. Vaspol Ruamviboonsuk, Shiri Azenkot, and Richard E. Ladner. 2012. Tapulator: A non-visual calculator using natural prefix- free codes. In Proceedings of the 14th International ACM SIGACCESS Conference on Computersand Accessibility, ACM, 221–222. 40. Janaina Silva, Juliana Cristina Braga, and Rafael Jeferson Pezzuto Damaceno. 2015. Estudo de Aplicativos Móveis para Deficientes Visuais no Âmbito Acadêmico. In Anais do Simpósio Brasileiro de Informática na Educação, Vol. 26. 722. 41. Pawel Strumillo, Piotr Skulimowski, and Maciej Polanczyk. 2009. Programming Symbian smartphones for the blind and visually impaired. In Computers in Medical Activity. Springer. 129–136. 42. World Health Organization (WHO). 1993. International Classification of Impairments, Disabilities, and Handicaps: A Manual of Classification Relating to the Consequences of Disease. Geneva: World Health Organization (WHO). 43. Yu Zhong, T. V. Raman, Casey Burkhardt, Fadi Biadsy, and Jeffrey P. Bigham. 2014. JustSpeak: enabling universal voice control on Android. In Proceedings of the 11th Web for All Conference.
Compartilhar