Baixe o app para aproveitar ainda mais
Prévia do material em texto
Desenvolvimento de Gestos Personalizados para Criação e Navegação em Ambientes de Realidade Virtual e Aumentada associada a Dispositivos Móveis Pedro Henrique Cacique Braga, Alexandre Cardoso, Edgard Afonso Lamounier Jr. Grupo de Realidade Virtual e Aumentada Universidade Federal de Uberlândia Uberlândia – MG - Brasil cacique@mestrado.ufu.br, {alexandre, lamounier}@ufu.br Abstract — This article discusses current practices in mobile- learning and presents a strategy for developing educational applications associated with Augmented Reality. As concept proof of the technic discussed an application was created to teach basic mechanics. We discuss the creation of custom gestures for interaction between user and application for the creation of three-dimensional models from scratch in two dimensions. Concepts are discussed for creating dynamic interfaces for mobile devices, as well as attributes related to the usability of systems for m-learning Keywords: Mobile-Learning, Gesture, Multi-Touch, Virtual Reality, Augmented Reality, Usability. I. INTRODUÇÃO O cenário tecnológico está cada vez mais voltado para os dispositivos móveis. No final de 2010, o Brasil contava com 202,9 milhões de acessos do Serviço de Telefonia Móvel Pessoal, registrando um crescimento de 16,7% em relação ao ano anterior. Com esse resultado, o país permaneceu em quinto lugar no ranking mundial de acessos da telefonia móvel, atrás apenas de China, Índia, Estados Unidos e Rússia. Em 2010 o Brasil apresentou uma taxa de 104,7 acessos móveis pessoais a cada 100 habitantes [1]. Juntamente com a tecnologia móvel surgem diferentes métodos de interação entre o usuário e o dispositivo. A crescente aplicação dessas tecnologias traz à tona uma série de questões relativas à sua criação, escolha, adaptação e consequências de utilização [2]. O surgimento da tecnologia móvel trouxe consigo a necessidade da recriação das interfaces homem-máquina. A fim de aproveitar as funcionalidades dos dispositivos e adaptar o conteúdo dos aplicativos aos novos tamanhos de displays, surgem as interfaces naturais, que buscam readaptar os conceitos de interação a um ambiente cada vez mais limpo e isento de botões e outros elementos gráficos, voltando o foco do aplicativo exclusivamente ao seu conteúdo. As interfaces naturais (NUI) são assim chamadas por fazerem uso de técnicas baseadas na natureza humana, como física, gestos, movimentos, voz, entre outros, o que faz com que menos elementos sejam apresentados ao usuário, constituindo uma fácil navegação e um rápido aprendizado do uso do sistema [3]. Entre as diferentes formas de interação destacam-se os gestos, bastante comuns aos sistemas operacionais móveis. Gestos oferecem uma maneira intuitiva de interação com um dispositivo [4]. Sua utilização não se limita ao passar de páginas de um livro virtual, ou ao zoom de uma imagem, por exemplo. A navegação em ambientes de Realidade Virtual (RV) e Aumentada (RA) tem se beneficiado bastante da facilidade deste método. Em sistemas de RV e RA, a navegação no ambiente deve ser a mais intuitiva possível, para que o usuário assemelhe este desenvolvimento ao seu processo cognitivo natural. Muitas pesquisas vêm sendo conduzidas a fim de desenvolver métodos de interação aos ambientes virtuais mais próximos do processo de descoberta e aprendizagem humana. Neste contexto, a navegação por gestos apresenta relevante contribuição para tais pesquisas, pois os movimentos físicos do usuário implicam em atualizações dos ambientes virtuais e aumentados, que acompanham tais movimentos, com pouca ou nenhuma abstração. Para mover um objeto virtual para a direita, por exemplo, usa- se o gesto de pan, que é o mover do dedo sobre a tela da esquerda para a direita, como se realmente estivesse movendo o modelo. O reconhecimento bem sucedido dos gestos é um dos principais desafios no desenvolvimento de aplicativos para dispositivos móveis. Isso se deve ao fato de que as habilidades naturais dos movimentos usados em interfaces gestuais ainda são limitadas pela tecnologia atual [5]. Considerando a necessidade de desenvolvimento de soluções para o ensino e aprendizagem, ressalta-se que não há mais um “confinamento” em salas de aula. É vasta a quantidade de aplicativos voltados à aprendizagem com uso de tecnologia móvel, contextualizando o mobile- learning [6]. O usuário, no ponto de vista da educação a partir de dispositivos móveis, torna-se o foco do desenvolvimento de aplicativos, sendo o principal atributo de avaliação da usabilidade dos mesmos [7]. Este artigo propõe métodos de desenvolvimento de gestos personalizados, visando expandir o registro de gestos comuns aos sistemas operacionais móveis. Não apenas são apresentados seus modos de criação, mas opções de integração entre os gestos criados e funções de transformação de desenhos bidimensionais em modelos em três dimensões. Os gestos personalizados são utilizados para criação, edição e navegação de ambientes em realidade virtual e aumentada. Utilizam-se os conceitos de aplicativos para dispositivos móveis para a criação de ambientes de RV e RA que utilizem, ao máximo, as funcionalidades de tais aparelhos. O uso de tal forma de interação é exemplificado em um aplicativo para m-learning voltado ao ensino de Física (mecânica). II. TRABALHOS CORRELATOS A. Magic Paper O trabalho desenvolvido pelo Massachusetts Institute of Technology em 2006 conhecido como Magic Paper consiste em um sistema de criação de modelos bidimensionais com interações físicas [8]. O sistema foi desenvolvido para uso em computadores pessoais com mouses ou mesas digitalizadoras como hardware de entrada ou para dispositivos com telas capazes de reconhecer o toque, como lousas digitais. O Magic Paper recebe, como dados de entrada, esboços de objetos em duas dimensões e os transforma em figuras geométricas com características físicas. Estas podem ser inseridas desenhando códigos e símbolos que as representem. Uma seta para baixo, por exemplo, simboliza a ação da gravidade sobre o ambiente. A Figura 1 apresenta em (a) a etapa de criação do ambiente e em (b) a execução das leis físicas sobre os elementos criados. São explorados elementos como blocos, molas, cilindros e bolas (representados por circunferências), que podem ser conectados ou dispostos isoladamente no cenário. O controle da animação é feito através de barras de ferramentas contidas no software e conta com técnicas que facilitam a compreensão das mesmas, garantindo a melhor visualização do espaço. O Magic Paper apresenta algoritmos de correção do traçado, aproximando o esboço ao elemento geométrico bidimensional. Apesar da vasta biblioteca de elementos físicos e de forças de interação, a interação com o usuário é limitada ao uso do mouse ou do simples toque da caneta, não apresentando interações gestuais. Dentre as restrições, destaca-se o fato de o ambiente criado limitar-se ao tamanho fixo do quadro, não sendo permitida a expansão do mesmo através de técnicas como alteração da escala dos elementos. B. In-Place 3D O In-Place 3D é um framework para autoria de cenas tridimensionais para realidade aumentada baseado em desenhos à mão livre. Com este framework, é possível transformar esboços em sistemas em três dimensões com a possibilidade de interação, permitindo ao usuário controlar as etapas da animação, bem como alterar as propriedades físicas dos elementos contidos no ambiente [9]. Desenvolvido pelo Hit Lab New Zealandem 2009, o In-Place 3D faz uso de técnicas de processamento de imagens e realidade aumentada, bibliotecas de desenvolvimento de ambientes e interações físicas. Os esboços são feitos com base no desenho em perspectiva ortogonal. São usadas técnicas de processamento de imagens e reconhecimento de padrões para reconhecimento dos símbolos desenhados e capturados por uma câmera comum. A Figura 2 apresenta em (a) a autoria de um sistema mecânico, criado sobre um marcador especial que delimita o espaço da cena. Em (b) tem-se o ambiente virtual gerado e inserido no ambiente real sobre o marcador. O tratamento das imagens permite a criação de elementos sólidos baseados em triedros e tetraedros e forças interativas como atrito, gravidade e velocidade. A criação do modelo é gerada e mostrada no vídeo sobreposta à imagem da câmera. Os movimentos e transformações dos objetos são feitos com a adição de (a) (b) Figura 1 Magic Paper: (a) Desenho do sistema; (b) Animação do modelo físico. (a) (b) Figura 2 InPlace3D: (a) Autoria do sistema mecânico, esboçado no papel; (b) Ambiente de Realidade Aumentada construído com base no modelo desenhado. marcadores de controles à cena e com a movimentação da câmera. O framework de desenho é genérico e, portanto, pode ser utilizado para diferentes casos de uso. Sua utilização gerou diferentes publicações em áreas de ensino e criação de mundos virtuais. A cena virtual não se limita ao marcador, apenas o utiliza como orientador no espaço. Entretanto, assim como o Magic Paper, o InPlace 3D tem espaço limitado para criação do modelo mecânico. A interação com o ambiente, realizada através da câmera, é mais bem utilizada em um ambiente controlado, com uma câmera fixa. Para dispositivos móveis, esta forma de interação deve ser repensada para que aborde os conceitos de interação gestual, utilizando o toque do usuário e a orientação do dispositivo. C. ILoveSketch Trata-se de um software desenvolvido por Seok- Hyung bae, Ravin Balakrishnan e Karan Singh, capaz de criar ambientes tridimensionais baseados em esboços feitos em dispositivos de captura por toque [10]. Este sistema pode ser usado com navegação 2D ou 3D e cria curvas NURBS. Foi desenvolvido para profissionais do design, possibilitando a interação do usuário com seus modelos 3D com gestos comuns, existentes em uma biblioteca coesa de gestos. A aplicação diferenciada do software é a navegação e criação de elementos usando um ambiente tridimensional. Desenho e transformações dos mesmos se misturam em um ambiente sólido e consistente. São trabalhados gestos como ponto, curva, laço, loop, entre outros, para desenho, transformação e movimentação do ambiente. Todos os traços do usuário são tratados a fim de melhorar o desenho e torná-lo mais uniforme com os padrões de projeto. São evitadas as redundâncias de traços, para que não haja ambiguidade no processamento dos dados, deixando os contornos definidos. O ambiente conta com as principais ferramentas de transformação dos modelos, que alteram suas propriedades geométricas e estéticas. Assim como os grandes editores de modelos 3D, o ILoveSketch propõe diferentes câmeras e perspectivas de vistas. Apesar das boas ferramentas de desenho, o software não conta com ferramentas para animação. O espaço de criação pode ser aumentado, através de gestos, mas não há interação entre os elementos criados. Estes se comportam como elementos estáticos. III. INTERAÇÃO GESTUAL PARA CRIAÇÃO DE AMBIENTES TRIDIMENSIONAIS Os smartphones atuais apresentam como forma de navegação o sistema de toques e gestos. Um gesto pode ser definido, na abordagem deste trabalho, como um conjunto de sinais que indicam direções de movimentos. A Figura 4 apresenta os principais gestos comuns a todos os sistemas operacionais móveis com sistemas de interação por gestos. Este sistema de navegação tem se mostrado bastante inteligível e de rápido aprendizado. Suas funções básicas são automaticamente relacionadas aos gestos. A utilização de gestos tem uma grande aceitação dos usuários, tendo em vista a similaridade do seu aprendizado com o processo de desenvolvimento do conhecimento humano. Os gestos estão presentes em todas as etapas do crescimento humano e servem para comunicação mesmo quando não há uma linguagem comum. Com base nesta facilidade, desenvolve-se um método de criação de ambientes virtuais mais intuitivo, com uma rápida curva de aprendizagem. A. Arquitetura do Sistema O processo de criação começa a partir de desenhos bidimensionais feitos na tela de um dispositivo móvel, Figura 4 Dicionário de Gestos Padrões (a) (b) Figura 3 ILoveSketch (a) Criação do esboço; (b) Trabalhos finais gerados. utilizando o toque e o movimento dos dedos. Este esboço passa por um processo de reconhecimento de padrões e é então transformado em formas básicas pré-estabelecidas em um banco de dados. O processo está representado na Figura 5. Observa-se que o usuário é responsável pela criação do ambiente de duas diferentes formas. A primeira através do desenho de formas básicas, existentes em um Banco de Dados relacionado a cada aplicação. A segunda forma de criação é através do desenho de figuras não pertencentes ao Banco de Dados, realizando uma extrusão Linear ou Spin. Ambas contribuem para a criação do ambiente virtual, que pode ser apresentado em forma de Realidade Virtual ou Realidade Aumentada. Através dos gestos, o usuário também pode navegar no ambiente criado, quando selecionado o modo de visualização. B. Desenho Bidimensional Optou-se por dividir o reconhecimento dos gestos em dois algoritmos distintos: um para o desenho de formas básicas e outro para a interpretação dos gestos de interação. O aplicativo é capaz de interpretar a forma desenhada e convertê-la em um desenho existente no banco de dados do projeto. O método de desenho consiste em etapas sequenciais responsáveis pela interpretação dos gestos e criação do ambiente tridimensional. 1) Entrada de dados por toque A captura dos dados de entrada para o reconhecimento de toque é bastante simples, pois faz uso da tecnologia nativa dos dispositivos móveis. É determinada uma taxa de atualização da tela, conhecida como framerate, medida em fps (frames per second). Com base neste parâmetro, são capturadas, em cada atualização, as posições do dedo do usuário, guardando uma sequência de pontos que formam o caminho percorrido. O evento começa ao ser reconhecido o toque e termina quando o dedo é removido da tela. Obtém-se, assim, a trajetória do toque. 2) Reconhecimento de padrões O reconhecimento de caminhos desenhados não é um trabalho simples e pode ser feito utilizando técnicas de Inteligência Artificial para reconhecimento de padrões, como Algoritmos Genéticos e Redes Neurais Artificiais. Contudo, um método simples e de baixo custo computacional pode ser recriado para tal finalidade [11]. O algoritmo denominado $1 Dollar Recognizer é baseado em comparações do padrão de entrada com uma biblioteca de templates associados a cada gesto desejado. O Algoritmo se divide em quatro passos principais: Simplificação da trajetória do gesto Rotação do padrão pelo ângulo indicativo Escala e Translação Busca pelo ângulo ótimo e melhor pontuação A Figura 6 apresenta a execução do algoritmo $1Dollar Recognizer. A primeira imagem apresenta em cinza a trajetória relativa à letra “a”. Para a realização, foram gerados 187 pontos durante a interação do usuário, em um tempo de 1.816s, o que é considerado uma forma de interação de tempo médio, com base na média de tempo gasto para realização de gestos simples. A trajetória foi simplificada em 40 pontos equidistantes, representados em vermelho. O raio dos círculos maiores ao redor de cada ponto representa a distância calculada para a simplificação dos pontos. O novo caminho gerado é então representado pela imagem superior direita, que contém apenas os pontos simplificados interligados. Figura 6 Execução do Algoritmo $1 Dollar Recognizer Figura 5 Arquitetura do Sistema 3) Associação do padrão reconhecido à uma forma preexistente no banco de dados O algoritmo então realiza suas etapas de escala e rotação para o melhor ângulo e realiza a comparação com os templates existentes no banco de dados, atribuindo a cada operação uma pontuação normalizada. A maior pontuação atribuída determina qual template deve ser escolhido. A imagem inferior direita da Figura 6 apresenta a sobreposição dos pontos de entrada simplificados com os pontos registrados no banco de dados da aplicação. Observa-se a coerência do reconhecimento pela pontuação atribuída de aproximadamente 0.78 unidades. Deve-se determinar um limiar para o melhor reconhecimento para que, na inexistência de um padrão no banco de dados, não seja atribuída uma forma completamente diferente. Pode-se deduzir pelos passos do algoritmo que o mesmo mostra-se eficiente apenas para bancos de dados pequenos. Para o exemplo em questão, o tempo gasto para reconhecimento foi em torno de 43% do tempo gasto pelo usuário para realizar o desenho. Caso contrário, o tempo gasto com o reconhecimento pode superar o tempo disponível para a aplicação. Em casos como este, recomenda-se o uso de redes neurais artificiais que, apesar de dispenderem um tempo maior na etapa de treinamento, são bastante rápidas na etapa de reconhecimento. 4) Simplificação da forma reconhecida Uma vez reconhecida a forma desenhada, realiza-se um processo de simplificação da mesma, capturando as dimensões do esboço e substituindo-o pela forma padrão correspondente com traços firmes. A estas formas são adicionados eventos de toque para edição das mesmas. Com um toque longo é permitida a edição da forma em suas principais propriedades: escala, rotação e translação, de modo que o ambiente possa ser composto da maneira desejada pelo usuário. C. Criação e Reconhecimento de novos Gestos O dicionário de gestos apresentado na Figura 6 é comum aos sistemas operacionais móveis predominantes e pode ser utilizado para qualquer finalidade programada. Entretanto é limitado aos movimentos básicos. A criação de novos gestos é um processo que envolve a entrada de dados do usuário em tempo real e o processamento imediato da informação. Para isso, deve-se criar um algoritmo de retorno rápido e consistente, garantindo assim a usabilidade do sistema. O procedimento para elaborar gestos personalizados é baseado não apenas no caminho percorrido, mas no seu movimento de execução. Não é analisada apenas a localização dos pontos percorridos, mas a relação entre pontos subsequentes. São realizadas as seguintes etapas no reconhecimento do gesto: a) Entrada de dados e formação do vetor de pontos percorridos. b) Criação de um vetor de direções. São analisadas as relações entre os pontos, atribuindo a elas um valor numérico no intervalo [0,7] que representa a direção do movimento. O intervalo segue o sentido horário, começando da direção horizontal no sentido partindo da esquerda para a direita. Os demais valores seguem um passo de 45° a partir deste. A Figura 7 apresenta a relação completa dos sinais simples e compostos. c) Eliminam-se os sinais repetidos sequencialmente, a fim de evitar ambiguidade dos dados. d) O vetor formado até então é suavizado, de modo que três valores que indicam um caminho quebrado possam ser simplificados por um único valor. A composição [7,6,7], por exemplo, pode ser substituída por [7]. Observando os passos descritos, um movimento senoidal poderia ser descrito pela composição [6,7,1,7,6]. Uma vez que os gestos foram reconhecidos e figuras bidimensionais foram associadas a eles, começa-se então o processo de criação do ambiente virtual, associando novos modelos 3D aos esboços 2D reconhecidos. D. Criação do ambiente virtual A transformação do desenho bidimensional em um modelo 3D é feita através dos gestos criados anteriormente. A associação das formas básicas aos modelos é efetivada com base em um banco de dados do aplicativo que contém todas as formas pertinentes ao seu conteúdo. Assim, é possível criar um modelo tridimensional a partir de extrusões lineares e por rotação de um determinado padrão. Para cada método de extrusão é adotada uma sequencia de ações gestuais que realizam os Figura 7 Dicionário de Sinais formadores de Gestos passos do processo, apresentadas nas demais sessões deste trabalho. Foram adotados gestos com um dedo para a criação de esboços 2D. Gestos realizados com dois dedos são destinados à transformação dos esboços. 1) Extrusão Linear A Figura 8 apresenta em (a) o processo de extrusão linear, ilustrando a interação do usuário para a realização do mesmo. Observa-se a implementação do algoritmo $1 Dollar Recognizer nos passos A e B para o desenho bidimensional. O primeiro passo após o desenho é a transformação da perspectiva do desenho. Para isso, utiliza-se o gesto Pan Down (Vetores [2] e [2]) para realizar a rotação do desenho no eixo horizontal X. O processo segue na etapa E com a extrusão da forma linearmente no eixo vertical Y. O gesto associado a esta etapa não é nativo dos sistemas operacionais predominantes, mas foi implementado de forma que utilize dois toques simulando o crescimento do caminho de extrusão. Conhecido como Grow Up (vetores [] e [6]), o gesto é feito mantendo um dos dedos pressionado sobre a figura de extrusão e o outro se move de baixo para cima a partir do ponto de toque. O efeito obtido é a criação do modelo extrudido. 2) Extrusão Spin O processo de extrusão spin, ou extrusão por rotação é baseado em um profile, ou uma forma básica, que é rotacionada em torno de seu eixo, a fim de criar um objeto simétrico. O método proposto é visualizado na Figura 8 (b). É possível perceber a maior flexibilidade do processo, permitindo ao usuário desenhar um profile personalizado, não necessariamente sendo uma das formas básicas presentes no banco de dados. A rotação em torno do eixo vertical é realizada através do gesto de meia rotação (vetores [] e [0,1,2,3,4]). Pode-se adaptar o sistema de modo a aceitar qualquer um dos gestos de rotação, completa ou parcial. O modelo criado também aceita as transformações geométricas básicas de escala, rotação e translação. IV. ESTUDO DE CASO Como ferramenta de validação da usabilidade do sistema proposto, foi criado um aplicativo para mobile- learning voltado para o ensino de Física (mecânica simples). O objetivo principal do sistema é permitir ao aluno a criação em tempo real de um sistema físico capaz de refletir seu alvo de estudo. O aluno pode desenhar sistemas presentes no material didático, estudados em sala de aula, ou ainda a concepção de uma nova configuração dos modelos. O banco de dados do sistema conta com os principais elementos que podem compor os experimentos virtuais, tais como bolas, blocos,carros e planos inclinados. A. Interface A interface do aplicativo foi criada de acordo com os padrões de desenvolvimento para dispositivos móveis estabelecidos pelos principais desenvolvedores atuais, que podem ser vistos em [12]. Durante o processo de criação da interface do aplicativo foram observados principalmente os seguintes aspectos: Usabilidade; Estética; Transições entre páginas; Facilidade de aprendizagem; Compatibilidade com diferentes dispositivos e sistemas operacionais. (a) (b) Figura 8 Processos de Extrusão (a) Linear e (b) Spin Com base nos tópicos referenciados, desenvolveu-se a interface apresentada na Figura 9. Uma das características centrais de tal interface é sua dinamicidade, uma vez que é permitido ao usuário alterar a disposição do menu principal, para ajustá-lo à sua preferência. Seguindo os princípios de desenvolvimento de interfaces para dispositivos móveis e os padrões das interfaces naturais, foram suprimidos os menus estáticos comuns a muitos softwares e aplicativos, de tal forma que apenas elementos mais relevantes a cada tela são vistos no display. Uma vez que a interface está cada vez mais limpa, as transições entre as telas e o conteúdo apresentado devem ser exploradas, contribuindo para um aplicativo mais atraente ao usuário. As facilidades da linguagem adotada permitiram a elaboração de um aplicativo com poucos elementos gráficos visíveis e bastante elegante em suas transições. A paleta de cores escolhida é minimalista e segue as tendências de padrões web e mobile adotados pelos principais sites e aplicativos atuais. As páginas foram conectadas seguindo um padrão em estrela, o que garante uma comunicação entre todas elas de forma direta, de tal forma que o usuário não precise retornar ao menu principal para alternar entre as páginas. B. Funcionalidade O aplicativo desenvolvido, na forma de prova de conceito, é baseado em esquemas básicos relacionados ao tópico em questão, que envolvem o movimento de objetos sólidos como caixas, carros e bolas sobre uma superfície. As características de cada elemento móvel e das superfícies, bem como do ambiente ao redor, influenciam no comportamento do móvel. Tais parâmetros nem sempre são de fácil alteração durante os experimentos reais, como a ação da força gravitacional, por exemplo. A simulação em ambiente virtual permite ao estudante perceber o efeito de condições físicas extremas e/ou irreais, como gravidade negativa ou com valores extremamente altos. A comparação entre estes parâmetros e os reais é de grande importância no aprendizado. O aplicativo permite ao aluno alterar quaisquer parâmetros relacionados à geometria dos corpos, assim como as forças que atuam sobre os corpos e sobre o ambiente externo. A criação do ambiente segue as premissas apresentadas anteriormente. O aluno começa pelo planejamento do sistema físico, esboçando por gestos os elementos que constituem o ambiente. Ao pressionar o modelo criado, ele é apto a alterar suas propriedades físicas, como peso e atrito, por exemplo. Através do menu principal do aplicativo, o usuário é capaz de alterar as propriedades do ambiente, como forças externas que atuam diretamente sobre cada elemento, como gravidade e aceleração. Uma vez criado o esboço, pode-se alternar entre as páginas de visualização e simular a interação física em Realidade Virtual ou Realidade Aumentada. Enquanto este apresenta o sistema sobre um marcador, utilizando a câmera do dispositivo, aquele tem como alvo da simulação o display do aparelho móvel. C. Realidades Virtual e Aumentada O esboço feito pelo aluno, ou apresentado pelo professor, pode ser visto através dos métodos de RV e RA e a interação é feita através da movimentação do dispositivo e/ou através de gestos de movimentação. A Realidade Aumentada permite uma interação maior do usuário na navegação, permitindo a visualização do sistema sob diferentes ângulos com o simples movimento do marcador impresso. Este marcador pode ser incorporado aos materiais didáticos. A Figura 10 apresenta um ambiente simples criado e apresentado em RV. D. Navegação por aceleração Foi determinado como padrão para o sistema o uso de gestos para desenho e transformações 3D. Para a navegação optou-se pelo uso das propriedades de giroscópio e acelerômetro. Ao girar o dispositivo, é (a) (b) (c) Figura 9 Interface do Aplicativo (a) Menu Principal; (b) Página aberta; (c) Página aberta com menu. (a) (b) Figura 10 (a) Esboço feito pelo usuário; (b) Visualização em RV possível selecionar o modo de visualização e o usuário pode girar o ponto de vista do ambiente 3D utilizando a alteração da rotação do dispositivo. Assim, uma rotação em torno do eixo Y pode ser feita girando levemente o dispositivo em seu eixo vertical. A opção de usar ou não as propriedades de aceleração do dispositivo pode ser determinada pelo usuário, garantindo adequação do sistema a cada tipo de dispositivo. Caso opte por não utilizar a aceleração do dispositivo, o usuário poderá usar os gestos padrões do sistema operacional, como swipe e pan. E. Comunicação Uma das opções de utilização, denominada de modo online, permite aos usuários interagir entre si em um ambiente de criação colaborativo. O modo de utilização em rede é composto de um computador servidor, gerenciado pelo professor, e inúmeros aplicativos clientes, para cada aluno provido de dispositivo móvel. A conexão com a internet é opcional e acessa os dados pessoais do utilizador do sistema. Ao criar um novo sistema, o usuário pode enviar uma mensagem ao professor ou ao grupo, propondo o compartilhamento dos seus dados, para que todos visualizem a simulação. Também é possível que o professor solicite a um aluno específico que complete o sistema apresentado em uma lousa digital, ou em um projetor. O modo de conexão local permite a intercomunicação entre os dispositivos móveis. É importante ressaltar que o sistema não é limitado a smartphones. Outros dispositivos móveis, como tablets e notebooks, por exemplo, compatíveis com o sistema, podem comunicar-se através da rede local. A comunicação pode ser limitada de acordo com as necessidades do ambiente escolar. O professor, atuando como servidor, possui privilégios de administrador do sistema, controlando o envio de mensagens e de esboços entre os alunos. Um banco de dados está disponível em rede, para armazenar as configurações dos usuários, como históricos e sistemas favoritos. Também é retida a disposição do menu principal. Ao escolher o modo online, o sistema atualiza os dados do usuário ao entrar e ao sair do sistema. V. CONCLUSÕES Os métodos desenvolvidos neste trabalho para criação, edição e navegação em ambientes de RV e RA mostraram-se adequados aos sistemas móveis. O uso de gestos - personificados - tornou o processo de criação de ambientes 3D mais natural ao usuário, facilitando a transição da tecnologia de computadores pessoais para a computação móvel. Envolvendo um raciocínio simples, o sistema gestual desenvolvido apresenta uma rápida curva de aprendizagem, pois sua utilização é feita por associação dos padrões naturais de movimentos. Este método não somente facilita a navegação em ambientes de RV e RA, mas apresenta uma forma de interação com dispositivos móveis simples e intuitiva. Desse modo, contribui-se para a expansão da utilização de dispositivos móveis para ensino, pois o usuário pode beneficiar-se das facilidades do uso do aplicativo para alcançar o aproveitamentomáximo do conteúdo apresentado. O sistema proposto engloba características relevantes de cada trabalho apresentado como correlato, unificando- os em um aplicativo compatível com a tecnologia de dispositivos móveis. A colaboração entre alunos para a criação de um sistema estudado no meio acadêmico mostrou-se eficiente ao ser realizada através de dispositivos móveis conectados a uma rede local ou global. VI. TRABALHOS FUTUROS Como trabalhos futuros, propõe-se o desenvolvimento de outros métodos de reconhecimento gestual, buscando aperfeiçoar o processo de identificação de um número maior de gestos. Podem ser explorados diferentes métodos de navegação envolvendo a interação entre dois ou mais dispositivos. Sugere-se também a geração de um ambiente de RV e RA com base no sistema físico característico da posição geográfica do usuário, buscando sua localização e verificando aspectos de relevo em bancos de dados online, por exemplo. São inúmeras as aplicações do sistema para práticas de mobile-learning, como aplicativos que envolvam a utilização dos métodos de criação de sistemas para ensino de outras modalidades da Física ou para ensino de trigonometria, por exemplo. Podem ser criados aplicativos para a alfabetização ou outros métodos de ensino da educação básica. A transformação de antigos métodos de ensino como o Tangram ou o Material Dourado de Montessori, por exemplo, podem ser adaptados para que os alunos transformem suas figuras e vejam a interação entre elas como peças de um quebra-cabeças virtual. Aulas de desenho também podem fazer uso do sistema para ampliar os conceitos de perspectiva e sobreposição de imagens. Outro possível trabalho envolve diferentes métodos de criação dos esboços 2D, como interpretação de imagens desenhadas, de forma que o aluno possa fotografar um esboço de sistema físico e o aplicativo transformá-lo em um ambiente 3D. VII. REFERÊNCIAS [1] ANATEL, Agência Nacional de Telecomunicações. “Relatório Anual 2010”, disponível em <http://www.anatel.gov.br> Acessado em 16 de agosto de 2011. [2] A. Z. Saccol, N. Reinhard, “Tecnologias de Informaçăo Móveis, Sem Fio e Ubíquas: Definições, Estado-da-Arte e Oportunidades de Pesquisa”, RAC, v.11, n.4, pp175-198, 2007. [3] D. Wigdor, D. Wixon, “Brave NUI World: Designing Natural User Interfaces for Touch and Gesture”, Ed. 1, Morgan Kaufmann, 2011. [4] C. Kray, D. Nesbitt, J.Dawson, M. Rohs, “User-Defined Gestures for Connecting Mobile Phones, Public Displays, and Tabletops”, MobileHCI’10, Lisboa, Portugal, September 7-10, 2010. [5] J. Rico, S. Brewster, “Usable Gestures for Mobile Interfaces: Evaluating Social Acceptability”, CHI 2010, Atlanta, USA, April 10-15, 2010. [6] Y. Zhang, S. Zhang, S. Vuong, K. Malik, “Mobile Learning with bluetooh-based E-learning System”, Mobile Technology, Applications and Systems, vol. 15, 2005, p. 5. [7] D. S. K. Seong, “Usability Guidelines for Designing Mobile Learning Portals”, The 3rd International Conference on Mobile Technology, Applications and Systems – Mobility 2006 [8] R. Davis, “Magic Paper:Sketch-Understanding Research”, IEEE Computer Society, 2007. [9] O. Bergig, J. Hagbi, J. El-Sana, M. Billinghurst, “In-Place 3D Sketching for Authoring and Augmenting Mechanical Systems”, 8 th IEEE International Symposium on Mixed and Augmented Reality (ISMAR 2009), 2009, p.87-94. [10] S. Bae, R. Balakrishnan, K. Singh, “ILoveSketch: As-natural-as- possible system for creating 3D curve models”, ACM Symposium on User Interface Software and Technology, Monterey, CA, USA, 2008. [11] J. O. Wobbrock, A. D. Wilson, Y. Li, “Gestures without Libraries, Toolkits or Training: A $1 Recognizer for User Interface Prototypes”, UIST’07, Newport, USA, October 7-10, 2007. [12] Android Developers, “Android Design”, disponível em < http://developer.android.com/design/patterns/navigation.html> Acessado em 07 de Janeiro de 2012
Compartilhar