Prototipo de interfaz humano-computadora controlada a través de gestos faciales
DOI:
https://doi.org/10.32870/recibe.v8i1.128Palabras clave:
Interfaces-Humano-Computadora, Gestos faciales, Arquitectura.Resumen
Las interfaces humano-computadora se basan principalmente en el modelo de ventanas, punteros y ratones como paradigma dominante para la interacción con las aplicaciones. El uso de gestos es una adición valiosa al repertorio de técnicas de interacción humano-computadora, sin embargo, requieren tiempo para desarrollarse mejor. Como toda nueva tecnología presenta nuevos desafíos, entre los cuales se encuentra el contar con herramientas que soporten el desarrollo de aplicaciones que incluyan este tipo de interacción. Esto conlleva a la necesidad de desarrollar la infraestructura de soporte para el manejo de interfaces a través de gestos. Por lo que se propone un prototipo para el manejo de interfaces humano-computadora a través de gestos faciales, con la finalidad de establecer una base que permita desarrollar a futuro una biblioteca que permita a los desarrolladores desarrollar interfaces gestuales de manera fácil.Citas
A. Hawkes, A. Liu, R. Tashakkori, E. Jackson, J. Tate, S. Tashakkori, D. Kale, M. Parry ,” Using the Emotiv EPOC Neuroheadset as an EEGControlled BrainComputer Interface”, in Summer Ventures in Math and Science 2015, pp 1–15, June 2015.
G. Hornero, E. Font, J. Tejedo, O. Casas, “Interfaz gestual para el acceso a plataformas digitales y control de plataformas para el ocio”, VI Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos (DRT4ALL), Madrid, 2015 pp. 667-692.
M. Vidal, K. Pfeuffer, A. Bulling, H. Gellersen,” Pursuits: Eye-Based Interaction with Moving Targets”, The ACM SIGCHI Conference on Human Factors in Computing Systems, Paris, 2013, pp. 3147-3050.
H. Liang, J. Chang, I. K. Kazmi, J.J. Zhang, P. Jiao,” Hand gesture-based interactive puppetry system to assist storytelling for children”, in The Visual Computer, vol 33, pp 517–531, Apr. 2017.
R. McAdam, K. Nesbitt, “Leveraging Human Movement in the Ultimate Display”, Proceedings of the Thirteenth Australasian User Interface Conference (AUIC2013), Melbourme, 2013, pp. 11-20.
E. Hayashi, M. Maas, Jason I. Hong,” Wave to Me: User Identification Using Body Lengths and Natural Gestures”, CHI '14 Extended Abstracts on Human Factors in Computing Systems (CHI EA '14), Toronto,2014, pp. 3453-3462.
M. Heijboer, E. van den Hoven, B. Bongers, S. Bakker,” Facilitating peripheral interaction: design and evaluation of peripheral interaction for a gesture-based lighting control with multimodal feedback”, in Personal and Ubiquitous Computing, vol. 20, no 1, pp 1–22, Dec. 2015.
B. De Carolis, Giuseppe Palestra, “Gaze-based Interaction with a Shop Window”, International Working Conference on Advanced Visual Interfaces, Bari, 2016, pp. 304-305.
A. Mehler, A Lücking, G. Abrami, “WikiNect: image schemata as a basis of gestural writing for kinetic museum wikis” in Universal Access in the Information Society, vol. 14, no. 3, pp 333–349, Sep 2015.
M. Barrón-Estrada, R. Zatarain-Cabada, C. Aispuro-Gallegos, C. de la Luz Sosa-Ochoa, M. Lindor Valdez, “Java Tutoring System with Facial and Text Emotion Recognition”. International Journal of Advanced Research in Computer Science. 106. 49. 2015.
R.N. Taylor, N. Mendvidovic, E. M. Dashofy, “Software Architecture” Foundations, Theory and Practice, John Wiley & Sons, 2009, pp. 94-97.
“¿Por qué los desarrolladores de software eligen Java?” [Online]. Available: https://www.java.com/es/about/ [Accessed: 04/Abril/2018].
“EMOTIV EPOC+ 14 Channel Mobile EEG”, [online]. Available: https://www.emotiv.com/product/emotiv-epoc-14-channel-mobile-eeg/. [Accessed: 04/Abril/2018].
“The NetBeans Platform”, [online]. Available: https://netbeans.org/features/platform/index.html . [Accessed: 04/Abril/2018].