Problema muy difícil, la falta de información prácticamente no deja opciones.
Consideraría el uso de datos de giroscopio / inclinación para facilitar el desplazamiento, aunque es necesario aplicar más ideas para evitar el desplazamiento accidental, la calibración del centro, etc. Suponiendo que estos problemas se puedan resolver, rediseñaría la interfaz de usuario para que esté basada tanto en la lista como en el desplazamiento / basado como sea posible.
Entonces necesitaríamos un gesto para hacer clic. ¿Qué tal un parpadeo doble? ¿Puedes detectar lo que el usuario está haciendo con sus ojos? Creo que menos parpadeos individuales o parpadeos prolongados, ya que el primero puede ser involuntario y el segundo ralentiza al usuario.
- ¿Por qué falló Vodafone 360?
- Cómo ganar dinero en WhatsApp
- Entre los usuarios de las aplicaciones de todo, ¿qué porción las usa para el trabajo versus las tareas personales?
- ¿Qué SDK de análisis de datos y comportamiento de aplicaciones recomienda para el desarrollo de iOS?
- Estoy buscando agregar balizas para un próximo evento. ¿Qué proveedor es bueno y cuánto costará para la aplicación y luego para el complemento de baliza?
¿Otras opciones pueden involucrar el micrófono, si está disponible? Si es posible, podría detectar golpes físicos a la carcasa externa, tal vez correlacionando las señales de entrada del acelerómetro y el micrófono, o simplemente detectando alta energía en la señal de audio. Su pregunta dice “manos libres” … ¿quizás el reconocimiento de voz sea la siguiente opción?
Con respecto a asentir, parece una posibilidad remota, pero si esa es realmente su única opción, puedo ver un sofisticado procesador de señal en tiempo real que hace el trabajo con un usuario que ha obtenido algo de experiencia a través de la práctica. En esencia, tendrías que rechazar las frecuencias más altas para desplazarte y pasarlas para hacer clic, pero eso es una simplificación excesiva. Esto puede ser tan complejo como desee, desde filtros adaptativos hasta aprendizaje automático.