Gafas inteligentes permiten ver e interactuar con el mundo alrededor de ellos en maneras nuevas e innovadoras. Las formas de interacción común hoy en día son comandos de voz y el uso de gestos con las manos para dar comandos al dispositivo.
Objetivo principal de nuestro proyecto es proporcionar una interfaz más fluida y natural con mano gestos no sólo dan órdenes pero también referencia la realidad que vemos.
Nuestro objetivo es proporcionar una nueva API para la gafas inteligentes comunidad de desarrolladores que permiten nuevas aplicaciones.
La API creada se demuestra a través de un programa que describe una imagen (llamado CamFind) y un OCR.
Como puede verse en la demostración que el sistema reconoce el gesto de la mano. A continuación, la imagen de la RPI se recorte a la zona cuadrada indicada por las manos del usuario. Finalmente, el sistema recibe un comando de voz, permitiendo al usuario elegir una aplicación que utiliza la imagen recortada y se devuelve una respuesta a través del auricular.
El gesto de la mano y la zona capturada pueden verse en la imagen de arriba. El dorso de ambas manos están frente a la cámara, sólo el pulgar y los dedos del índice están abiertos, todos los otros dedos están cerrados.
El código es modular y cada parte puede ser usado de la separabilidad. El código del proyecto está disponible en Github.
Hardware:
1. frambuesa modelo Pi B +
2. frambuesa Pi HD cámara: a. video resolución: 1080p tamaño del b.: soporte de lente de c. 36 x 36 mm: M12x0.5 o montaje CS
3. RPi cámara extensión Kit Bitwizard
4. 300 Mbps Wireless N USB Adapter TL - WN821N - internet conexión es necesario sólo para las aplicaciones, no es necesarias para la parte de reconocimiento
5. auricular - necesario para las aplicaciones sólo
6. Powerbank - movilidad de RPI