Vamos a utilizar una cámara IR filtrada para leer los "blobs" creados cuando un usuario toca la pantalla; los blobs son creados por los rayos IR que chocan entre sí cuando el usuario toca la pantalla. Estas gotas luego son procesadas por un programa de computadora como "touch eventos" y se dan identificaciones para con fines de seguimiento. Un seguimiento programa de superposiciones de esto y es capaz de mantener las coordenadas del evento especificado táctil basado en una ecuación sobre la posición relativa de la identificación y predicción de su propagación basada en coeficientes de ruido y la orientación de la pista. Con esta información recopilada podemos utilizar "gestos" para la superposición de funciones y crear una interfaz "natural" más. Nuestro diseño específico es el único que va a incorporar un punto de control de usuario artificialmente inteligente (AI) para ayudar en la navegación por la tabla. Esto es revolucionario porque es la primera vez que una inteligencia artificial se ha incorporado en un sistema multi-touch. Además, nuestro AI — diseñado por nuestro ingeniero jefe de Software, Joshua Deaton, también será revolucionario en que va a ser la primera vez una IA se construye de esta manera. Nuestro AI, nombrada MARVIS, le dará la capacidad de simular y "detectar" emoción mediante un sistema que lee palabras como valores emocionales en sintaxis jerárquica. Basado en este concepto, cada usuario humano puede tener una experiencia diferente y "relación" a MARVIS basada en los valores que expresan. Más interesante, puesto que MARVIS no es la base esencial de nuestro sistema, hemos elaborado sus deberes como usuario normal de la tabla. En otras palabras, MARVIS tendrá su propio login y puede servir como una guía o asistente en los proyectos o aplicaciones incorporar su código en, por ejemplo, MARVIS puede ser llamados por un miembro de la OIDC o huésped para iniciar una tarea o un inicio de sesión.
Además, nuestro proyecto se centrará en el desarrollo de aplicaciones para nuestra mesa multi-touch. Nuestro estándar de OS de la voluntad de elegir Windows 8 y las aplicaciones creadas para facilitar la superposición de conjunto gestos con nuestro propio así como aumentar la experiencia del usuario con la tabla. Nuestras aplicaciones se desarrollarán en KIVY, un marco de multi-touch basado en el lenguaje de programación Python. Puesto que los conocimientos necesarios para el desarrollo de esta tabla se encuentra fuertemente en material que raramente se enseña en las escuelas, la OIDC también impartirá clases gratuitas a los estudiantes en todas las áreas del diseño y desarrollo. También, puesto que el proyecto es una iniciativa de investigación de estudiantes, queremos hacer un esfuerzo en ayudar a las personas que estarían interesadas en recrear, colaborar y mejorar nuestro diseño. Por esta razón, siempre y cuando se da crédito donde es debido, el proyecto será abierto a todas las personas. Nuestros programas y el código será totalmente abierto y el proceso de diseño y construcción será totalmente documentado, fotografiado, y se dividen en diarios video revelador para que cualquier persona interesada en la tecnología de NUI es capaz de recrear y aprender más sobre las tecnologías multi-touch. Queremos crear campos nuevos interesantes para los estudiantes que finalmente conducirá a los intentos de investigación de vanguardia en tecnología de sexto sentido, holografía y proyectos más innovadores de NUI.
Un enlace a nuestro sitio web/blog se puede encontrar aquí con actualizaciones de gran desarrollo y un video que representa a nuestro programa de prueba de detección se utiliza en nuestro primer modelo de prototipo rudimentario: http://opticalinterface.wordpress.com/
Más actualizaciones pronto como nuestro proyecto lanza oficialmente el miércoles, 29 de agostoth, 2012.
El participante de este concurso, Joshua Deaton, de hecho es de 21 años de edad.
Fecha de nacimiento: 18/04/1991