Este instructivo fue hecho como parte del curso de postgrado de CS 'Tangibles Interactive Computing' en la Universidad de Maryland, College Park impartido por profesor Jon Froehlich. El curso se centró en la exploración de la materialidad de la computación interactiva y, en palabras del profesor del MIT Hiroshii Ishii, trató de "pareja los dos mundos de bits y átomos". Por favor vea http://cmsc838f-s14.wikispaces.com/ para más detalles.
Durante la actuación, sonidos ambientales generalmente provienen de fuentes que no sea el ejecutante. El objetivo de este proyecto era utilizar sinestética diseño entre el movimiento y el sonido para mejorar a pie durante la actuación para crear una experiencia más inmersiva y realista. Como los artistas a pie, sus piernas produciría sonidos que imitan sus movimientos a través del ambiente imaginado (por ejemplo, si la actuación tiene lugar en una ruta de senderismo durante la caída, el público le oiga la contracción del artista intérprete o ejecutante a través de hojas mientras caminaban). En improvisación, artistas intérpretes o ejecutantes a menudo reaccionan a la entrada de la audiencia, así que queríamos un miembro de la audiencia para poder manipular directamente los pasos del artista como una forma de controlar la dirección de la historia.
Decidimos mostrar nuestra interacción con muppets de la configuración en los brazos del ejecutante en lugar de piernas.
Cosas que necesitará:
- Arduino Yun con microSD
- Altavoces flexibles (para que puedan hacer usable, que hemos querido envolver alrededor de pies del ejecutante para hacerlo sentir como el sonido está saliendo de los pies)
- Adaptador de audio USB (Conecte los altavoces a esto)
- Cable de Audio estéreo macho a macho
- Botón (también se puede crear un botón de tela pero estamos utilizando un simple botón
- Cables de puente