Mettez deux ingénieurs sachant programmer en Ruby et C++ dans une pièce, pendant deux semaines, avec 150$ de budget, et vous obtenez « Natural User System« , un système domotique répondant naturellement aux ordres vocaux, mais aussi aux gestes (en cours de développement).
C’est ce qu’ont réalisé Aaron Bitler et Bud Townsend:
Ce système, pouvant s’intégrer dans une installation existante cablée, ou en sans fil, utilise des micros et un serveur capable de reconnaitre des mots clés, comme « allumer la lumière », « fermer les volets », etc… Il dispose également d’une synthèse vocale afin de répondre aux questions qu’on lui pose.
Mieux, une certaine intelligence a été ajoutée: le but est de mettre des micros dans chaque pièce, afin de controler le système de n’importe où. Et bien lorsque vous posez une question au système, celui ci saura déterminer dans quelle pièce vous vous situez, et vous répondra dans cette pièce. Ca peut parait être un détail, mais ceux qui bidouillent en domotique savent que ce n’est pas si évident à réaliser :p
La prochaine étape est d’ajouter la reconnaissance de gestes pour contrôler le système. Le système est encore à améliorer, notamment quand on voit les temps de réponse pour allumer la lumière, par exemple, mais je rappelle qu’ils ont réalisé cela en deux semaines, et que pour le moment, ils utilisent la synthèse vocale de Google, ce qui allonge forcément les temps de réponse
Ils voulaient à travers ce projet montrer ce que Android@Home, la future solution domotique de Google, pourrait être. Espérons que Google tienne compte de leurs idées.
En tout cas, l’idée est excellente, nous suivrons le projet de près ;-)