NippoRoboTech
:: Un team di ricerca guidato dal professor Jun’ichi Ushiba dell’Università di Keio ha sviluppato un sistema BCI (Brain-Computer Interface) in grado di controllare i movimenti di un avatar all’interno di Second Life. Per controllare il proprio personaggio l’utente deve semplicemente pensare di muovere alcune parti del proprio corpo: l’avatar cammina in avanti mentre l’utente pensa di muovere i propri piedi, e gira a destra o sinistra quando l’utente immagina di muovere la mano destra o sinistra.
::U-Tsu-Shi-O-Mi è un umanoide robot sviluppato presso la Yokohama National University, che appare come un avatar animato quando visto attraverso un apposito display indossabile sugli occhi. Un avatar 3D interattivo con un corpo fisico con cui l’utente può interagire direttamente.
:: Ricercatori del Japan’s National Institute of Information and Communications Technology hanno sviluppato un umanoide autonomo in grado di riconoscere ed utilizzare il linguaggio del corpo.
:: La Omron Corporation avrebbe sviluppato un software di riconoscimento visivo in grado di interpretare le emozioni umane dalla lettura dell’espressione del volto.