つくるの大好き。

つくるのが大好きな人の記録。

NUI(Natural User Interface)についての考察

最近あまりNUI(Natural User Interface)っていう言葉を聞かなくなってきた気がします。
一時はCUI,GUIに続く次世代の入力インターフェイスとしてジェスチャー入力が近未来感とともにもてはやされていた気がします。

しきりに耳にしたワードがこれ。

「マイノリティリポートの世界がいよいよやってきた」

http://www.jikanryoko.com/images/mino.jpg

 

 

でもいざ多くの人が使ってみて薄々気づいてしまったんだと思います。

30秒も腕を上げているとすごい疲れるし、思ったように操作できないということに。

f:id:peugeot-106-s16:20161212221154j:plain

f:id:peugeot-106-s16:20161212221350j:plain

えw タッチすればよくね?ということに。

 

ぼくもKINECTを触り始めてもう6年になりますが、最初にチーム制作したAIR SHODOUを通して、これは達人にしか扱えないのでは?という事に早くから気づいていました。

でも一向にマイノリティポートみたいなことをやりたいというオーダーは後を絶ちません(笑)

ぼくはこれを「マイノリティリポート症候群」と呼んでいます。
またこのようなインターフェイスのコンテンツを「ゴリラ腕養成ギブス」と呼ぶ友人もいます。

要は、人間というのは空中にある見えないものを正確に操作するようにはできていない生き物だと思っています。
指輪型デバイスのような物理スイッチャーを使っても依然それは難しいものです。


なのでジェスチャーUIを使いたいという要望に対しては企画段階からしっかりお断りするか、老弱男女、人種を超えてだれでも間違えないものに限定するか、ブースの造作や物理ボタンやタッチパネルで補助するような提案に落とし込むよう誘導すべきです。
悲劇はそれが決定事項として降りてくるようなお仕事でそれはやめたほうがいいですw

このDUVETICAのヴァーチャルフィッティングのように頭上のモヤモヤを触るというとても簡単で直感的なスイッチでさえ、観察していると数十人に一人程度の割合ではありますが画面のモヤモヤをタッチしにゆく人がいるのです。
これは結構衝撃的でとても勉強になりました。

youtu.be

 

このような経験からNUIってなんだろうって深く考えるようになりました。
必然性もないのに画面から距離をとって立つ必要があり、ジェスチャー操作のしかたが説明書きとして貼ってあり、それに従わなければ操作できないUIのどこがNaturalなのだろうと。

Natural = 自然 = 特別なことをしなくても使える

ここまで来ないとキーボードやマウス、タッチパネルという便利なインターフェイスに肩を並べることはできないと思います。

 

そういう経緯で生まれたのが「きゃらみらー」です。

開発コンセプトとゴールは

「一切の説明をせず置くだけで子どもたちが狂ったように遊びはじめるその様を後ろからビールでも飲みながらほくそえみつつ楽しむ」

これはかなり成功したので満足しています。

機能追加をするときは厳選して上記コンセプトに反しないものだけを少しだけ足すようにしています。

ジェスチャー入力としては「そこに立つ」というのが最もシンプルで世界中誰でも間違えずにできるものでそれ以上はよほど自然なものでないと難しいなと思っています。

また変な誘導を作らないことで子どもたちはそこで例えばいかにセンサーに検知されず近くまで近よれるかを競うだるまさんが転んだのような新しい遊び方を編み出してきたり、場所を分け合ってみんなで楽しく遊ぶルールを自分たちで作るような社会性を発揮したりと、観ているとほんと面白いです。

youtu.be

 

というわけで、2016年11月20日、横浜市金沢区役所のCode for Japan Summitで展示した「きゃらみらー」も置いただけでとても盛り上がっていました!
(この記事は実はイベントレポートでしたww)

f:id:peugeot-106-s16:20161212224515j:plain

f:id:peugeot-106-s16:20161212224552j:plain