pepper、ロボホンなどのアプリ実装で思うこと
ロボットといっても単体では、情報を伝えにくかったりします。
そのためにタブレットと合わせて何か表示をさせたりします。
人間も何か伝えようとするのも、資料を作ったりする。プレゼンもスライドがあるからこそ、伝えたいことがうまく伝わります。
人間はさらに、アドリブで具体例を出したり、その話にあうようなジェスチャーで表現できるというのもロボットよりも優位な点だと思います。
ロボットの場合は、そのシーンごとで区切りをうまく実装してあげることが、人間へものを伝える際のポイントになるんだろうと思います。
人は聴いている人との間合いをうまくとることができますが、現時点でのロボットはそういうことができません。
※画像解析がどんどん発達してきているので、それも時間の問題かもしれません。
そこで、自分の話がここで切り替わるというのを効果音を入れるなどの工夫をすることで伝わりやすくします。ピロリーン♪といった音を出すことで、ボタンを押したタイミングでタブレットの画面の切り替わりをわかりやすくするということです。
これがかなり重要!しかもタイミングもすごく重要です。ロボットのUIUXはここが肝です。
この音があるとないとで、感じ方が全く違います。
ロボットではなくWEBの画面だと、
この画面のUIはすごく使いやすい、
この操作の仕方は直感的でわかりやすい、
というものが
ロボットだと、
間合いがすごく自然で伝わりやすい、
という感じに置き換わるんだと思います。
人間により近いというのが究極なんでしょうけどね。まだまだそこまでには至らないので、ちょっとした工夫をいれてあげることが、わかりやすいロボットといえるんだろうなぁ
と最近感じたことを綴りました。