更新日:
最近とても不思議に思ったことがある。CEATECに行ったら、あちらこちらの会社で小型の人型ロボットを出していた。音声インタフェースで、裏で自己学習が動いているようなやつだ。どうも、AIとの媒介として“人型ロボット押し”がブームになっているみたいだ。シャープのロボホンとトヨタのキロボに至っては、顔までそっくりだ。媒介者としての能力が向上したのかと思ったらそうでもない。キロボなど、話しかけてから答えが返ってくるまでにだいぶ時間がかかる。寝ぼけている人と話をしているようだ。なにゆえ、このようなレベルのものを、今更大々的に出してくるのか?
先日、実家へ行ったら母(70代)がWii Fitをやっている場面に遭遇した。Wii Fitは合成音声的な声で挨拶をしたり次の操作の指示をしたりする。Wiiが「……ですね」というと母は「はいはい」とか答えている。「さぼっていると『久しぶり』っていわれちゃう」とも言っていた。…AIではないのだが、この音声インタフェースは母にとって親近感が湧いて、Wii Fit継続の要因になっているようだった。なるほど、技術者の視点で擬人化インタフェースを見てはいけないんだ、対象ユーザーがどう受け止めるのかなのだ、と改めて思った。先のロボット流行りも対象ユーザーを熟考してのことなのか?
もう一つ、先月末にとある音楽プレーヤーを買ったのだが、その楽曲転送ソフトに問題があって、サポートにメールで問い合わせを繰り返している。こちらが事細かに状況を報告しても、回答は「リセットしてください」「ダウンロードし直してください」ばかりでFAQに書いてあってすでに試しているようなことしか指示してこない。しばらくやりとりしていて、こちらが疑問形で問い合わせたことにしか答えてこないということに気付いた。改めて問い直すと、すでに報告していた中に「そもそもその状況がおかしい」ということが含まれていたことが判明したのだが、明示的に尋ねるまで全く反応しなかったのだ。もしかして、これ、相手は人間じゃなくて自動回答ロボット?定型文しかしゃべってはいけないのであれば人である必要性はないと思う。
『人と機械の役割分担』という文言は古くからインタフェースの世界ではある。が、AIの実利用が活発になって改めてこのことを深く意識する必要を感じている。介護の世界では、ロボットによる諸々が期待されている。本当にロボットでいいのかとも思うが、辛抱強く相手の話を聴いて応える機能があるのなら、人よりロボットのほうが気兼ねもなくて、アリなのかもしれない。
いちHCD専門家として、今後はタッチポイントとしての「ロボット」について、対象ユーザーの受け止め方という面で、もっと知見を深めなければと思った次第である。