「AIだから本音をいえる」わけではない? 表面化していない欲求を引き出すには
海馬の例にあるように、「以前は人間の脳を参考にAIをつくろうとしていた」という大澤氏。今は、人間の脳がどう機能しているのかを内側から研究する神経科学、人間を外側から観察して理解しようとする認知科学の両側面から、AIに人の意図を認識させるためのアプローチを図っている。これらの研究でわかった人間の認知モデルをLLMに統合することで、AIが言葉の背景を読めるようになったという。
現在この仕組みは、日本大学の学生向けメンタリングシステムに提供されている。メンタリングでは、チャットを通じて学生に研究の目的や目標などをヒアリングする。AIが学生の回答から意図を読み、彼らの自発的な成長を支援するのだ。
実証実験の段階では、大澤氏自身がチャットの回答を学生に送信していたという。中には「この研究室で何をしたいですか」という質問に対して、「AIをやりたいです」と簡潔に回答する学生もいた。大澤氏は、「もっと丁寧に回答してほしい」という想いから、もう1度「この研究室で何をしたいですか」と繰り返す。すると、相手が大澤氏だとわかっている学生は「先生はもっと詳しい回答を求めている」と察し、長文で本音を語り始めた。
大澤氏は「この会話形式は『使える』と思い、そのままAIに搭載して、メンタリング用のチャットとして活用した」と振り返る。しかし、結果は苦情の嵐。「AIのバグではないか」という問い合わせも少なくなかった。
「言葉のやり取りはまったく同じです。それでも、相手がAIだとわかっていると反応が大きく異なりました。つまり、AIがどれだけ良い回答を出したとしても、人が会話の相手をどう認識しているかによって、コミュニケーションの結果が左右されるのです」

メンタリングで「やりたいことはなんですか」と問うと、「何もない」と回答する学生がいる。大澤氏は「彼らには、本当は挑戦したいことがある」と話す。学生の多くは「いうと馬鹿にされるのではないか」「人に語れるほど立派な目標ではない」と、話すのをためらっているだけと予測できるからだ。
こうした場面で、AIが人の意図を汲み取れなければ、「夢がないなら一緒に考えよう」と額面どおりの回答をしてしまう。しかし、HAIの研究では「何をいっても馬鹿にしないから教えてよ」のように、AIが回答の裏に隠れた意図を理解し、学生の本音を引き出す働きかけが可能となる。
「我々の研究は、単なる言葉のやり取りではありません。信頼関係の上で生まれるコミュニケーションを後押しするために使うものです」
HAIのように、人とAIが協力し合う関係がベースとなれば、表面化していない人の欲求を引き出せる。メンタリングシステムと同様に、コンタクトセンターや企業の人材育成など、様々な場面で活用が可能だろう。効率化を超えた、新たなビジネスチャンスが生まれるのだ。