AI時代に人間がやるべきは「価値を決める」こと?
近藤:AI時代において、人間にしかできないことはなんだとお考えですか。
及川:世の中のさまざまな営みの中には「正解が明確ではないこと」が多くあります。仮に正解らしきものがあったとしても、そこへのたどり着き方はいくつもある。それを決めるのが人間ではないでしょうか。
私の本業であるプロダクト開発・プロダクトマネジメントにおいて、成功は「顧客価値の最大化」と「事業価値の最大化」の二つで定義されます。この二つのバランスは非常に難しく、何が価値かは会社によっても違います。これを生成AIに丸投げすることはできません。
事業の採算を度外視してでも社会貢献を優先するのか、収益を最優先するのか。その「何を成功とするか」という倫理的・価値観的な判断を下すのは人間でなければ。なおかつ、その意思決定をするときに「情熱」がなければ、関係者や顧客を引き込むことはできません。
近藤:そう考えると、人間に残された役割は非常に難しいものだと感じます。その役割を情熱によってどう進められるとお考えですか。
及川:人材育成モデルの一つに「カッツモデル」というものがあります。リーダー層に必要とされるスキルを「テクニカルスキル」「ヒューマンスキル」「コンセプチュアルスキル」の3つに分類する有名なフレームワークです。
- テクニカルスキル:自分で手を動かすスキル(コーディング、営業テクニックなど)
- ヒューマンスキル:コミュニケーション、ネゴシエーション、プレゼンテーションなど
- コンセプチュアルスキル:概念化、ビジョン構築、物事を抽象的に捉える力
このうち「テクニカルスキル」の大部分は生成AIによって代替されるでしょう。そうすると、残りの「ヒューマンスキル」と「コンセプチュアルスキル」が極めて重要になるのです。
私たち人間は、五感を使ってアナログな世界で生きています。生成AIのアウトプットを解釈し、自分の肉声として他者に影響力を行使しようとするには「ヒューマンスキル」と「コンセプチュアルスキル」が鍵です。
近藤:生成AIのアウトプットをただ横流しするだけでは、人は動かせません。そこに自分が納得した上での説得、そして「こうすべきだ」という判断を加える力が求められる時代ですね。そんな中、人間とAIはどのような関係を築くべきでしょうか。
及川:AIエージェントの世界では「自律」という言葉がよく使われますが、日本語で「自律」は「自分を律する」という意味です。しかし、AIが自分を律するかというと、まだできないと思うんですね。「ガードレールとしての人間」という存在は確実に必要です。モデルを作る上でのバイアス対策から、どういった出力や入力を許すかという設計まで、人間が関与しなければなりません。
私は業務に生成AIを組み込むとき、ガードレールとしてだけでなく「Human in The Loop(AIの処理サイクルに人間が必ず介在して確認・判断すること)」として、人間が絡む必要があると思っています。
私が工夫しているのが、あえてChatGPTやClaude、GeminiなどのWeb版を使わず、CLI(Command Line Interface)版を使うことです。Web版はメモリ機能が便利ですが、生成AIに主導権を渡しすぎている気がします。
CLI版でセッション情報をMarkdownファイルなどに自ら保存・管理し、次に使うときにそれを参照させる。これにより完全に自分が主導権を握れると思います。さらに、AIツールを乗り換えても自分のノウハウを引き継げるわけです。
近藤:それは興味深いです。つまり、生成AIが勝手に覚える「Web版のメモリ」ではなく、自分でコンテキストを管理し「自分のノウハウ」としていつでも他のAIツールに引き継げるようにする、“自分のRAG”を作っていくイメージですね。
及川:そのとおりです。自分で複数のエージェントを使い分けてコントロールできるようになるかもしれません。これが生成AIを強力なサポーターとして使いこなすための一つの実験的なアプローチです。
