AI実装は失敗ありき ではどうガバナンスを担保するのか?
──ガバナンスの課題がAI導入の大きなハードルになっているのは事実です。AIへの信頼という観点で、日本企業はどこまで自律的な判断をAIに任せるべきか、まだ大きな課題があります。
Roy:前提として、AIが間違いを犯すことは当然だと認識する必要があります。問題は「間違ったときにどうするか」。
信頼性を担保する上で2つの条件があります。1つは、ハルシネーションが発生してもシステムへの影響を遮断する仕組みです。仮にAIが誤った判断をしたとしても、具体的なアクションに移す段階で検知されブロックされなければなりません。アクションの実行に権限を求める仕組みなどを、AIと社内システムをつなぐエンタープライズMCPと呼ばれる層に組み込みます。
もう1つの条件が正確性です。AIエージェントが間違った答えを返してきたら、次に使うのを躊躇いますよね。人がAIエージェントを信頼するには少なくとも95%以上の精度が必要です。そのためにはコンテキストギャップを埋めること、つまりAIエージェントに十分な文脈情報を与えることが直接的な改善策となります。
信頼は1日では築かれません。人間同士でも、初対面の相手をすぐに信頼することは難しいはずです。相手を知る中で徐々に信頼が生まれるのはAIも同じ。まずは使い始め、その過程でガードレールを設けながら少しずつ安全性を高めていきます。
──米国はスピード重視と伺いましたが、どう安全性を担保しているのでしょうか。リスクの発生は避けられないはずです。
Roy:当社ではすぐにChatGPT、Claude、Geminiを全社員に展開しました。早く社員が実験したり、学んだり、失敗したりできるように。失敗から学ぶことが前提であるため、一定のリスクは取らなければなりません。
ただし、絶対に妥協しない点を決めて線引きするのです。顧客データや従業員データ、財務データは絶対にAIに提供しない。逆にいえば、それ以外の領域では積極的に実験して問題ないとしています。
──ガバナンスとセキュリティの面で、Workatoはどのようにサポートしているのですか。
Roy:セキュリティとガバナンスを3つのレベルで設計しています。
第1のレベルは「誰がエージェントと対話できるか」。たとえば営業エージェントには営業担当者だけがアクセスでき、財務エージェントには財務チームだけがアクセスできる。顧客データや財務情報を全社員に公開すべきではありませんから。
第2のレベルでは「AIエージェントが何にアクセスできるか」を重視しています。AIエージェントがアクセスできるシステムと、各システムで実行できるアクションの範囲を明示的に定義しています。
第3のレベルが「ユーザー権限の動的適応」です。同じAIエージェントでも、ユーザーによってアクセスできる情報や実行できる操作を変えます。AIエージェントは誰が操作しているのかを認識し、その権限に応じてリアルタイムで適応します。また、ドキュメントに個人情報が含まれる場合はマスキングを行い、AIエージェントから見えないようにするのも重要です。加えて、すべての操作が記録されるため、ミスが発生したときにAIエージェントがどこで誤った判断をしたのかを追跡し、適切な復旧処置を取ることができます。
──では、日本市場ではどのような展開をしていくのか最後に教えてください。
Roy:私は、日本はAIで大きな成果を上げられると確信しています。実際に日本企業のCIOなどと話すと、早くスタートを切りたがっている。そうした企業を支援するために、当社では今後チームの拡大も予定しています。また、日本企業を米国に招待してAIエージェントを開発するワークショップも開催しようとしています。
今の段階では、日本は米国より少し遅れているかもしれません。しかし、エンタープライズMCPを整備すれば、エージェンティックAI企業を実現する上で課題となっている3つのギャップを埋めることは可能です。基盤が整えば、そこから先は一気に加速できる。ぜひ最初の一歩を踏み出してほしいです。
