ガイドラインと実態の乖離 リスク基準の見直しが急務に
行政機関はこれまでもDX推進のためのポストを設けてきた。民間企業ではCDOが生成AI推進を兼務するケースも多い。それでもあえてCAIOを独立させた理由は何か。
一般的な業務システムの導入やセキュリティに関するガバナンス体系自体は元々あるが、内藤氏は「ハルシネーションや従来のSaaSとは異なる経路での情報漏洩といった生成AI固有のリスクは無視できない」と話す。こうした生成AI固有リスク、つまり+αの部分にCAIOが対応していく。
もちろん、CISO(最高情報セキュリティ責任者)などの監査項目に生成AIが追加される可能性は十分考えられるため「事案に応じて連携は必要になるだろう」と内藤氏は補足した。そのため、今後CAIOが継続的に置かれるかは注目したいところでもある。
「生成AIは通常のITシステムとは違い、入力に対して必ずしも同じ出力が返ってくるわけではない。リスクコントロールの精度が上がれば、将来的にCAIOが不要になる可能性はある。ただ、生成AIが急速に発展している上にユースケースもさまざまであるため、今までの情報システムとは異なる対応が必要だ。既存のCIOなどとは別に、当面はCAIOの必要性は高い」
生成AIの急速な発展にともなって、ガイドライン自体も早々に見直しを迫られている。当初定めた判断基準では、たとえば各府省庁内のみで閲覧可能なマニュアルをRAGによって検索することも高リスクとされていたという。
「実際には、アクセスコントロールが既存のITシステムと同様に担保されていれば、機密情報を扱っていても過度にリスク視する必要はない。このような急速に進展する利用実態とのギャップを早急に見直していく必要がある。全体のポリシーは、生成AIの利活用とリスク抑制とのバランスをとっていけるようにすること」
情報の取り扱いに慎重な行政機関において「利活用推進とリスク抑制のバランスをとる」という考え方は、“新しい視点”だと内藤氏は強調する。
「整備したルールがすぐに実態とかけ離れてしまう。ルールが先回りして生成AI利活用を妨げることは避けるべき。現在のガイドラインはテキスト生成しかカバーできていなかったが、既に生成AIはマルチモーダル化し、画像や音声の生成も当たり前になっている。これにともなう知的財産権等の侵害への対策など、新たなルール作りが急務だ」
加えて、今後はAIエージェントの導入も避けられない。人間が介在しないプロセスで自律的に動くAIエージェントに対し、既存のルールがどこまで適用できるかは未知数。ルール整備だけに頼る体制には限界があるため、報告をしてもらい個別に判断する体制とする方針としている。
「物事が動いている渦中にあり、キャッチアップは容易ではない。ルールだけですべてに対応するのは不可能。だからこそ、AI相談窓口やアドバイザリーボードをフル活用し、助言をもらいながらバランスを取っていく」
民間企業と比べれば、行政におけるCAIOは慎重にならざるを得ない。その制約の中で「攻めと守りのバランス」を取り続けることが求められている。
