守りか攻めか 極端な姿勢はジレンマを深める
AIの浸透がより加速した今年。多くの組織でセキュリティや倫理面での懸念が話題に上がる一方、防御一辺倒では進展が停滞するというジレンマを抱えているのではないだろうか。AI ActやAI新法など各国のAIに対する姿勢が明確化してきたが、AIとの向き合い方への問いは政府のみならず各企業にも課せられている。
そんな中、AI時代の「セキュリティ文化」醸成にフォーカスするのがKnowBe4だ。同社はこれまで、主にセキュリティ意識向上トレーニングとフィッシングシミュレーションの分野で事業を展開してきた。AI活用が当たり前となりつつある昨今は、特に人為的なミスを原因とするサイバー攻撃への対策、各社のリテラシー向上に力を入れている。
サイバーセキュリティ分野に38年携わってきた同社のCISOアドバイザー ロジャー・A・グライムス(Roger A. Grimes)氏は、まず各国の動きを次のように見る。
「米国は連邦政府による規制要件がほとんどないといっても良い。AI推進派の人々は『中国が技術面で我々を追い抜くのではないか』と考え、ガードレールの設置に反対している。それに対して、欧州はAIに非常に厳しい姿勢だ。その分AIの浸透が遅れ、技術的な進歩でもスピードが失われるリスクがある」
「もちろん、米国でもAI推進への批判的な視線はある」と同氏は補足する。AIは大量のエネルギーを消費するため、グリーンエネルギーの取り組みに相反するという環境的な問題が取り上げられているという。また、米国でAIデータセンター構築が行われている影響で近隣の電力コストが大幅に高騰。それにより、住民がAIデータセンターの構築に反対するケースも発生している状況だ。
では日本はどうか。「規制を厳しくするのか緩和するのか、まだ明確な姿勢を示していない。一貫しているのは『日本のデータは日本国内にとどめる』考え方だ」と話すグライムス氏。日本におけるAI規制の最適な道は、米国や欧州のような極端な姿勢ではなく中間点にあると提言する。
グライムス氏が極端な規制を避けるべき理由の一つとして挙げるのが、意図しない副作用の可能性だ。たとえば、AIから差別につながるような誤った偏見を取り除くこと自体は重要といえる。しかし、何が不公平な偏見なのか定義するのは容易ではない。事実との切り分けが難しいのだ。
「すべての偏見を取り除こうと制約を強く加えると、AI自体が低速化する可能性がある。さらに、正確な情報や関係性が公平性の制約によって反映されなくなる恐れもある」
公平性の追求が、AIの本来の予測精度や有効性を損なうというトレードオフを生む。しかし、規制を取り払いすぎると今度は倫理およびセキュリティ面でのリスクが発生する。このバランスをうまく取ることがAI規制の鍵である。
この考え方は各企業のAIガバナンス構築にも直結する。当たり前のようにも聞こえるかもしれないが、両立は容易ではない。進展を止めることなくセキュリティを担保するために、企業はどのようにジレンマに対応すべきなのか。
