「AIの先」を問う──批判的研究が果たす役割
セッション3「AIと社会──未来に向かう創意と責任」は、前の2つとは趣を変え、社会科学・人文学の視点からAIを問い直す場となった。東京大学大学院情報学環の久野愛准教授がモデレーターを務め、漢陽大学(韓国)哲学研究科のSang Wook Yi教授、ドイツ日本研究所のCelia Spoden主任研究員、東京大学大学院情報学環の板津木綿子教授がパネリストとして参加した。
久野准教授はまず、自身が共同創設した「B'AIグローバルフォーラム」の6年間の成果を概説した。ミッションは「倫理と包摂的社会の再概念化」。交差性(intersectionality)の視点からAIと社会を批判的に分析すること、すべての人の生活に貢献するAIをデザインすること、市場優先・技術優先の前提を問い直すこと──この3つの柱を掲げて活動してきた。名称のB'AIには「Before AI」「Behind AI」「Beyond AI」の3つの意味が込められているという。
50以上の世界各地の研究機関とのネットワークを構築しながら、久野准教授が強調したのは「批判的AI研究(Critical AI Studies)」の制度化だ。誰の価値がAIシステムに組み込まれているのか、誰の視座が優先されて誰の声が除外されているのか。AIのガバナンス研究はこれまで欧米の研究機関が主導してきたが、AI開発競争がアジアでも激化するなか、東アジアからの批判的研究への参画がその非対称性を是正する力になりうると訴えた。
Spoden氏が事例として挙げたのは、東京のカフェで障害を持つ人々がアバターロボット「OriHime」を通じてリモート接客を行うプロジェクトだ。技術は中立的に存在するのではなく、特定の歴史的・社会的・文化的文脈のなかに埋め込まれている。障害を「個人の医学的問題」として捉えるか、「社会的障壁」として捉えるかによって、同じ技術でもまったく異なるデザインの選択が生まれるという。
Yi教授は「批判(critical)」という言葉を問い直した。韓国語でも日本語でも、「批判」はネガティブな意味合いを帯びがちだが、哲学的な意味からは批判とは理性の能力を吟味し、より良く理解するための営みにほかならない。AIの倫理を「してはならないことのリスト」ではなく、「AIの潜在能力をどう建設的に実現するか」という問いとして捉え直すべきだと訴えた。
板津教授が提起したのは、資金提供の構造がAI研究のアジェンダを規定するという問題だ。ディープフェイク技術を例に挙げながら、技術そのものに社会貢献の可能性があるにもかかわらず、大規模な悪用が現実に起きている実態を指摘した。「もう知らなかったとは言えない」──資金を出す側の利害、研究アジェンダを決める側の権力、そして技術を利用する消費者の行動。これらが複合的に絡み合う構造を直視することが、批判的AI研究の核心にある。
これらのシンポジウムは、「AIの先にある科学」の輪郭を少しづつ描くための議論だったといえる。2020年の機構設立から6年、最大200億円の拠出を背景にした東京大学とソフトバンクの産学協創は、短期的な成果を追わない基礎研究に資金を投じてきた。その一つの成果として、「AIを超えた先にある科学」の萌芽が、物理・脳科学・社会科学の交差するところに確かに芽吹きつつあるようだ。
