データサイエンス・AI ≠ 理系 全学生が学ぶべき理由
藤井:そうしたAI時代を生き抜く人材を育てるために、東京科学大学では「データサイエンス・AI全学教育機構」を設置して新しい取り組みを進めていらっしゃいます。具体的な内容を教えてください。
橘:我々が目指すのは「共創型エキスパート人材」の育成です。「データサイエンス・AIを駆使する」「データサイエンス・AIで交わる(コミュニケーションする)」「データサイエンス・AIを教える」という3つのスキルを兼ね備えた人材を指します。カリキュラムには、プログラミング学習に加えて、企業とともに実際の課題に取り組む「PBL(Project Based Learning)」、さらには学生が他の学生に教えられる技術を身に着けるための「ティーチング・フェロー(TF)育成プログラム」も実施しています。
藤井:学生が教える側に回るというのも、ユニークな取り組みですね。昨今の学生はAIとどのように向き合っているのでしょうか。
橘:はっきりといえるのは「学生の多くがごく当たり前のツールとしてAIを使い始めている」ということ。授業の課題であるレポート作成に必要な知識を得る際など、多くの学生がAIを活用しているのが実態です。特に積極的に活用している学生にとって、AIは既に「エージェント」や「パートナー」のような存在。自身の考えをまとめるための壁打ち相手としても、日常的に使われています。
藤井:一方で、データサイエンス・AI全学教育という名称から、専門的なイメージもあります。「全学教育」とあるように情報系以外の学生にも学びの場を提供されているそうですが、それはなぜですか。
橘:理由は主に2つです。1つは、もはやデータサイエンスやAIがまったく関わらない領域は、ほとんどなくなっていくから。もう1つは「『かけ算の領域』にこそイノベーションが生まれる」からです。これまでは、AIは理系が学ぶものという考え方がありました。今後はどの領域も、AIとの掛け合わせによって新たなサービスが生み出される可能性を秘めています。リテラシー向上の一環や知識としてデータサイエンス・AIを学ぶことで、私たち大人には思いつかないような発見やイノベーションの可能性が広がると考えています。
藤井:東京科学大学のデータサイエンス・AI全学教育では、倫理や社会課題についてもカリキュラムに取り入れていますよね。
橘:AIを正しく使いこなす能力には、知識だけでなく、社会的な影響を理解することが不可欠なんです。知識があっても、社会で活用する際には「偏った表現(バイアス)」「倫理面での不都合」といった問題が起こります。特に生成AIでは、ハルシネーションや回答のブラックボックス化から「偏った発言」「人をラベリングしてしまう」といった現状が生じ得るのです。AIが引き起こす社会的な問題を、利用する一人ひとりが認識した上で使っていかなければならない。そのため、情報リテラシーだけでなく、AI倫理の面も学習プログラムに組み込んでいます。
藤井:生成AIは非常に便利である分、使い方を誤ると大きな問題になりかねません。
橘:まさにその通りです。大規模言語モデル(LLM)の登場により、生成AIへの入力の「フレキシブルさ」が格段に上がりました。生成AIはどんな入力でも受け付け、アウトプットをしてくれる。これは「ユーザーの間口を広げる」という意味で非常に良いことですが、同時に、提供者が「意図しない」あるいは「使ってほしくない」方法でユーザーが使ってしまうリスクもはらんでいます。包丁が便利である一方で凶器にもなり得るように、AIも「いい使い方」をすれば社会を変える力を持ちますが、「悪意を持った使い方」も可能ということです。だからこそ、使う側の倫理観が求められます。
