【イベント開催報告】次なるAI安全保障の課題:フロンティアAIがもたらすリスクと日米の視座(2025/12/12)

【イベント開催報告】次なるAI安全保障の課題:フロンティアAIがもたらすリスクと日米の視座(2025/12/12)

2025年12月12日、東京大学先端科学技術研究センター 経済安全保障インテリジェンス分野(ESIL)は、SPF USAと『次なるAI安全保障の課題:フロンティアAIがもたらすリスクと日米の視座』と題するシンポジウムを共催した。米国の政策・技術・研究の第一線でAI安全保障に携わる下記4名の専門家を招き、フロンティアAIおよび将来の汎用人工知能(AGI)がもたらすリスクと機会について、多角的な議論が行われた。

オープニングスピーチ
James Schoff(SPF USA シニア・ディレクター)
パネリスト
Dimitri Kusnezov(核脅威イニシアティブ 科学技術担当バイス・プレジデント、元米国国土安全保障省 科学技術次官)
Marissa Dotter(MITREコーポレーション AIの信頼性・安全性確保担当分野 リードAIエンジニア)
Matt Chessen(ランド研究所 汎用人工知能(AGI)に関する地政学研究センター レジデント・テクニカル・エキスパート)
モデレーター
井形彬(東京大学先端科学技術研究センター 特任講師)

SPF USAとは2024年7月にも『日米AIセキュリティ協力:偽情報・サイバー脅威に関する敵対的AIリスクと緩和戦略』と題したシンポジウムを共催しており、今回は当時の議論を土台として国家のレジリエンスと国際安全保障において中核的なテーマとなる論点を先取りして検討する内容となっている。また、本シンポジウムの議論が幅広く理解されるように、日英同時通訳を入れて開催した。

【オープニング①:井形彬(東京大学先端科学技術研究センター特任講師)】

冒頭、井形特任講師は、本シンポジウムが近年、東大先端研(経済安全保障インテリジェンス分野)が継続的に開催してきた国際ワークショップや政策対話の延長線上に位置付けられるものであることを説明した。これまで、コーカサス地域の安全保障、IMEC構想、イスラエルと中国をめぐる認識など、地政学・経済安全保障を中心とした多様なテーマについて、各国の実務家・政策関係者との議論を積み重ねてきたことに触れ、本日のシンポジウムもその文脈の中で開催されたと述べた。

その上で、AI、とりわけ生成AIの急速な発展が、国家安全保障や社会の安定に与える影響が質的に変化しつつある点を強調した。昨年共催したシンポジウムでは、AIが偽情報や影響工作にどのように悪用され得るかを主題として議論したが、当時と比べ、日本を取り巻く情報環境は大きく変化しており、AIを用いた偽情報や影響工作が現実の問題として顕在化しているとの認識を示した。

本日のシンポジウムでは、政府、エンジニアリング、外交・戦略という異なる視点から、米国の専門家が現在どのような問題意識を持ち、AIの次なるリスクと機会をどのように捉えているのかを包括的に理解することを目的とする、と開催趣旨を明確にした。

【オープニング②:ジェームズ・ショフ氏(SPF USA シニア・ディレクター)】

ショフ氏は、SPF USAの使命として、自由で開かれた国際秩序の維持に向けて日米間の相互理解とパートナーシップを強化することを掲げ、その文脈でAIが極めて重要なテーマとなっていると述べた。AIほど変化のスピードが速く、かつ将来的に国家安全保障や同盟関係に重大な影響を及ぼし得る分野は他に多くないとの認識を示した。

同財団が2021年に開始した「Next Alliance」イニシアティブや、2024年初頭に立ち上げた「Allied on AI Assurance」プロジェクトを紹介し、AIの信頼性・安全性をめぐる同盟国間の対話を促進してきた経緯を説明した。昨年夏には、米国の専門家を日本に招いたAIスタディツアーを実施し、政府関係者や研究機関との意見交換を通じて、協力の可能性を探ってきたことにも言及した。

AIは多大な潜在的利益をもたらす一方で、すべての脆弱性を排除することは困難であり、政府はイノベーションを阻害しない形でリスクを抑制する必要があると指摘した。仮に敵対的AIが危機を引き起こす場合に備え、被害を抑え、回復するための準備や、同盟としての協調体制の機動性を高める重要性を強調し、本日の議論がその一助となることへの期待を述べた。

【講演①:ディミトリ・クスネゾフ氏(元米国国土安全保障省科学技術次官)】

クスネゾフ氏は、自身がアカデミアと政府の双方で経験を積んできた立場から、AIを含む新興技術がもたらす世界の変化を大局的に捉える必要性を強調した。現在の時代を「非常に特別な時代」と位置付け、仮想世界と物理世界が結びつくことで、核、生物、サイバーといった分野横断的な影響が同時に生じ得る点に注目すべきだと述べた。

同氏は、世界を線形的に捉え、過去の経験を基に将来を予測する従来の枠組みがもはや通用しないとの認識を示した。気候変動に伴う極端気象の頻発や、新興技術の急速な民主化により、「一生に一度」の出来事が日常化している現状を例に挙げ、規制、軍備管理、危機対応といった既存の制度がスケールしない問題を指摘した。

AIは、さまざまな技術を結びつけるプラットフォームとして機能し、誰もが強力なツールを利用できる環境を生み出している。その結果、民生と軍事の境界、事実と虚構の境界、国境の意味が曖昧になりつつあると述べた。一方で、こうした非線形な世界にはリスクだけでなく、社会課題を解決する可能性も存在するとし、問題を理解し、安全に管理するためには、技術そのものを活用する必要があるとの考えを示した。

【講演②:マリッサ・ドッター氏(MITREコーポレーション)】

ドッター氏は、MITREにおけるAIとサイバーセキュリティの交差領域での取り組みを紹介し、「MITRE ATLASフレームワーク」の目的と特徴を説明した。ATLASは、AIが組み込まれたシステムにおいて実際に観測されている敵対的行動を整理した知識ベースであり、ケーススタディやレッドチーミング演習に基づく、コミュニティ主導・オープンソースのプラットフォームである点が強調された。

従来の敵対的機械学習がアルゴリズムやデータに焦点を当ててきたのに対し、ATLASはAIを含むシステム全体を対象とし、AIが組み込まれることで、敵対者がどのように組織のインフラを攻撃し得るかを包括的に捉える枠組みであると説明した。医療、自動運転、金融など、多様な分野からインシデント情報が集約されている点も紹介された。

特に近年は、エージェント型AIの登場により、アイデンティティ管理、アクセス権限、データ連携を横断する新たな脆弱性が顕在化していると指摘した。加えて、AIインシデント共有やAIリスク・データベースといった取り組みを通じて、組織横断的な情報共有と協力を促進し、より安全で信頼できるAIシステムの構築を目指していると述べた。

【講演③:マット・チェッセン氏(ランド研究所)】

チェッセン氏は、RAND研究所における研究成果を踏まえ、汎用人工知能(AGI)を「予測対象」ではなく、「計画の前提」として扱う必要性を提起した。AGIを、経済的・軍事的に重要な幅広いタスクにおいて人間の認知を代替し得るAIと定義し、その実現可能性については、もはや大きな異論はなく、議論の焦点はタイムラインと技術的経路に移っていると整理した。

同氏は、AGIがもたらし得る国家安全保障上の課題として、(1) 決定的軍事優位の可能性、(2) 国家競争力の構造的変化、(3) 大量破壊兵器開発の敷居低下、(4) 主体性を持つ人工的存在の出現、(5) AGI開発を巡る地政学的不安定性の五点を挙げ、それぞれが深刻な影響を及ぼし得ると説明した。

対応策として、将来予測に依存するのではなく、どのようなAGIの未来においても有効な「後悔のないオプション」、危機対応のためにプレイブック構築(および、ランド研究所で既に実例として行っている「Infinite Potential」の紹介)、前提が崩れたことを示す兆候の監視といった行動可能な選択肢に注目すべきだと強調した。

【パネルディスカッション】

パネルディスカッションでは、井形特任講師のモデレーションのもと、AIおよび将来のAGIに社会がどのように備えるべきかという点を中心に、複数の論点が提示された。議論は、技術の進展速度が極めて速い中で、特定の将来像を前提とした備えではなく、不確実性そのものを前提とした適応能力の構築が重要であるという認識を共有する形で進められた。

まずはディミトリ・クスネゾフ氏に対して、「AI-ready/AGI-readyな社会」とは何を意味するのかという大局的な問いが投げかけられた。すなわち、量子コンピューティングやバイオ技術の分野では、「quantum-ready」や「bio-food ready」といった概念の下で、社会的受容や安全性、ガバナンスに関する事前の備えが議論されてきた。こうした先端技術が急速に社会へ導入される中で、AIやAGIについても同様に、社会としてどのような準備が必要なのかが問われている。

クスネゾフ氏は、量子技術やバイオ技術の例を挙げ、特定の技術進路を想定した準備は現実的ではないと述べた。その上で、社会として重要なのは、変化に対応するための時間を確保し、次に何が起きているのかを動的に把握する能力を高めることであると指摘した。また、AIがもたらす複雑性に対処するためには、人間だけでは限界があり、リスク管理そのものにもAIを活用する必要があるとの認識を示した。

続いて、マリッサ・ドッター氏に対しては、エージェント型AIの特徴について、専門外の参加者にも理解できる形で説明するよう求められた。同時に、AIサプライチェーン・リスクの具体例について質問がされた。

ドッター氏は、従来のAIが人間の指示を受けてタスクを実行するのに対し、エージェント型AIはより高い自律性を持ち、判断から実行までを人間の介在なし、あるいは最小限で行う点に特徴があると説明した。こうしたシステムでは、メール処理のような日常的な業務であっても、新たな脆弱性が一気に広がる可能性があるとし、アイデンティティ管理やアクセス権限の扱いが重要な課題になると述べた。さらに、AIサプライチェーン・リスクについては、サイバーセキュリティや防衛分野に限定されない問題として整理された。ドッター氏は、オープンソースモデルや外部モデルを組み込む際に、汚染やバックドア、プロンプトインジェクション耐性などが十分に検証されていない可能性を指摘し、モデル実装後に顕在化するリスクへの注意を促した。

マット・チェッセン氏に対しては、AGIが「攻撃」と「防御」のバランスに与える影響について質問がなされた。

チェッセン氏は、AGIが一律に攻撃側または防御側を有利にするとは言えず、地政学・経済、サイバー・AI、軍事という複数の文脈ごとに影響が異なると述べた。特にサイバー領域では、AIによって攻撃の敷居が下がる一方で、防御側も自動化された検知やレッドチーミングを行えるようになるとし、相互に高度化が進む構図を示した。また、AIの進展がもたらすリスクを単独の技術問題として捉えるのではなく、社会、制度、同盟関係を含む広い文脈の中で理解し、継続的に対応能力を更新していく必要性が共有された。

【参加者とのQ&A】

Q&Aセッションでは、会場から専門的かつ実務的な質問が相次ぎ、AIおよびAGIをめぐる課題が多面的に掘り下げられた。

第一に、AIが人間の知能を超えた場合の監督(オーバーサイト)の在り方について質問が出された。クスネゾフ氏は、政府内部では比較的低レベルのAIに対して一定の報告・監督の仕組みが導入されつつあるものの、真の課題は民間資金によって進められる大規模な開発であり、現状では事後的な対応に追われていると指摘した。こうしたトリアージ型対応は有効性に限界があり、より前向きな枠組みを模索する必要があるとの認識が示された。

第二に、「AI対AI」の競争環境において、政策立案や安全保障分野で次に何が起こるのかという問いが提示された。チェッセン氏は、すでに研究や政策検討の現場では、AIを用いたレッドチーミングや批判生成が常態化しつつあると述べ、AIを使わないこと自体がリスクになりつつあるとの見解を示した。政策の抜け穴を事前に検証する手段として、AIの活用が不可欠になるとの指摘であった。

第三に、偽情報環境下で市民がどのように生きるべきかという問題について質問がなされた。ドッター氏は、AIをどこで使うべきか、使うべきでないかを見極める判断力と、市民に対する教育の重要性を強調した。特に、誤情報や偽情報を読み解く能力の育成、モデル訓練段階でのデータ検証の強化、同盟間でのインシデント共有の必要性が指摘された。

第四に、政府における人材育成や、工学と安全保障の両方を理解できる人材をどのように育てるかという課題が提起された。これに対し、クスネゾフ氏は、一人の人間がすべてを把握することは不可能であり、技術を用いて全体像を理解するアプローチが必要になるとの認識を示した。

最後に、AGIへの備えの国際比較について質問があり、チェッセン氏は、一部のフロンティアAI企業が社会的影響に関する情報公開を進めている一方で、能力開発に比して信頼性確保への投資が不足している現状を指摘した。信頼を失う重大事故が起きれば、AI分野全体が長期的な停滞に陥る可能性があるとの懸念が共有された。

# イベント開催

Mailing List

最新のイベント情報を優先的に得ることが出来ます。
次のボタンよりご登録ください。

ご要件がある方はお問い合わせフォームからご連絡ください。

メーリングリスト登録

最新のイベント情報を
メールでお知らせいたします

登録はこちら

メーリングリスト登録

最新のイベント情報をメールでお知らせいたします

登録はこちら