防衛省は6日、AI(人工知能)技術を使った装備品などについて、構想の段階から研究・開発の段階までチェックする基準を示した「責任あるAI適用ガイドライン」をまとめ、公表した。
ガイドラインは、AIを適用した装備品を研究・開発する際に、リスクを適切に管理し、低減するための指針であり、法的効力はない。
ガイドラインでは、AIのリスクについて、「AIは、与えられたデータからルールや知識を自ら学習し新たな結果を出力するため、学習データの偏りなどに起因するバイアス(偏り)や誤判断が生じる可能性など、AI特有の技術的なリスクが存在する」と指摘。
その上で、AI装備品が、ミサイルなど人やものを破壊する高リスクなものか、情報収集など破壊能力を有しない低リスクなものかに分類する。
その上で、高リスクAI装備品等と分類されたものは、防衛省内の国際法観点の専門家を交えた部内AI会議で、
▲国際人道法を始めとする国際法や国内法を遵守できること
▲人間が関与できない完全自立型致死兵器でないこと
など、法的・政策的な条件を満たしているかを審査する。
さらに、技術の専門家を交えた部内有識者会議で、プログラムについて技術的な観点から、運用者による適切な制御が可能となるように設計されているか、バイアスが許容レベルを超えないか、誤作動や深刻な失敗・事故の発生を低減する安全機構が設計されているかなどについて、複数回審査する。
リスク管理の課程を経た上で、AI適用装備品の事業を開始することができる。
中谷防衛相は6日、会見で「防衛省としても新しい戦い方への対応や、人口減少の急速な進展の中で、防衛力を維持強化していくために、AI活用を進めていく」と強調した上で、「防衛省の研究開発事業全体に係る適切なリスク管理に資する」としてAI適用装備品ガイドラインの重要性を語った。