4.人工知能を搭載した自律型殺傷兵器の開発は禁止すべきか
2017年、イーロン・マスクも顧問として名を連ねている人工知能の安全性について研究している非営利団体” the Future of Life Institute”(以下、FLI)が、ショートムービー”Slaughterbots “(スローターボッツ)をyoutubeで公開しました。それは、スマートフォンほどの大きさで機銃を備えたクアッドコプターが、米国の大学や議会で大量虐殺を繰り広げるという近未来SFでした。また、スティーブ・ジョブズのような容姿の人物が、スローターボットの製品発表会で熱狂する観客に向かって、「核兵器は時代遅れだ。スローターボットはリスク無しに敵を一網打尽にできる。」と語りかけていました。
それはYouTubeで300万回以上再生されたのですが、その動画の最後では、カリフォルニア大学バークレー校のコンピューター科学者スチュアート・ラッセルがカメラに向かって、「ロボットに人間を殺すという選択肢を持たせれば、我々の安全と自由は破壊されるだろう。」と語りかけています。ラッセルは、自律型兵器の開発禁止を呼び掛ける公開書簡に署名しています。著名な学者やハイテク企業経営者も署名しています。イーロン・マスク、スティーブン・ホーキング、ノーム・チョムスキー(米国の哲学者)などです。
しかしながら、既に人工知能は世界的な軍拡競争に拍車をかけています。2020年の世界全体の軍事目的人工知能への支出は60億ドルを超えており、2025年にはほぼ倍増すると予測されています。ロシアは無人装甲車両やロボット戦車や自律型監視システムなどの開発を進めています。昨年、リビアが内戦でリアルタイム画像処理機能を実装した自律型の無人小型機(ドローン)を使ったと報じられました。人間に制御されない状態で敵の兵団を識別して殺害していました。元国防副長官のロバート・ワークが私に教えてくれたのですが、中国が退役した戦闘機を転用して、無数のドローンと共に飛行して、自爆攻撃を仕掛けるドローン軍団の実用化に取り組んでいるという情報があることを教えてくれました。「それはまったく新しいタイプの兵器で、防御するのは非常に困難です。」と彼は言いました。
アメリカも、ドローン軍団の実用化の研究を進めています。昨年4月に実験が行われたのですが、カリフォルニア沖に停泊中の海軍の艦艇を攻撃対象に見立ててドローンの群れが攻撃を行いました。10月には、F-35のパイロットと同行することを目的とした自律型戦闘機を開発する米国空軍のプロジェクトであるスカイボーグ・プログラムの一環として、2機のドローンが実戦でテストされました。そのドローンは、地上と上空の脅威を検知し、適切な攻撃目標を特定し、最適な攻撃を行うことができます。攻撃を加える際に、殺傷力のある攻撃をするか否かの判断は、人間のパイロットの手に委ねられます。しかし、2020年、空軍の主任研究員であるリチャード・ジョセフは、そのドローンの開発を進めるに当たっては、さまざまなクリアすべき問題があるとして、注意を促していました。自律型殺傷兵器は、戦闘時には自律的に判断して攻撃をすることが可能です。その時には超高速で判断をして行動に移すのですが、人間が介入して判断している暇など無いでしょう。
昨年4月に発表された論文で、ロバート・ワークは、「人工知能を上手く利用すれば、意図しない戦闘の最大の要因である攻撃目標の誤認識を減らすのに役立つ可能性がある。」と記していました。米軍は、以前から技術の向上によって敵の認識能力を強化することに注力してきました。しかし、十分な成果があったとは言えない状況です。2003年のイラク戦争では、初期の自律型兵器であるパトリオットミサイルが意図せず英空軍の戦闘機を撃墜してしまいました。パイロットは2人とも死亡しました。また、英海軍機も撃墜され、パイロット1名が死亡しました。その件に関して国防総省が出した報告書には、人間のオペレーターがミサイルシステムに過度の自律性を与えたことが原因であると結論付けていました。先日、タイムズ紙が中東の民間人の犠牲者に関する1300件の機密文書を調査しました。それで分かったのは、米政府が「ドローンによる正確な目標補足と精緻な爆撃」をしたと誇っていたのは、全くの絵空事だったということです。
新アメリカ安全保障センターのペティジョンによると、現在、米軍は標的を特定するための自律型システムの開発を進めているようです。「実は、人工知能による標的特定システムの開発も困難に直面しています。」と、彼女は言いました。「空戦時に敵機は、1万フィート、2万フィート、3万フィートとさまざまな高度を飛行するわけですので、それを識別することはとてもに難しいのです。」と、彼女は言いました。2018年、MITとスタンフォード大学の共同研究チームが、最も普及している3つの人工知能による自動顔認識システムについて調べたのですが、黒い肌を持つ女性の性別を識別する際に誤ることが多いことを発見しました。2年後、米国議会調査部が報告書を公表したのですが、「この件は、人工知能が軍事目的で利用される際に、重大な結果をもたらす可能性を示すものである。特に、人種等の偏見が人工知能に組み込まれてしまった場合には、さらに悲惨な結果がもたらされるだろう。」との指摘が為されました。
アムネスティ・インターナショナル(世界最大の国際人権NGO、国際連合との協議資格をもつ非政府組織)や、ヒューマン・ライツ・ウォッチ(米国に基盤を持つ国際的な人権NGO)や、世界教会協議会など180以上の非政府組織によって設立された団体”Stop Killer Robots”(ストップ・キラー・ロボット)は、自律型殺傷兵器の使用を規制する条約に署名するよう各国に要請しています。米国は、これまでに署名した70カ国の中には含まれていません。ハーバード大学法学部で国際人権法の講師を務めるヒューマン・ライツ・ウォッチの武器局上級調査員のボニー・ドハーティは私に言いました、「地雷や化学兵器など、特定の武器を禁止するだけでは不十分です。戦争が本当に恐ろしい方法で行われることを可能にする技術の開発を阻止しなければならないのです。」と。
2012年に国防総省は自律型殺傷兵器に関する提言をしたのですが、人間が意思決定者として適切に関与するべきだとの主張がなされていました。現在はランド・コーポレーションのアナリストで、2012年の提言を起草したデビッド・オクマネックは私に言いました、「例の提言には、自律型殺傷兵器の開発を禁止するという意図は無いのです。むしろ、あの提言が公になった後、自律型殺傷兵器の開発はますます進み、人間が介入して評価するプロセスが洗練され、リスク回避機能も高度化しました。」と。人間の指揮官が介入することも、自律型機能をオンにすることも、オフにすることも、必要に応じてできるようにしておくことが重要なのです。
オクマネックは、自律型兵器を開発することは抑止力として重要であると考えています。特に、ロシアのNATO加盟国への侵略や中国の台湾への侵略など大規模な侵略行為の抑止のために重要であると考えています。「さまざまな形の自律型兵器を開発することができれば、そうした侵略を防げると思いますか?その答えは、『イエス』です。」と、彼は言いました。
昨春、L-39がオンタリオ湖の上空を飛行している時、ナイアガラ・フォールズ空港でACEプログラムの関係者が四半期ごとの定例会議を行いました。空中戦アルゴリズムの開発を競っている企業や研究所が参加したセッションで、エピ・サイ社クリス・ジェンティルが強調したのは、ACEプログラムで競っているのは自律型殺傷兵器の開発ではないということでした。「私たちは、パイロットがより効果的に意思決定を行えるようにするためのツールを作ろうとしているのです。」と、ジェンティルは言いました。しかし、人工知能は意思決定のスピードをますます速めていますので、いずれ、どうして人間がコックピットにいる必要があるのかという議論が出てくるでしょう。ペティジョンは言いました、「国防総省は、人間が全く介入しない完全な自律型システムを導入するつもりはないと主張するでしょう。しかし、はなはだ疑問です。というのは、戦闘においては敵よりも速く意思決定することが前提だからです。とにかく早く意思決定することが重要なのに、人間が判断に介入することができるでしょうか。無理だと思いますね。」と。