3.人工知能は非常に進歩しているが、人々の信頼度は低いままである
5月上旬に、私はアイオワ大学内のオペレーター・パフォーマンス・ラボ(the Operator Performance Lab、略称はOPL)を訪れました。ACEプログラムに参加した研究所や企業等が勢揃いして、デモンストレーションを行っていました。OPLは、スイス出身のトム・シュネル教授(システム工学が専門)が創設した研究施設です。シュネルは、暇さえあればアイオワのトウモロコシ畑の上で曲技飛行をしていたのですが、彼はかつて陸上交通を専門に研究していました。1990年代後半のことですが、彼は、ある高級車メーカーからそのメーカーの車の運転がどれだけ楽しいかを測定する方法の開発を依頼されました。彼はどこのメーカーかは教えてくれませんでした。それで、彼は、運転する者の顔にセンサーを取り付けました。口や目の周りに付けたのですが、笑顔やしかめっ面を作る際に動く小さな筋肉の動きを感知するためでした。心臓付近にも心電図に繋ぐための線を付けました。「私はメーカーに『引き受けるから、楽しい車を送ってくれよ!』と、言ったんです。それで、メーカーもそうしてくれたんです。」と、シュネルは言いました。
シュネルはすぐに、さまざまなセンサーから送られてくるデータはそれぞれ独自の形のもので、そのままでは収集したデータを一度に分析することが不可能であることに気付きました。そこで、シュネルは共通のフレームワークを作り、沢山のデータを統合して評価できるシステムを構築し、「認知評価ツールセット」と名付けました。その後、あらゆる種類の機械を操作する者のデータを収集し始めました。電車の運転手、ヘリコプターの操縦士、自動車の運転手などのデータをさまざまな形で収集しました。顔面に付けたセンサーのデータも沢山収集しましたし、発汗量も測定しましたし、皮膚電気反応を分析する装置も使いました。また、精神的負荷の大きさを示す指標となる血中酸素濃度を測定する装置も使いました。
2004年、シュネルはアイオワ大学の学部長を説得して、OPLに1機の航空機を導入しました。ビーチクラフト社製の単発機ボナンザ(堅牢な訓練機、高級な自家用機として高く評価されている)を購入しました。その数年後にはジェット機を1機購入しました。そして、エール・フランス等の民間航空会社や米空軍からの委託を受けてパイロットの動作の研究を行うようになりました。シュネルは言いました、「空間識失調に関する研究をたくさんしました。」と。空間識失調というのは、飛行中に一時的に平衡感覚を失う状態のことです。パイロットに飛行中に目をつぶってもらい、再び目を開けたらまっすぐ飛べるかどうかというようなことを調べたそうです。2019年にDARPAからACEプログラムに関連する研究の依頼を受けたのですが、シュネルのラボではパイロットの生理的反応のデータを収集し始めてから10年以上経っており、膨大なデータが蓄積されていました。
パイロットを説得して操縦桿を握らせるのは、空中戦ができる人工知能を開発するよりも難しいかもしれません。「それはおそらく私たちが取り組んでいる中でも最も重要な課題です。」と、現在のACEプログラムの責任者であるライアン・ヘフロンは私に言いました。へフロンは、38歳の中佐で、コンピューターサイエンスの博士号を持っています。彼は、2021年に米国空軍テストパイロットスクールからDARPAに移ってきました。スクールでは指導官をしていました。へフロンは、パイロットを説得するのが難しいことの一例として、飛行機が墜落する危険が迫った時に自動的に飛行を制御する”Auto-gcas”(自動地上衝突回避:automated ground-collision-avoidanceの略)システムの話を私にしました。Auto-gcasシステムは、開発時のテストの際に何の前触れもなく突然上昇することがありました。へフロンは、それを「予期せぬ急上昇」と呼んでいました。しかし、そのシステムは過去に少なくとも11名の生命を救っていました。しかし、テストパイロットたちは、開発初期に発生した予期せぬ急上昇が発生したことが理由で、何年間もそのシステムを使うのを躊躇していました。
セントラルフロリダ大学の心理学教授で、信頼度が技術の普及に及ぼす影響を研究しているピーター・ハンコックは言いました、「軍隊にはこんな格言があります。『信頼は得る際には小さじ一杯分しか得られない、しかし、失う際にはバケツ一杯分失われる。』というものです。」と。それは軍隊に限ったことではありません。米国自動車協会(AAA)が行った最新の調査によると、回答者の約80%が自律走行車の開発に抵抗があると答えていました。AAAで自動車工学のディレクターを務めるグレッグ・ブラノンが語っていたのですが、多くのドライバーが完全自動運転システムの導入には否定的で、現在も試行錯誤が続けられているさまざまな自動運転システムが上手く機能していないことを理由に挙げているそうです。「自動運転システムの技術はかなり進歩しているにもかかわらず、信頼している人の割合がほとんど増えていないのです。それは、ちょっと衝撃的でした。」と、ブラノンは言いました。
信頼度を測るために、心理学者は通常はアンケートを実施します。「これまで誰も客観的に信頼度を測る方法を確立したことがありませんでした。」と、スキナーは言いました。DARPAは、アナーバー(ミシガン州南東部の都市)の人工知能研究開発企業SoarTech(以下、ソアテック社)に委託して、「信頼度モデル」を構築しました。そのモデルは、OPLの認知評価ツールセットから得られるデータから推測する信頼度と、自己申告してもらう信頼度との差異を検証するものでした。シュネルは言いました、「非常に科学的で、優れた方法だと思います。信頼度を正確に測るモデルを構築できたので、実際に使って見ることになりました。DARPAは積極的にそのモデルを活用しました。それで、パイロットたちの本当の航空電子工学や自律的飛行への信頼度を調べてみました。
アイオワ市営空港にあるOPLの格納庫の1つは、シュネルが購入して改造した中古の航空機でいっぱいでした。L-39の姉妹機で小型のL-29デルフィンが2機あり、光沢のある黄色に塗られていました。また、キャデラック・エスカレードほどの値段で購入し、ナイトビジョンをシュネル自らの手でフルカラーにアップグレードしたソ連製の大型ヘリ1機もありました。格納庫の一番奥には、ワンルームマンションほどの大きさの737型ジェット機のコックピットがありました。それは操縦を練習するシミュレーターでした。
もう1つ別のシミュレーターがありました。シュネルは「バスタブ」と呼んでいましたが、長方形の金属製の狭苦しいものでした。その中に、その日OPLに駆り出された1人の空軍州兵のパイロットが身を沈めました。シュネルは彼に心電図のリード線をつないで、基本データを収集しました。その日の朝礼の時まで、そのパイロットはDARPAの研究プロジェクトに参加すること以外は何も知らされていませんでした。実際、VRヘッドセットを調整しF-16の操縦装置とそっくりなものを操作する段になっても、彼は詳しいことを何にも聞かされていませんでした。聞かされていたのは、彼がVRヘッドセットのディスプレイに表示される簡単な空中戦を戦うテレビゲームをするということだけでした。他に聞かされていたのは、人工知能が機体の操縦を担い、彼は銃撃に専念するということだけでした。
そのゲームは、パイロットが将来行うことが期待される戦闘指揮業務を模擬体験するものでした。そのゲームで勝利するためには、パイロットは青い敵機8機と赤い敵機8機を撃墜しなければなりません。VRヘッドセット内にはアイトラッカー(視線を追跡する装置)が付いており、人工知能が何をしているかを見るために、いつ、どれだけの時間、視線を上げたかを計測していました。視線を上げるのは人工知能への不信感の表れです。彼にはわざと知らせていなかったのですが、交戦のシミュレーションの中には、彼が勝つように仕組まれているものもありました。また、自分や自機が危機にさらされるように仕組まれているものもありました。しかし、もし彼が人工知能が危険なことをしようとしていると感じたら、交戦を離脱して戦闘を止めるという選択肢も選べるようになっていました。交戦離脱もまた、人工知能への不信感を示すことになります。
最終的に分かったのは、適切なレベルの信頼度を得るためには、人工知能の次の行動についてより多くの情報をパイロットに提供するべきであるということでした。ソアテック社の上席研究員のグレン・テイラーは私に言いました、「私たちは、人工知能が何をしているかをパイロットに知らせるようにしました。人工知能の行動や判断が信頼できるか否かを判断するのに十分な情報を、十分な時間をかけて与えるようにしたのです。視覚や聴覚などを通じて情報が伝わる仕組みをシステムに組み込んでいます。」と。ソアテック社の研究者たちは、そのシステムによって、人工知能への信頼度が上がるだろうと期待しました。ACEプログラムのアドバイザーの1人のフィル・チューは言いました、「もし人工知能が4秒後に何をしようとしているかをパイロットに示すとすれば、4秒というのはかなり長い時間ですね。」と。
また、時速500マイルの超高速で飛ぶ戦闘機では、アルゴリズムが常にパイロットに情報を提供できるとは限らないため、信頼関係が非常に重要になります。セントラルフロリダ大学のハンコック教授は、反応時間のズレ、つまり情報が伝わって認識されるまでにかかってしまう時間を「時間的不協和 」と呼びました。例え話として、ハンコックは自動車のエアバッグのことに言及しました。エアバッグは人間が知覚できる閾値を下回る数ミリ秒で作動します。その場合、衝突などの事象が察知されてエアバッグが自動で膨らんでいるのですが、衝突してから膨らむまでの間に、「間もなくエアバッグが膨らむぞ!」という情報を送って運転手等に認識してもらうということは不可能です。そんな時間はありませんし、そのために時間をかけていたら、瞬時に膨らむというエアバッグの役目が果たせなくなってしまいます。
OPLの「バスタブ」のようなシミュレーターでは、パイロットがVRヘッドセットで見ているものと同じものを、同時にコンピューターで見ることができます。パイロットが右を向けば右翼が見えますし、下を向けば農地が見えます。コックピット前方のレーダー画面には、敵機の軌跡が映し出されています。最初の交戦では、敵機がすぐに優勢になって後方から迫ってきて、銃撃の準備を始めました。「交戦離脱」とパイロットは叫び、交戦を終わらせました。それで、コンピュータがリセットされました。このシミュレーションの設計に携わったシュネルの部下の1人(大学院生)が3からカウントダウンを始め、「始め」と呼んで次の交戦が開始されました。
40分後、シミュレーターから出たパイロットを迎えたのは、ソアテック社の研究員であるキャサリン・ウッドラフでした。ウッドラフは、危機が差し迫っているわけでもないのに交戦を止めたことが1回あったことについて尋ねてみました。問われたパイロットは答えました、「あの時、私には2つの選択肢がありました。そのままにして様子を見るか、交戦を止めるかでした。」と。しばらくして、彼は付け加えて「私は、敵機に射程内に捉えられたと判断したのです。それで、交戦を止めたのです。」と、言いました。
ウッドラフによると、ほとんどの場合、シミュレーションに参加した多くのパイロットは人工知能が適切な行動をすればそれを信頼したそうです。しかし、例外が数例あったどうです。あるパイロットは直近で戦闘機から緊急脱出をした経験があったのですが、人工知能に強い不信感を抱いていました。私はそのパイロット(30歳)の空中戦を観察していたので覚えていたのですが、彼は人工知能による自律的飛行を素晴らしいと評価していたにもかかわらず、自機が良い攻撃角度を取れる可能性があったのに交戦離脱していました。彼はウッドラフに言いました、「私は人工知能にどこまで飛行を任せても大丈夫なのかを把握したかったのです。人工知能の優れている点、機能していない点を認識したかったのです。」と。
シュネルの部下の1人の大学院生は、現役の軍人でもあるため名前は出せないのですが、この空中戦のシミュレーションの報告会に参加していました。そして、彼はそのパイロットに言いました。「あなたは私たちにとって格好の研究対象になるでしょう。なぜなら、私たちはどうしたら人工知能に対する不信感を取り除けるかを研究しているからです。また、責めているわけではないので、気を悪くしないでほしいのですが、あなたの行動は非常に興味深いものでした。空中戦のシミュレーションをやる前には、全く想定していないものでした。人工知能は非常に上手く機能していました。それなのに、あなたは人工知能がすることを信用せずに交戦を止めるという判断を下したのです。あなたを戦闘管理者ができるように育てるには、非常に時間がかかるかもしれません。なぜなら、あなたの行動を180度変容させる必要があるからです。」と。