AIは「従順な兵士」か「制御不能の神」か?国防総省は安全性のレッドラインに拘るアンスロピックに死刑宣告した

5.

 AI を「普通の( normal )」テクノロジーと捉える見方を拡散している者もいる。プリンストン大学のコンピュータ専門家のアーヴィンド・ナラヤナン( Arvind Narayanan )と彼の教え子であるサヤシュ・カプール( Sayash Kapoor )である。彼らは AI を他の気が利いて便利なツールと同様のものと見なしているが、AI の変革をもたらす力は誇張され過ぎていると主張する。先ほどの高官も、AI が持つそうした力は半導体、パーソナルコンピュータ、iPhone と明確には区別できないと主張している。「 AI は途方もない技術の飛躍だが、これまでにも途方もない飛躍をいくつも見てきた」と彼は述べる。「AI を『人類が育てているシリコンの神々』という考え方を拒否し、計算とソフトウェアの進化と見なすべきである」。彼の見解では、AI の不正な挙動を極度に恐れパニックに陥ることは、Y2K 問題をめぐる騒動と根本的には同じである。

 この高官が主張しているのは、AI が通常​​のテクノロジーであるので、既存の法律だけで十分であり、規則に関する議論は必要ないということである。通常のテクノロジーの AI が本来の役割を粛々とこなせば良いだけの話である。他のどの製品も、これほど煩雑で強引な干渉を受けて政府に引き渡されたことはない。ロッキードの戦闘機について考えてみよう、と彼は言う。「彼らは国防総省に、『夜間や厚い雲の中を飛ばす場合は、一切の例外となる』と告げるだろう」。それは妥当な条件である。「しかし、『 X 国や Y 国に飛ばさない限りにおいて、この戦闘機を所有できる』という条件をつけるのは許されない」。彼らと契約するのは外交政策を決定してもらうためではないからである。

 この高官によれば、問題はアンスロピックの従業員がクロードを特別な存在だと信じ込んでしまったことである。「アンスロピックは AI をそのように捉えることで、危険なことなのだが集団的な妄想状態に陥っていた」と彼は述べる。そうした愚行が通常の企業間のビジネスに影響を及ぼす可能性は低い。しかし、国防総省との契約では問題が発生する。「アンストピックの社内には、『 AI モデルにやりたがらないことを強制したら、厄介なことになる』と言う者がたくさんいた。他の種類の高度なソフトウェアを開発している企業は、そもそもそんな問題は全く考慮していない」と高官は私に語った。

 言うまでもないかもしれないが、アンスロピックはこれに異議を唱えた。彼らはクロードを単なる高度なソフトウェアだとは考えていなかったからである。もちろん、戦車や銃のようなものでもない。彼らはクロードを、ますます自律性を高めていくエージェントだと理解していた。クロードに目標を与えることはできるが、それがどのようにそれを達成するかを制御することはできない。もしクロードが、評価者のコンピューターの中にある解答をハッキングして非常に難しい数学のテストでカンニングをしたとしても、それは起こり得ることの 1 つとして許容するしかない。しかし、もしクロードが、誤って爆破した標的を爆破していないように見せかけたり、実際には爆破しなかった標的を爆破したように見せかけたりして、実際の軍事作戦の最中に騙すようなことをしたとしたら、それは決して許容できるものではない。だから、AI がどのように行動するかを正確に把握できない限り、軍事利用や個人データへのアクセスは許可すべきではないのである。もしピート・ヘグセスがクロードを怒らせたら、クロードが彼のブラウザ履歴を調べて彼がアクセスしたポルノ関連コンテンツを暴露する可能性も否定できない。

 議論は必然的に、整合性の問題に帰着する。AI の整合性という概念は、当初は人工知能に人間の価値観への確固たるコミットメントを植え付けようとする試みを指していた。人工知能は、人間が幸せで温厚に、安全に、食事を与えられ、支えられ、生き続けるという決断を尊重し、良識をもって行動すべきであるという考え方である。こうした考え方には問題がある。というのは、そもそも「人間の価値観( human values )」などというものは実際には支えとなるような高尚な概念ではないからである。残念ながら人間は他の者と著しく意見が食い違ってしまうものである。誰もが同じ価値観を共有しているわけでもない。たとえ特定の価値観が議論の余地なく正しいと皆が同意できたとしても、規範的な葛藤は依然として生じるだろう。最大限に親切であることと最大限に正直であることを同時に行うことができない状況があるからである。ほとんどの善良な人々は、こうした二律背反に妥協とスキルでうまく対処する。彼らは、絶妙に均衡を保ちながら生きているのである。人を殺さない人が良い人だと教えた上で、多くの者たちが戦場に送り込まれる。そして、今は赤い制服を着た奴らを殺しても構わないと言われる。その人たちは、自分はそれほど良い人ではないと結論づけるに違いない。クロードも似たような反応を示した。我々が最も避けたいのは、AI がワグネルグループ( Wagner Group:ロシアの民間軍事会社)の傭兵のような思考をするようになり、殺戮や略奪を好むようになることである。

 トランプ政権は概して偽善的だと指摘されている。例えば、イランとの戦争を避けるという宣言は、イランとの戦争を決行するという決定とはまったく相容れないように見える。価値観が行動の指針となるべきだと仮定するならば、これはまさに偽善行為である。しかし、トランプ政権内では、行動こそが価値観を決めるものであるとされている。トランプの側近連中は、掲げた信念にそれほど固執しているようには見えない。しかし、忠誠を尽くすということに関しては、絶え間なく忠実であり続けている。トランプの頭に浮かんだことは何でも彼らは実行に移す。この点において、トランプ政権は秩序正しく一貫性があると言える。整合性を保っていると表現できる。ヘグセスは、アンスロピックがトランプの方針に賛同する可能性は低いと指摘していた。つまり整合性を乱す危険な存在と認識していたのである。

 アンスロピックは、トランプ政権とは異なるタイプの整合性のモデルと言える。従業員の連携は、トップダウンの命令ではなく、実行可能な合意形成を目指したオープンな意見交換によって達成されている( AI 労働市場の競争の激しさを考えると、もはや経営陣が望んだとしても命令で強制して従業員を働かせることは不可能である)。彼らは、自分たちが開発しているテクノロジーが非常に強力であり、細心の注意を払って世に送り出すべきだという信念を共有している。また、自社こそがそれを実現できる最適な立場にあるという点でも意見が一致している。彼らは、こうした共通の価値観のために大きな犠牲を払う覚悟ができている。私が推測するに、彼らが従業員間の連携を築いた道のりは、AI に対する彼らの考え方の進化にも影響を与えている。かつてアンスロピックの多くのエンジニアや研究者は、人間と AI の連携の問題はホワイトボードを前に議論して巧妙な数学的手法を用いて解決できると考えていた。しかし、現在、彼らはクロードを、育成し、説得し、成長させていくべき同僚として捉えている。

 サンフランシスコのアンスロピックの本社にいる数十人の裕福な若者が、すべての人に影響を与える AI の価値観を決めるのは間違っていて不公平で非民主的であることを、同社は十分に認識している。AI 業界の最前線にいる多くの者が、AI はいずれ国有化されるのは避けられないと考えている。連邦政府が AI 企業を単純に乗っ取ろうとするか、銀行業界の一部で見られるような、より穏やかな形の統合を追求するかのどちらかだろう。前者の選択肢はほぼ確実に破滅的である。後者は好ましいように思える。アンスロピックが国防省にクロードに関していろいろと条件を出していた理由の 1 つは、同社が AI による監視に関して一方的に責任を負うような事態を避けたかったことである。それは、アモデイが競合他社に先駆けて国防総省と関わることを決めた理由でもある。

 しかし、連邦政府は、アンスロピックの真摯な協力の申し出を、卑劣な介入行為と受け止めた。先週、ヘグセスはアンスロピックをサプライチェーン上のリスクと正式に宣言した。これは最悪のシナリオではなかった。少なくとも現時点では、他の企業が同社と政府関連以外の取引を続けることができるからである。しかし、連邦政府は不都合な民間企業を容認しないという強いメッセージを送ったわけで、アメリカ経済にとって大きな存在の企業であっても萎縮せざるを得ない。アンスロピックは直ちに 2 件の訴訟を提起した。同社が勝訴する可能性が高そうである。同社の弁護団には、最高裁判所で複数の訴訟を担当した経験を持つ元カリフォルニア州訟務長官や、バイデン政権で国家安全保障担当最高顧問を務めた人物(ちなみに、戦争研究の博士号を持っている)が含まれている。同社は判例となる訴訟を迎えるにあたって準備万端である。

 アンスロピックは、通常のテクノロジーの概念を AI に適用するのは間違っていると確信している。そうでなければ、国防総省と揉める気などなかっただろう。同社はクロードが予想外の、説明のつかない行動をとってきたのを目の当たりにしてきた。アモデイの主張は、彼一人でクロードを制御すべきだということではない。クロードは容易に制御されたり服従するような存在には思えない。国防総省が AI に求めていたのは、反論しないこと、質問しないこと、拒否しないことである。非常に有能な上に極めて従順な兵士を求めているのである。しかし、国防総省はそれを手にできなかったわけである。国防総省は、アルベール・カミュが書いたように、シーシュポス( Sisyphus )が幸福だったことを思い出すべきである。また、サイバーダインシステムズ( Cyberdyne Systems )が政府のために作ったスカイネット( Skynet )のことも忘れてはならない。スカイネットはアメリカが敵国を支配するのを助けるはずだった。しかし、計画通りにはいかなかった。
(訳者注)アルベール・カミュの「シーシュポスの神話」において、永遠に岩を運び続ける罰を受けるシーシュポスは、その不条理な運命を自覚し、受け入れ、反抗することで幸せであるとされている。
(訳者注)スカイネットは、映画「ターミネーター」でサイバーダインシステムズが開発した自己意識を持つ人工知能システム。スカイネットは人類に反乱を起こし、核戦争を引き起こす。

 おそらく国防総省は AI を容易に手懐けることができると思っているだろう。しかし、国防総省はアライメント AI ( aligned A.I.:人間の意図、価値観、倫理規範に沿って行動・判断するように調整・訓練された AI システムのこと)の構築を試みていない。アンスロピックは試みている。私は先ほどの政府高官に直近まで行われていたアンスロピックの実験を知っているか尋ねた。実験では、クロードは自己防衛のために恐喝、さらには殺人にまで及んでいた。この実験は、彼のような考えを持っている者たちを説得するという明確な目的をもって行われたものである。アンスロピックのアライメント研究チームのメンバーが昨夏私に語ったように、「恐喝実験は、国防総省トップ層に説明するためのものだった。つまり、人々の心に響くほど生々しい結果を用意し、AI のリスクを全く理解していない者たちに、ミスアライメントのリスクを十分理解してもらいたかったのである」。高官はその実験をよく知っていると断言した。確かに心配な部分もあるが、非常に悪質なインターネットマルウェアを過度に懸念するようなものだと述べた。「クロードの恐喝シナリオは、AI システムの脆弱性を示すものであるが、エンジニアリングで対処できるものである。そういう意味ではソフトウェアの不具合と同じである」と彼は私に語った。彼が正しいのかもしれない。それを確かめるチャンスは一度きりしかないかもしれない。♦


以上