犯罪捜査での顔認識システムの使用は危険! 他のAIツールと同様、メリットもあるがデメリットが大きい!

2.

 2016年にジョージタウン大学ロー・センターのプライバシー・テクノロジー・センター(the Center on Privacy and Technology, at Georgetown University Law Center)が1つのレポートを発表した。”The Perpetual Line-Up(永遠の面通し)”というタイトルであった。それによれば、連邦政府や地方自治体等の法執行機関がアクセスできる顔認識データベースには、1億1,700万人のアメリカ人の顔が登録されているという。これらの画像の多くは、運転免許証の取得更新時に撮られたもの、犯罪者の顔写真など、公的機関から提供されるものである。それ以外に、監視カメラやソーシャルメディアなどから得られる画像も使われている。

 そのレポートが発表されてから何年も経っているが、そのシステムはますます存在感を高めている。そうなった理由は、このシステムを販売することが儲かるビジネスだからであるし、AI業界が法執行機関を顧客にすることに成功したからである。バズフィード・ニュース(BuzzFeed News)が2021年に行った調査によれば、2,000近い公的機関が、クリアビューAI(Clearview AI)社が開発した顔認識システムを使用、あるいは試用しているという。そのデータベースには、インターネット上から収集した数十億の画像も含まれている。同社は、捜査当局向けにこのサービスを納入している。このシステムは、「人口統計上のあらゆる層に対して100%の正確性を担保できる」ことが売りである。

 顔認識システムの推奨派は、この技術を治安活動の効率化と犯罪者追跡に役立つ重要なツールと見なしている。この技術は、2021年1月6日に連邦議会議事堂を襲撃した多数の暴徒を捜査当局が特定するのに役立った。それで急激に評価が高まった。タイムズ紙(the Times)記者のカシミール・ヒル(Kashmir Hill)は新著”Your Face Belongs to Us(未邦訳:あなたの顔の情報は勝手に使われている)”に、2019年に国土安全保障省(Department of Homeland Security)の捜査官が児童性的虐待事件をどのように捜査したかを記している。まず、容疑者の写真を他の同僚に電子メールで送って共有した。同僚の1人がその写真をクリアビューAIに放り込んで似た者が居ないか調べた。その同僚は、ラスベガスで開催されたボディビルの大会でポーズをとるマッチョな1組のカップルのインスタグラムの画像を送り返した。その画像の背景には容疑者に似た人物が写っていた。ダイエットサプリメントを販売する企業のブースで商品説明をしているところだった。捜査官は、その企業の本社に電話をした。本社はフロリダだった。その男、アンドレス・ラファエル・ヴィオラ(Andres Rafael Viola)は、直ぐに逮捕された。その後の裁判で、捜査当局は彼のスマホ等から入手した画像など、有罪を決定づけるのに十分な証拠を提示した。ヴィオラは懲役35年を言い渡された。

 捜査当局がこのような芸当ができるツールを欲しがる理由は想像に難くない。しかし、当局がより好ましくない目的で自動顔認識システムを使用することを恐れる者は決して少なくない。平和的なデモの参加者の活動を監視したり、市民のプライバシーを侵害したりしないようにすべきだと主張する者も少なくない。また、このシステムの信頼性を疑問視する者も少なくない。他の機械学習システムと同様、顔認識システムは膨大なデータを読み込んで、その中に潜むパターンを学習して予測を行う。機械学習は、人工ニューラルネットワーク(人間の脳内に多数存在している神経細胞(ニューロン)とそのつながりを数理モデルで表現したもの)を使って行われることが多い。より人間に近い学習を実現しようという試みである。顔認識システムは、ChatGPTがテキストを大量に読み込んで訓練されるのと同じように、大量の顔写真を読み込んでいる。それで、2つの画像がどの程度似ているかを示す信頼度スコアをはじき出すことができる統計モデルが構築される。しかし、信頼度スコアが99%であっても、必ずしも一致するわけではない。顔認識システムを提供する企業は、信頼度スコアが「アルゴリズムによる最良の推測」を示しただけのものに過ぎないことを認識している。また、その精度は、画像の解像度や品質によって大きく左右されることも認識している。照明やカメラの角度など画像の品質を損なう要因はいくらでもある。また、アルゴリズムに学習させるために使用するデータに偏りがある場合(女性の顔よりも男性の顔が多いとか、黒人の顔よりも白人の顔が多いなど)、顔認識システムは、人口統計上の特定の層に対して低いパフォーマンスを示す可能性がある。顔認識システムを研究しているジョナサン・フランクル(Jonathan Frankle)は、ニューラルネットワークにも詳しい。彼は言った、「すべての機械学習に共通して言えるのだが、質の高い大量のデータが何よりも重要である。」と。もし学習する際のデータに特定のグループのデータが多く含まれていれば、そのシステムはそのグループのメンバーを評価する際の信頼度が非常に高くなる。なぜなら、既にたくさん見て容易に認識できるようになっているからである。

 2020年1月にミシガン州に住むロバート・ウィリアムズ(Robert Williams)が、デトロイトの商店で腕時計を盗んだ疑いで、妻と子供たちの目の前で逮捕された。監視カメラに残っていた映像から顔の映像を抽出し、顔認識システムで照合して分析した結果、彼が割り出された。ウィリアムズには、罪を犯した認識は無かった。そのことは、捜査員にも直ぐに分かった。というのは、窃盗犯の写真を彼の顔の横にかざして見比べた時に明らかな違いがあったからである。とにかく違いは多かった。ウイリアムズの方が大柄だった。窃盗犯の顔は面長だが、ウイリアムズは丸顔だった。後に、この事件の顛末がタイムズ紙に掲載された。彼の災難は、顔認識技術が誤認逮捕において重要な役割を果たした事件として初めて公に知られた例となった。それ以降、同様の事例が5件発生したことが知られている。そのすべてで、誤って身柄を拘束された容疑者は黒人であった。顔認識のアルゴリズムが肌の黒い人の顔を正確に識別できず、刑事司法制度において人種差別を助長するとの懸念が高まっている。2019年に連邦政府機関のアメリカ国立標準技術研究所(the National Institute of Standards and Technology)は、多くの顔認識システムが黒人とアジア人の顔を白人の顔よりも高い頻度で誤認するという調査結果を発表した。10〜100倍も高いという。また、女性や高齢者でも誤認の頻度が高かった。

 顔認識技術の擁護者は、現状ではアルゴリズムの質に大きなばらつきがあることは認めるものの、今後改良されて最良のものが構築されれば、このような人口統計学上の不均衡は発生しなくなると主張する。また、当局が何百万件もの捜査をした中で、誤認逮捕につながったことが証明されたのは極めて少ないと主張する。しかし、誤認逮捕であることが認識されずに誤って犯人と特定された者がいる可能性もある。決して少なくないかもしれないが、その数を特定することはできない。その理由の1つは、顔認証に関する法整備が全く不十分であることである。捜査当局のみが、この技術を使用しており、一般市民や被疑者側にその情報が全く共有されていない。昨年の秋にランダル・コーアン・リード(Randal Quran Reid)というルイジアナ州の男が、2件のクレジットカード詐欺の容疑者として逮捕された。彼はやっていなかった。逮捕令状には、顔認識システムを使った捜査で彼が容疑者に特定されたことは書かれていなかった。後にリードの弁護士がその事実を知った。弁護士は、捜査員の1人が彼を窃盗犯と 「一致する(positive match) 」と言ったのを聞いて気付いたのだ。リードは6日間拘置所に入れられた。彼の家族は、誤認であることを知るまでに数千ドルの弁護士費用を費やしていた。誤認は、当地の捜査当局が導入していたクリアビューAIの顔認識システムに起因するものだった。いやはや、同社は「100%の正確性 」を謳っていたはずだが・・・。

 捜査当局の幹部によれば、少なくとも理論的には、顔認識システムはより本格的な捜査のための手がかりを得るためだけに使用されており、それだけでは逮捕の決め手にはならないという。であるから、顔認識に関する情報を開示する義務はないと主張する。しかし、現実は違う。これまでに記録されている誤認逮捕の中には、捜査時に顔認識システムでの照合しか行っていないものも少なくない。ジョージア州のランダル・リードとルイジアナ州の窃盗事件とを結びつける証拠は他に何も無かった。デトロイトの捜査官は、ロバート・ウィリアムズのスマホの位置データのチェックさえしていない。調べれば、強盗に入ったとされる時刻に彼がどこにいたか確認できたはずである。デトロイト市警は、警備会社に連絡し窃盗された店舗の監視カメラの映像を取り寄せた。顔認識システムにそれを放り込んだ後、6人の写真からウィリアムズが選ばれた。事件発生時に捜査関係者が店内にいたわけではない。逮捕するまで、ウィリアムズを直接見た者は誰もいなかった。