本日翻訳して紹介するのは、the New Yorker の November 20, 2023 Issue のEyal Pressの記事で、タイトル”Does AI Lead Police to Ignore Contradictory Evidence?”(AIのせいで警察は矛盾する証拠を無視するようになる?)です。
前回の投稿から少し日が空きました。October 9, 2023, issueに載ったダン・アリエリーに関する記事を翻訳していたのですが、途中で挫折してしまいました。ちょっと難しくて・・・。何とか年内に翻訳を完了させて当ブログに投稿したいと考えております。さて、ダン・アリエリーの「予想どおりに不合理」って読んだ方が多いと思います。私のように結構面白いと思った人が多いのではないでしょうか。ところが、面白おかしかったあの本は、データの捏造があるというのです。データの分析方法というか、着眼点が面白かった記憶があるのですが、データを都合よく書き換えていたとのこと。面白かっただけに、残念!データの分析でそれをやっちゃあ、全ておしまいよ!今後、私はダン・アリエリーのことを「令和の小保方」と呼ぶこととします。
さて、訳した記事の話に戻りますが、Eyal Press氏は、しばしば当誌に寄稿しています。題材は、大量殺戮とか中絶問題とか労働環境とか社会問題を主に取り上げています。いわゆる社会派です。まあ、私の場合は特に政治信条とか宗教とかにはあまり興味は無いのですが、今回訳した記事は顔認識システムの問題点についてのもので、面白いと思ったので翻訳してみました。なお、全文翻訳して分かったのですが、テクノロジー面の分析はそれほど深くありません。それよりも、そのシステムを使う側の問題があぶり出されていました。
AIは、顔自動認識システムも間違いなくAIなわけですが、それを使う人間を惑わせます。というのは、誰もAIが何しているかなんて何も分からないわけで(分かれば、ここがおかしいだろうとか指摘するのでしょうが)、そうすると誰もが面倒くさいからどうするか?そんな訳の分からないものは使えないと言ってAIを使わなくなるでしょうか?そんなことは全く無く、AIを過信するようになるのです。それで、犯罪捜査で顔認識システムが使われると、捜査員はそれだけに頼るようになる。それが必ずしも正しいわけではないのに、盲目的に信じ、他の必要な捜査に手を尽くさなくなるのです。
だから、あくまで顔認証システムが悪いのではなく(おそらく、膨大な顔写真の中から犯人と一致する者を探させたら、精度は高く、速度は人間の数兆倍でしょう)、人間の使い方に問題があるのです。私が思うのは、デメリットふぁ出ないようにすべく規制をかけてメリットのみを享受できるようにしてもらいたいということです。せっかくのテクノロジーが有効に使われないようなことになると、今後新たなテクノロジーを生み出そうという気運も萎えてしまう気がするからです。
では、以下に和訳全文を掲載します。詳細は和訳全文をご覧ください。