A Reporter at Large October 19, 2020 Issue
Why Facebook Can’t Fix Itself
何故Facebookは運用基準を変えられないのか?
The platform is overrun with hate speech and disinformation. Does it actually want to solve the problem?
Facebookのプラットフォームにはヘイトスピーチ・偽情報がはびこっている。Facebookは問題を解決するつもりはあるのだろうか?
By Andrew Marantz October 12, 2020
1.Facebook社のヘイトスピーチ等への対応は緩い!
Facebook社が2004年にサービスを始めた時、そのプラットフォーム上で何が許されていて何が禁止であるかということに関して体系化されたルールはほとんどありませんでした。シャーロット・ウィルナーは3年後の2007年にFacebook社に加わりました。初期のFacebookのコンテンツ・モデレーター(不適切なコンテンツを監視する業務(コンテンツモデレーション)に従事する人)の内の一人です。彼女は当時を回想して私に教えてくれたのは、明文化されたガイドラインはたったの1ページほどだったし、そのガイドラインの内容は生理的に受け入れられないことは却下するというくらいの内容しかなかったということです。彼女の夫であるデイブは翌2008年に入社しました。フルタイムのコンテンツ・モデレーター12人の内の1人でした。後にコンテンツポリシーの責任者になりました。彼が言うには、ガイドラインは、単なる事例が記されているだけあり、その背景にある理由等は何も明確に記されていませんでした。「ヌードを削除します。」「ヒトラーを称賛することは許されていません。」というような事例が羅列されているだけでした。そこで、彼はポリシーを体系的に記し、それをAbuse Standards(誤用基準)と呼んでいましたが、3年後にもっと聞こえの良い呼び方に変えました。Implementation Standards(履行基準)としました。
現在のImplementation Standards(履行基準)は、「ヘイトスピーチ」、「いじめ」、「嫌がらせ」などの24の見出しがあり、それぞれに数十のサブカテゴリと、技術的な定義と、補足資料へのリンク等を含んでいます。およそ12,000語の文で、絶え間なく修正が加えられるようwikiシステムのホスティングを使用しています。そこには、コンテンツ・モデレーターと一部の従業員のみがアクセスできます。社内のソフトウェアシステム上にあります。Facebookのユーザーが閲覧可能なCommunityS tandardsは、そのガイドラインを要約して圧縮したものです。CommunityStandardsは、たとえば、グラフィックコンテンツに関するルールでは、「暴力を美化するコンテンツを削除します」という項目から始まります。対照的ですが、Implementation Standards(履行基準)では、数十の画像イメージが列挙されています。黒こげのあるいは燃え盛っている人体、切り落とされた人体の一部分、喫煙している乳幼児等々で、それらはコンテンツ・モデレーターが不穏当なものとして記録しておくよう指示を受けているものです。
Facebook社が掲げているミッションは、「人々にコミュニティー構築の力を与え、世界の絆を強める」というものです。Facebook社は自社を出版社ではなく中立的なプラットフォームと考えているので、ユーザーの投稿を検閲することはしたくないと考えています。たとえ人気がなく醜い投稿があったとしてもです。Facebook社は何度も人々からの批判をやり過ごして来ました。Facebook上でのいじめやハラスメントが原因で人々から批判されるということがしばしばありました。しかし、これまで一度もそうした批判が会社の評判や評価に壊滅的なダメージを与えるとはありませんでした。Facebook社の経営陣は、有害なコンテンツの拡散を真剣に受け止めているし、時間は掛かるが問題はいずれ解決できると繰り返し主張しています。人種差別の撲滅に取り組んでいるColor of Changeという公民権擁護団体の代表であるラシャド・ロビンソンは言います、「私たちの考え方が甘かったのかもしれませんが、ついちょっと前までは、Facebook社がこの問題に対処すべく必死に取り組んでいるものだと信じていました。しかし、Facebook上でのヘイトスピーチや毒々しい内容は増え続けています。彼らはいろいろ取り組んでいると言っているにもかかわらず、有害な内容を削除するということの優先順位は彼らにとって決して高くないのです。
伝えられるところによれば、Facebook社の広報部門でフルタイムで働いている従業員は500人以上になります。彼らの最近の主な仕事は、Facebookは赤ちゃんの写真を共有したり、古いソファを売ったりできる楽しい場所だとアピールすることです。同時に、ヘイトスピーチ、誤った情報、暴力的な過激主義の宣伝をする場所ではないということも訴えかけています。7月にFacebook社の広報責任者であるニック・クレッグ(元英国副首相)は、AdAge.comと自社の公式ブログにて、「Facebookはヘイトスピーチから何の恩恵も受けていない」というタイトルの記事を公開しました。 その記事では、Facebook社にとって、ヘイトスピーチを根絶するということは非常に優先順位が高いことである、と記されています。また、その記事の1週間前には、インテグリティ(誠実さ)担当副社長のガイ・ローゼンは、次のように記しています。Facebook社ではヘイトスピーチを許可していません。それを根絶するためにはまだまだやるべきことがたくさんあると承知していますが、正しい方向に向かって取り組んでいます。
正しい方向に進んでいるということですが、現在の状況を見ると、Facebook社が正しい方向に進んでいると見なすのは難しい状況です。Facebook社に悪意のある表現を投稿することは許可されていないとのことですが、しかし、多くの国のリーダー(フィリピンのロドリゴ・ドゥテルテ、インドのナレンドラ・モディ、ドナルド・トランプ他)がFacebook上に、ヘイトスピーチや偽情報を日常的に流しています。Facebook社は、扇動政治家にも他の人々に適用するのと同じ基準を適用するべきです。必要に応じてプラットフォームへの投稿を禁止するべきです。しかし、それには経済的なリスクが伴います(もし、Facebook社がトランプの投稿を禁止した場合、確実に報復されるでしょう。トランプは厄介な規制を設けたり、彼の支持者にFacebookを使わないように勧めたりするでしょう)。それでFacebook社は扇動政治家を締め出す代わりに、誤った判断・行動を続けています。扇動政治家を応援するかの如く、望むものを何でも投稿できるままにしています。そのことによって、Facebookの独自のルールは弱められますし、例外的な対応をしなければならない状況や、ルールの解釈を都合よく変更しなければならない状況や、そもそもルールを全く無視しなければならない状況が生み出されてしまっています。
デイブ・ウィルナーは、Facebook社には良い選択が無い状態であり、また、各国のリーダーの投稿を検閲をするという行為は厄介な前例を残すことになるかもしれないので手が付けにくいのだろうと論じています。また、Facebook社は、ヘイトスピーチをなせ禁止しているかというとを様々なところに明記していますが、ヘイトスピーチが現実社会の暴力を助長するからだとしています。ウィルナーは言います、「なるほど、現実社会の暴力を助長するヘイトスピーチはとても危険です。しかし、権力者で有名で軍隊を指揮下に置く者のヘイトスピーチはなおさら危険ではありませんか?」と。
ウィルナー夫妻は2013年にFacebook社を去りました。(シャーロットは現在Pinterest社のコンプライアンス責任者です。デイブは、はAirbnb社の地域政策の責任者です。)かつて2人はFacebook社の使命を心から信じていると思っていましたが、今ではFacebook社を激しく批評するようになりました。デイブが作り上げたFacebook社のルールの大きくは変わっていません。しかし、驚くべきことに重要な部分が削除され改変されています。結果、コンテンツの監視を完全に行うことができなくなっています。Facebook社は監視に及び腰ですし、一貫性がありません。
Facebook社のスポークスマンのドリュー・プサテリは声明を出しています。内容は、次の通りで、Facebook社はプラットフォームへのヘイトスピーチ等を防ぐために数十億ドルを投資してきたし、また、つい最近行われたECによる調査で、Facebook社はヘイトスピーチの報告があると24時間以内にその95.7%に対処していることが明らかになっており、ユーチューブやツイッターよりも迅速な対応をしていることが明らかになっており、必死に取り組んで前進しているが、やるべきことはまだまだあることを認識している、ということでした。Facebook社は大きくなりすぎてしまって、もはやコンテンツを効率的に監視することは不可能であるのかもしれません。Facebook社はInstagram、WhatsApp、Messengerを所有し運営しており、ユーザー数は30億人を超えています。Facebook社を批判する者の中には、Facebook社に対して一般の人々の間に懐疑論が広まっており、Facebook社がユーザーのコンテンツを監視し統制していく力は弱まってしまうだろうという者もいます。しかし、ラシャド・ロビンソンは、Facebook社はコンテンツを監視し統制することを完璧にできる能力を保持しているのだが、それを上手く使いこなせていないだけであると言います。実際、Facebook社はISIS等の組織の新兵採用宣伝は常に削除出来ているのに、白人至上主義組織の採用宣伝はほとんど取り締まっていません。重要なのは、Facebook社がルールを徹底すべきだということです。それが、自社にとって一番の利益になるはずです。
公の場で、マーク・ザッカーバーグ(Facebook社の創設者、会長、およびCEO)は、言論の自由と多元的な議論という高尚な理想を掲げます。彼は、2019年10月のジョージタウン大学での講演において、かつてフレデリック・ダグラスが「言論の自由は『社会の偉大な道徳的革新者』である」と語ったことに言及しました。しかし、ザッカーバーグがそういうことを言ったのは、彼のビジネスモデルを正当化するために言っただけのことでしょう。Facebook社のインセンティブは、自社のプラットフォームに人々を繋ぎとめておくということにあります。独裁者やその熱心な信奉者も含みます。彼らの過激な言説はより多くの書き込みを生み出すからです。かつてFacebook社の従業員であった者が言いました、Facebook社は複雑な言い回しをしていろいろ言い訳していますが、Facebook社の経営陣がしてきたことは危険な人物であると分かっている者にも巨大なメガホンを与えることによって暴利をむさぼったということです。
過去を振り返えると、Facebook社が重視していたのは危険なコンテンツを監視することではなく、それよりも、問題に対する人々の評判をどうコントロールするということでした。クレッグは最近のブログ投稿で、Facebook社はヘイトスピーチに対してゼロトレランスアプローチ(不寛容な対処)を採用しているが、毎日毎日大量のコンテンツが投稿されているため、ヘイトを根絶することは干し草の山で針を探すようなものだ、と書いています。このたとえでは、ザッカーバーグは不幸な運命の犠牲者ということになります。ザッカーバーグに過ちはないのにも関わらず、不思議なことに干し草の山は毎日針でいっぱいになってしまうとでも言いたいのでしょうか?正しくないですね。より正確にたとえるならば、干し草の山の中心に強力な磁石がセットされているから針が集まってくるのです。Facebookのアルゴリズムは、最も非難されるべきコンテンツを引き寄せ増やしてしまっているのです。インターネット上では常にあちこちに針が落ちていますが、それが磁石によってFacebookに引き寄せられているのです。今日そういった針を必要な数だけ取り除いても、翌日には今日以上に集まるでしょう。Facebookのアルゴリズムの設計ではそのように機能してしまうのです。