ゼファーネットのロゴ

Facebookは、別の人権の悲劇がプラットフォームで発生するのを防ぐことに失敗している、とレポートは警告している

日付:

キャンペーングループごとのレポート Avaaz 北東インドのアッサム地域で悪意のあるスピーチを広めるためにFacebookのプラットフォームがどのように使用されているかを調べたところ、同社はプラットフォームが民族的暴力を煽る武器に変わるのを防ぐことに再び失敗していることを示唆しています。

アッサムには長い間イスラム教徒の少数派がいますが、インドのヒンドゥー民族主義政府が国民登録簿(NRC)を推進し、1.9万人近くのリストから除外されたため、州の少数民族はますます脆弱になっています。主にイスラム教徒—彼らを無国籍のリスクにさらしている。

In 7月 国連は、NRCプロセスに対して重大な懸念を表明し、恣意的な追放および拘留のリスクがあると述べ、除外されたものは「不規則」ではないことを証明しなければならない外国人裁判所に紹介された。

同時に、国連は、ソーシャルメディアを通じて広まっているアッサムでのヘイトスピーチの台頭を警告しており、これがこの地域の何百万もの人々の不安定さと不確実性の増大に寄与していると述べています。 「このプロセスは、国内の宗教的不寛容と差別を煽る一方で、外国人嫌悪の風土を悪化させる可能性がある」と書いている。

これらの警告についてはdeja-vuのひどい感覚があります。 に 2018月XNUMX日 XNUMX:XNUMX 国連はFacebookがそのプラットフォームが隣国のミャンマーのロヒンギャ族に対する民族的暴力を煽るのに使われなかったとして批判しました-サービスがその危機において「決定的な役割を果たす」と言った。

Facebookの 国連からの壊滅的な批判への対応は、広告ビジネスの倫理的亀裂について紙に書かれた非常に薄い危機PRのように見えます。同じ種類の警鐘がちょうどXNUMX年後に再び鳴り響いていることを考えると。 (人権政策の仕事のディレクターに付けられた高い目標で会社を測定する場合 昨年 — Facebookが責任に「紛争予防」と「平和構築」が含まれると書いたとき、それは確かに悲惨な失敗でした。)

アッサムでの差別的発言に関するAvaazのレポートは、Facebookのプラットフォームを直接狙っており、反イスラム教徒の憎悪を煽る導管として使用されていると述べています。

レポートでは、 憎悪のメガホン:アッサムの市民権カウント中のFacebookでの偽情報と憎悪のスピーチグループは、アッサムとNRCに関連する800のFacebook投稿とコメントを、アッサム語の移民言説のキーワードを使用して分析し、Facebookのコミュニティ基準で定められたXNUMX層の禁止された悪意のある表現に対してそれらを評価したとグループは述べています。

Avaazは、投稿とコメントの少なくとも26.5%がヘイトスピーチを構成していることを発見しました。 その分析によると、これらの投稿は99,650回以上Facebookで共有されており、宗教的および民族的マイノリティを対象とした暴力的なヘイトスピーチに対して少なくとも5.4万回のビューが追加されています。

ベンガルムスリムは、他の非人道的な用語の中でもとりわけ、「犯罪者」、「強姦犯」、「テロリスト」、「豚」、「犬」と呼ばれるコメントを見つけたレポートによると、アッサムのFacebookの特定のターゲットです。

さらに不穏なコメントでは、人々に娘を「毒殺」し、女性の殺虫剤を合法化するよう求める声があり、「インド人」の女性に「強姦された外国人」から保護するように促すいくつかの投稿がありました。

Avaazは、その調査結果がFacebookや他のソーシャルメディアを介してアッサムをdrれさせていると言っているヘイトスピーチの海の単なる低下であると示唆しています。 しかし、Facebookは、その支配的なプラットフォーム上で広がる悪意のあるスピーチを警察するのに十分な人的資源を提供していないと直接非難している。

声明でコメントし、上級運動員のアラフィア・ゾヤブは次のように述べた。 「フェイスブックは憎悪のメガホンとして使用されており、アッサムの脆弱な少数派を直接指摘しており、その多くは数か月以内に無国籍になる可能性があります。 これらの人々が直面している明確かつ現在の危険にもかかわらず、Facebookは彼らを安全に保つために必要なリソースを捧げることを拒否しています。 Facebookは何もしなかったため、世界で最も脆弱な人々の迫害に加担しています。」

その主な不満は、FacebookがAIに依存して、人間のユーザーから報告されていないヘイトスピーチを引き続き検出していることです。事前に検出されたコンテンツではなく、(人間の)コンテンツモデレータースタッフの限られたプールを使用して、フラグが立てられたコンテンツを確認します。

Facebookの創設者 マーク·ザッカーバーグ AIがヘイトスピーチを確実に検出するための道のりは非常に長いと以前に述べています。 実際、彼はそれが決してできないかもしれないと示唆しました。

In April 2018 彼は米国議会の議員に対し、「さまざまな種類のコンテンツの言語的ニュアンスをより正確に把握し、システムにフラグを立てるために使用できるAIツール」を開発するにはXNUMX〜XNUMX年かかる可能性があると語った。それだけではありません。」

これは、アッサムなどの地域で、暴力を助長する政治的に起訴された雰囲気の中で民族間の緊張が高まっていることを認めると、Facebookは基本的に仕事で眠っています。 明確にするために、独自の「コミュニティ基準」を適用し、そのプラットフォームが武器になり、悪意のある人々の憎悪と嫌がらせを増幅させないようにするという仕事。

Avaazは、Facebookに直接発言した悪意のある表現の「最も明確な例」の213にフラグを立てたと言います。これには、選出された役員からの投稿や、インド政府によって禁止されたアッサムの反乱グループのメンバーのページが含まれます。 同社はその報告を受けて、これらの投稿のうち96件を削除した。

Facebookを介してアッサムの少数民族に向けられたヘイトスピーチのタイプと、Facebookのミャンマーのロヒンギャの人々を対象としたヘイトスピーチのタイプには類似性があると主張しているが、文脈は異なっている。 しかし、それはまた、インドのロヒンギャの人々を標的とする憎悪的なコンテンツをFacebook上で見つけました。

アッサムの脆弱な少数派を保護するためにより多くのことをFacebookに呼びかけ、ヘイトスピーチを検出するための自動化ツールのみに依存すべきではなく、代わりにヘイトスピーチに対して「人間主導の「ゼロトレランス」ポリシー」を適用すべきだと主張している。現地の言語でモデレーターの専門知識を強化します。

また、Facebookが戦略的対応チーム内で、人間によるコンテンツの管理に基づいて早期警告システムを立ち上げることを推奨しています。これは、国連がソーシャルメディアでのヘイトスピーチの台頭を警告しているすべての地域で行われます。

「このシステムは、人権危機を回避するために予防的に行動するべきであり、すでに発生しているオフラインの害に対応するためだけに反応するのではない」とそれは書いている。

その他の推奨事項には、Facebookが虚偽または意図的に誤解を招くと思われるコンテンツを見たすべてのユーザーに事実チェッカーからの修正を通知および提供することにより、虚偽のニュースおよび虚偽に関する記録を修正することが含まれています。 ヘイトスピーチの問題がFacebookの問題の大きさに比例して目立つようになり、宣伝されるように、すべてのページと投稿の削除についてはFacebook Newsroomにその合理性を公開することで透明にする必要があります。 また、インドのプラットフォームでの差別的発言と人権の独立監査に同意する必要があります。

「Facebookは、ビジネスと人権に関する国連指導原則に準拠するためにサインアップしました」とAvaazは述べています。 「特に、差別的発言を特定するAIツールを導入し、その後回避または緩和するための措置を講じる場合、女性、子供、言語、民族、宗教的マイノリティなどの脆弱なグループへの影響を特定するなど、人権デューデリジェンスを実施する必要があります。そのような害。」

私たちはFacebookに連絡し、Avaazのレポートについて、またミャンマー危機以降の民族間ヘイトスピーチの取り締まりへの取り組みをどのように進展させたかについて、地域のコンテンツを監視するために雇用している人数の詳細を尋ねることを含め、Facebookに連絡しました。

Facebookは特定の質問に対する回答を提供しませんでした。 アッサム語であり、言語でコンテンツをレビューするコンテンツレビュアーと、アッサム語、ヒンディー語、タミル語、テルグ語、カンナダ語、パンジャブ語、ウルドゥー語を含むインドの公用語の大部分を知っているレビュアーがいますベンガル語とマラーティー語。

In 2017 インドはFacebook広告の「潜在的なオーディエンス」が最も多い国として米国を抜いており、広告主の報告によると、アクティブユーザー数は241億XNUMX万人です。

Facebookはまた、スポークスマンに起因するこの声明を送ってくれました。

私たちはFacebookがすべての人々がつながり、自分自身を表現するための安全な場所であることを望んでおり、インドを含む世界中の少数民族や疎外されたコミュニティの権利を保護することを目指しています。 差別的発言に対する明確なルールがあります。これは、カースト、国籍、民族、宗教などに基づく人に対する攻撃であり、インドの専門家から受け取った情報を反映しています。 これを非常に真剣に受け止め、これらのポリシーに違反するコンテンツは、気づいたらすぐに削除します。 これを行うために、私たちは現地の言語の専門知識を持ち、インドの長年の歴史的および社会的緊張を理解している専用のコンテンツレビュアーに投資しました。 また、サービスに対するヘイトスピーチを積極的に検出することで大幅な進歩を遂げ、有害な可能性のあるコンテンツにすばやくアクセスできるようになりました。

しかし、これらのツールはまだ完全ではなく、コミュニティからのレポートは依然として非常に重要です。 そのため、調査結果を共有してくれたAvaazにとても感謝しています。 報告されたコンテンツを慎重に確認し、ポリシーに違反したものをすべて削除しました。 私たちは引き続き、インドおよび世界中のサービスに関するヘイトスピーチの拡散を防止するために努力します。

Facebookは、30万人以上の人口を持つインドの州のコンテンツを警察するために雇用している人数を正確に教えてくれませんでした。

同社は世界中で、信頼と安全に取り組んでいる約35,000人の従業員を擁しており、その半分(約15,000人)が専用のコンテンツレビュー担当者です。 しかし、2.2BN +のユーザーが世界中で昼夜を問わず投稿しているグローバルプラットフォームの非常に小さなコンテンツレビューアの労働力では、悪意のある表現の問題を乗り越える方法はありません。

Facebookが動作するすべての市場で確かにそうであるとは限りません。そのため、FacebookはAIに大きく依存しており、ビジネスへのコストを削減しながら、コンテンツ関連のリスクを他のすべての人に積み上げています。

Facebookはヘイトスピーチを検出するための自動化ツールが改善されたと主張し、今年の第1四半期にヘイトスピーチの予防的検出率が65.4%に増加したと発表した-58.8年第4四半期の2017%から38年第2四半期の2017%まで。

ただし、Q4で全世界で1万件のヘイトスピーチしか削除しなかったとも述べています。 これは、Facebookのプラットフォームのサイズと、何百万ものアクティブユーザーによって毎日生成されるコンテンツの量に対して、信じられないほど小さいように思えます。

独立した研究者がFacebookのプラットフォーム上のコンテンツとコンテンツの広がりを照会するためのツールがなければ、悪意のある表現の何個が検出されないのかを知ることは不可能です。 しかし、-明確に言えば—この規制されていない会社は、まだ自分の宿題をマークしています。 

Facebookがフェンシングの問題のあるコンテンツの量、Avaazが悪意のある表現であると判断してFacebookに報告した213のコンテンツのうち、アッサムとNCRに関連するコンテンツの認識を縮小する方法の一例として、削除したのは半分未満( 96)。

それでもFacebookは、コミュニティの標準に違反するすべてのコンテンツを削除することも教えてくれました。これは、悪意のある表現の定義がAvaazよりもはるかに希薄であることを示唆しています。 アメリカの会社にとっては当然のことです 新生危機PRコンテンツ審査委員会の憲章には、「自由な表現が最も重要」という語句が含まれています。 しかし、紛争の防止と平和構築を望んでいると主張する企業にとっては、控えめに言っても、それはむしろ対立しています。 

現状では、Facebookの自己申告による悪意のある表現のパフォーマンスメトリックは無意味です。 社外の誰かがプラットフォームデータを定量化またはベンチマークすることは不可能です。 Facebook以外の誰もが全体像を把握していないためであり、民族監査のためのプラットフォームを開いていません。 有害で憎悪的なものがFacebookに広がり、世界中の人々に命を吹き込み、被害を与え続けています。 

続きを読む: https://techcrunch.com/2019/10/28/facebook-is-failing-to-prevent-another-human-rights-tragedy-playing-out-on-its-platform-report-warns/

スポット画像

最新のインテリジェンス

スポット画像