ここから本文です

Facebookの問題コンテンツ対策マニュアルをGuardianがリーク

5/22(月) 15:05配信

ITmedia NEWS

 英Guardianは5月21日(現地時間)、米Facebookの問題のあるコンテンツの削除を判断する「モデレーター」のための社内マニュアルを入手したとして、その内容の一部を公開した。

 同紙が入手したのは、暴力、ヘイトスピーチ、テロ、ポルノ、人種差別、自傷などのコンテンツへの対処方法を説明する100件以上のトレーニングマニュアル、スプレッドシート、フローチャートという。

 間もなくMAUが20億人に達するFacebookでは様々なコンテンツが投稿されており、中には殺人を録画したものやリベンジポルノなども含まれる。

 Facebookではユーザーや人工知能による報告に基いてモデレーターがコンテンツを審査し、削除する、非表示にする、放置するなどの判断を行っている。

 現状では、芸術写真を児童ポルノとして削除してしまったり、殺人動画が数時間表示されてしまうなどの問題が起きている。

 Facebookのマーク・ザッカーバーグCEOは今月、こうした問題の対策強化のため、現在4500人であるモデレーターに3000人を追加すると発表した。

 Guardianが公開したマニュアルでは、例えば「誰かがトランプ大統領を撃つ」と書くのはNGだが「誰かがあなたを殺せばいいのに」はOKだったり、自傷行為を肯定するような投稿はだめだが、自傷行為のライブ動画は削除しないといった、グレイで判断が難しい基準が記されている。自傷行為のライブ動画を削除しないのは、そうしたライブ動画を阻止することで「自殺しようとするような苦しんでいる人を検閲したり罰したりしたくない」からという。この方針は、専門家のアドバイスに基いて決めたものと文書には書かれているという。

 マニュアルでは、自傷行為のライブ動画1つとっても、「(動画の放置が)当事者を助ける機会につながらないようであれば動画を削除する方が安全だ」など、判断が難しい説明になっている。

 Guardianによると、モデレーターはわずか2週間の訓練期間の後、専門家としてコンテンツのレビューに従事し、これらのマニュアルに基いてコンテンツの扱いを判断する。

 FacebookのGlobal Policy Management責任者であるモニカ・ベッカート氏はGuardianに対し、「われわれはコミュニティを安全に保つ責任がある考えている。安全を維持することは、われわれの責任だ。サービスを安全に保つために引き続き投資していくと同時に、われわれのポリシーに違反するコンテンツを報告する権限を広げていきたいと考えている」と語った。

最終更新:5/22(月) 15:05
ITmedia NEWS