「スチーム」で過激かつ憎悪の念を煽るコンテンツが横行しているとする、アンチ・ディフェイメーション・リーグ(ADL)の新しい報告書が、その存在を浮き彫りにした。
ADLの調査によると、スチームの膨大な利用者データを「前例のない」規模で調査した結果、ナチのイメージやISIS、ハマスなどのテロ組織を支持するコンテンツなど、憎悪に関連したコンテンツが180万以上見つかったという(https://www.adl.org/resources/report/steam-powered-hate-top-gaming-site-rife-extremism-antisemitism)。
Benzingaは、プラットフォームの親会社であるバルブ・コーポレーションにコメントを求めているが、本稿執筆時点で同社側からの回答は得られていない。
関連記事:子供の76%が今クリスマスにビデオゲームをリクエストすると回答
この報告書はADLのウェブサイトで公表され、スチーム内に存在する様々なコンテンツを包括的に分析している。
ADLによると、調査期間中、同団体は4億5800万のユーザープロフィール、1億5200万のグループアバター、および6億1000万件以上のコメントを調査した。最も懸念すべき発見として挙げられたのは、反ユダヤ主義の象徴、白人至上主義のプロパガンダ、ISISやハマスなどの過激派グループを支持する内容が数千件見つかったことだ。
ADLが懸念する憎悪のイメージに加え、同団体は「1488」、「シェケル」、「ホワイトパワー」といった過激な文言の使用も発見しており、過激派のコンテキストで185,000件近くの具体的な用語が同定された。総計では、150万人以上のユニークなユーザーと7万3000以上のグループが、このようなコンテンツを共有していることがわかった。
これらの驚くべき発見にもかかわらず、ADLはスチームのコンテンツモデレーションポリシーにおける重要な問題点を指摘している。バルブは開発者ガイドラインおよびコミュニティガイドラインで明確に、プラットフォーム上の憎悪を煽るような発言について禁止しているにも関わらず、これらの規則の執行が不安定であるというのがADLの主張だ。
バルブのモデレーションツールが検証される
ADLの報告書はバルブのモデレーション活動の効果についても問いただしている。バルブはユーザープロフィールとコメントをスクリーニングするフィルターや自動ツールを使用しているが、これらの措置がプラットフォーム全体に普遍的に適用されているわけではない。
特にユーザーはフィルターを無効にできるため、有害なコンテンツが見過ごされる可能性がある。さらにADLは、バルブのキーワード検出システムが簡単に回避できると主張し、ユーザーが単語を変更したり、ASCII(アメリカ情報交換基準)アートを使ってモデレーションシステムを回避することができると指摘している。
ADLが指摘するように、「スチームはプラットフォーム上の過激で憎悪を煽るコンテンツを技術的にモデレートできるように見えるが、同プラットフォーム上で過激なコンテンツが拡散してしまうのは、バルブがコンテンツポリシーに対して非常に寛容な姿勢をとっているための一因である」とADLは述べている。
ADLは、極めて稀なケースでバルブが過激なコンテンツを削除したことも指摘しているが、これが実施されたのも外部からの圧力やメディアの注目を受けた後のことであり、バルブが一貫した先制的な対策として実施している訳ではないという。
バルブのプラットフォームに変更が求められる
ADLは、バルブのコンテンツガバナンスを大規模に改革することを求めており、バルブには憎悪と過激主義を明確に禁止するポリシーを実施し、モデレーションプラクティスを徹底的に監査し、研究者や市民社会と協力してアプローチを改善するよう要請している。
ADLの戦略およびオペレーションの責任者であるダニエル・ケリー氏は、ブルームバーグとのインタビューの中で、「主要なゲーム会社は、ユーザーが過激派を支持し、憎悪の拡散を許しているプラットフォームで自社の製品を販売している」と述べている。
ケリー氏はさらに、「これによって、何かを支持するようなユーザーが、次第に憎悪と過激主義の世界に引き込まれる可能性が増大してしまう」と語っている。
次の記事も読む:
写真:シャッターストック