ソーシャルメディアプラットフォームは情報エコシステムの崩壊の危機に直面 —#2021サイバー脅威予測
2021年のソーシャルネットワークは、積極的にプラットフォームをモデレートし有害なコンテンツを発信、拡散、増幅したり、他のユーザーに嫌がらせをするアカウントに対して、より広範な措置を取る必要が生じるでしょう。
ソーシャルメディア企業は、これまでもプラットフォーム上の偽情報や問題のあるコンテンツに対しての対策を講じてきましたが、その努力はあまりにも少なく、遅すぎました。プラットフォームの適切なモデレーションが実行されてこなかったため、情報エコシステムは崩壊の危機に直面しています。
推奨アルゴリズムは、他の方法では見つけることが困難だったコンテンツを探し出すことに極めて効果的です。多くの場合、これらのメカニズムは無害ですが、中には陰謀説を信じさせて、過激派グループに加わるように誘い込むアルゴリズムも存在しています。 推奨アルゴリズムは、単独で使用するのではなく、このような事態の発生を防止し、偽情報、偽アカウント、組織的な扇動、標的型ハラスメントに対処するために設計された運用ポリシーと組み合わて運用すべきです。プラットフォーム上では、ある程度のモデレーション機能は働いていましたが、ユーザー数やサポートしている地域の規模に合わせて拡張されることはありませんでした。過去10年以上にわたって、この機能のベータテストが続いているのが実態で、そのために社会全体が苦しんでいるのです。
ソーシャルネットワーク企業は、規制の面でもトラブルに直面する可能性があります。 Facebookは最近、EUの個人データ転送規制によりビジネスの実行が困難になり、EU地域からサービスを撤退することも止むなしと述べています。米国では、ユーザーがプラットフォーム上に投稿した内容に対する責任を免除する、米国連邦法の米国通信品位法(CDA:Communications Decency Act)230条が2021年に見直される可能性があります。もし230条が修正または廃止された場合、またはEUが新たな規制を追加した場合、ソーシャルネットワークは法律違反を避けるために、運営方針を変更する必要に迫られるかもしれません。
ソーシャルメディアコンテンツの自動化されたモデレーションメカニズムについては、これまでにも多くの仕組みが提案されています。しかし、これらの仕組みのほとんどは、比較的高い誤検知率と見逃し率に悩まされています。コンテンツは、テキスト、音声、動画、画像など、さまざまな形式で公開されており、これらのフォーマットを分析するには、それぞれ異なるアプローチが必要になりますが、人間が理解できる微妙なニュアンスまで完全に自動化して、機会に理解させる方法はありません。そのため、一部のモデレーション作業はアルゴリズムや機械学習メカニズムに任せられるかもしれませんが、意思決定プロセスの大部分は、これまで通り人間が介在する必要があるでしょう。