Salta al contenuto

Temi di tendenza

Le piattaforme di social media saranno costrette a confrontarsi con un ecosistema di informazione rotto —#2021Predictions

Marzia Romeo

18.12.20 2 minuti di lettura

By Andrew Patel, Senior Researcher, AI Center of Excellence, F-Secure

Il prossimo anno, i social network dovranno probabilmente moderare le loro piattaforme in modo più aggressivo e intraprendere azioni più diffuse contro gli account che creano, diffondono e amplificano i contenuti dannosi e molestano altri utenti.

Sebbene le società di social media abbiano adottato alcune misure contro la disinformazione e i contenuti problematici sulle loro piattaforme, i loro sforzi sono stati troppo pochi e troppo tardivi. La mancanza di un’adeguata moderazione su queste piattaforme ha gravemente danneggiato il nostro ecosistema informativo.

Gli algoritmi di raccomandazione che alimentano i social network sono molto efficaci nell’esporre le persone a contenuti che altrimenti non avrebbero trovato. Sebbene questi meccanismi siano spesso benigni, hanno indotto alcune persone a credere a teorie complottiste e ad unirsi a gruppi estremisti. Questi algoritmi di raccomandazione avrebbero dovuto essere associati a politiche di moderazione progettate per impedire che queste cose accadessero e per affrontare disinformazione, account falsi, amplificazione coordinata e molestie mirate. Sebbene una certa moderazione si verifichi su queste piattaforme, non è mai stata adattata al numero di utenti e alle aree geografiche supportate. In quanto tale, la società nel suo complesso ha testato questi sistemi in versione beta per oltre un decennio e ne ha sofferto.

Le società di social network possono anche affrontare problemi sul fronte della normativa. Facebook ha recentemente affermato che le normative sul trasferimento dei dati dell’UE possono rendere la vita difficile al punto da dover ritirare i propri servizi dalla zona. Negli Stati Uniti, la sezione 230 del Communications Decency Act, una disposizione della legge federale degli Stati Uniti che immunizza le piattaforme dalla responsabilità per ciò che gli utenti pubblicano su di esse potrebbe essere rivista nel 2021. Se la sezione 230 dovesse essere modificata o revocata, o se l’UE continuasse ad aggiungere nuove normative, i social network potrebbero trovarsi a dover cambiare il modo in cui operano per evitare di infrangere le leggi.

Sono stati proposti molti meccanismi per la progettazione di meccanismi di moderazione automatizzata per i contenuti dei social media. Tuttavia, la maggior parte di questi meccanismi soffre di tassi di falsi positivi e falsi negativi relativamente alti. Il contenuto può essere pubblicato in una varietà di formati: testo, audio, video e immagini. Tutti questi formati richiedono diversi approcci di analisi, nessuno dei quali può essere veramente automatizzato per comprendere le sfumature che gli esseri umani sono in grado di comprendere. In quanto tale, sebbene un po’ di lavoro di moderazione extra possa essere affidato ad algoritmi e meccanismi di apprendimento automatico, è probabile che gli esseri umani avranno ancora bisogno di essere coinvolti nel ciclo per gran parte dei loro processi decisionali.

Marzia Romeo

18.12.20 2 minuti di lettura

Post correlati

Newsletter modal

Grazie del tuo interesse per la newsletter di F-Secure. Riceverai a breve un email per confermare la sottoscrizione.

Gated Content modal

Congratulazioni – ora puoi accedere al contenuto cliccando sul bottone sottostante.