Fonte: Algorithm Watch
Il social network open source ha guadagnato milioni di nuovi utenti in seguito all’acquisizione di Twitter. Mentre alcune delle sue caratteristiche potrebbero migliorare la qualità del discorso pubblico, le comunità svantaggiate potrebbero essere escluse.
Le società di social media hanno un difficile equilibrio. Da un lato, devono mantenere gli utenti attivi sulla loro app o sul loro sito web il più a lungo possibile per mostrare loro annunci pubblicitari. I contenuti divisivi, emotivi o che incitano all’odio funzionano meglio in tal senso. D’altra parte, devono mantenere un certo livello di sicurezza online, almeno per placare i propri inserzionisti. I social network quindi incoraggiano comportamenti aggressivi degli utenti sopprimendo contemporaneamente i contenuti più eclatanti (per timore che gli inserzionisti si lamentino), spesso utilizzando sistemi di rilevamento algoritmico pesanti.
Scelte progettuali
Questi sistemi automatizzati non hanno decisamente migliorato la qualità della sfera pubblica. Sì, gli accademici discutono ancora sul ruolo preciso della tecnologia nell’aumento della sfiducia generalizzata che pervade le società in Europa e negli Stati Uniti: dopotutto, anche i giornali di Rupert Murdoch o Axel Springer hanno alimentato paura e rabbia per vendere pubblicità decenni prima di YouTube e TikTok è stato etichettato come ” grandi radicalizzatori “. È possibile che queste piattaforme ospitino semplicemente persone già radicalizzate; che fanno poco più che rappresentare uno specchio per la società.
Tuttavia, una nuova ricerca pubblicata questo mese sottolinea che la tecnologia gioca un ruolo. Un esperimento controllato ha dimostrato che gli utenti di Facebook e Twitter che vedevano contenuti tossici avevano maggiori probabilità di pubblicare loro stessi contenuti tossici. In altre parole, la tossicità è contagiosa. Attenuare i contenuti estremisti su una piattaforma potrebbe consentire conversazioni più significative.
Un altro esperimento condotto in condizioni di laboratorio ha mostrato che le persone erano molto inclini a scoprire e moderare informazioni false e potenzialmente infiammanti. Secondo alcune misure, questo approccio collaborativo funziona meglio dei filtri algoritmici centralizzati. Mantenere il discorso civile potrebbe essere fatto meglio dando il libero arbitrio agli utenti, piuttosto che implementando algoritmi che censurano i contenuti che mettono a disagio gli inserzionisti.