Fonte: Algorithm Watch
Il social network open source ha guadagnato milioni di nuovi utenti in seguito all’acquisizione di Twitter. Mentre alcune delle sue caratteristiche potrebbero migliorare la qualità del discorso pubblico, le comunità svantaggiate potrebbero essere escluse.
Le società di social media hanno un difficile equilibrio. Da un lato, devono mantenere gli utenti attivi sulla loro app o sul loro sito web il più a lungo possibile per mostrare loro annunci pubblicitari. I contenuti divisivi, emotivi o che incitano all’odio funzionano meglio in tal senso. D’altra parte, devono mantenere un certo livello di sicurezza online, almeno per placare i propri inserzionisti. I social network quindi incoraggiano comportamenti aggressivi degli utenti sopprimendo contemporaneamente i contenuti più eclatanti (per timore che gli inserzionisti si lamentino), spesso utilizzando sistemi di rilevamento algoritmico pesanti.
Scelte progettuali
Questi sistemi automatizzati non hanno decisamente migliorato la qualità della sfera pubblica. Sì, gli accademici discutono ancora sul ruolo preciso della tecnologia nell’aumento della sfiducia generalizzata che pervade le società in Europa e negli Stati Uniti: dopotutto, anche i giornali di Rupert Murdoch o Axel Springer hanno alimentato paura e rabbia per vendere pubblicità decenni prima di YouTube e TikTok è stato etichettato come ” grandi radicalizzatori “. È possibile che queste piattaforme ospitino semplicemente persone già radicalizzate; che fanno poco più che rappresentare uno specchio per la società.
Tuttavia, una nuova ricerca pubblicata questo mese sottolinea che la tecnologia gioca un ruolo. Un esperimento controllato ha dimostrato che gli utenti di Facebook e Twitter che vedevano contenuti tossici avevano maggiori probabilità di pubblicare loro stessi contenuti tossici. In altre parole, la tossicità è contagiosa. Attenuare i contenuti estremisti su una piattaforma potrebbe consentire conversazioni più significative.
Un altro esperimento condotto in condizioni di laboratorio ha mostrato che le persone erano molto inclini a scoprire e moderare informazioni false e potenzialmente infiammanti. Secondo alcune misure, questo approccio collaborativo funziona meglio dei filtri algoritmici centralizzati. Mantenere il discorso civile potrebbe essere fatto meglio dando il libero arbitrio agli utenti, piuttosto che implementando algoritmi che censurano i contenuti che mettono a disagio gli inserzionisti.
I due esperimenti sono solo una frazione della ricerca condotta nell’area della radicalizzazione e della disinformazione. Ma mostrano che le scelte progettuali hanno probabilmente un’influenza sulla qualità del discorso prodotto su una data piattaforma.
Mastodonte
Mentre Twitter continua il suo corso irregolare nelle mani del suo nuovo proprietario, milioni di utenti sono passati ad altri servizi. Uno di questi è Mastodon, un software decentralizzato open source che fa parte del “fediverso” (un portmanteau per “universo federato”). Il servizio ha guadagnato due milioni di utenti a novembre.
A differenza dei servizi di social media a scopo di lucro, Mastodon non ha una sequenza temporale curata algoritmicamente che cerca di massimizzare le emozioni. Non ha filtri automatici che rimuovono i contenuti considerati troppo violenti o troppo immodesti per gli inserzionisti. I server Mastodon, i gateway attraverso i quali gli utenti accedono al servizio, non hanno nemmeno inserzionisti. La maggior parte fa affidamento su piccole donazioni. La moderazione non è centralizzata. Ogni server può avere le proprie regole. Alcuni potrebbero consentire la discussione sul lavoro sessuale, ad esempio, mentre altri no. Gli utenti regolari possono essere cooptati per lavorare come moderatori.
Queste funzionalità potrebbero, in teoria, consentire alle persone di condividere argomenti costruttivi online. Ma anche Mastodon non è un’utopia. Manuel Biertz è un dottore di ricerca in scienze politiche che lavora con la teoria dell’argomentazione. Era uno dei pochi accademici che usavano regolarmente Mastodon prima dell’attuale ondata migratoria. Ha detto ad AlgorithmWatch che “Mastodon non favorirà tanto la conversazione basata su argomenti quanto attenuerà la polarizzazione”. Gli utenti di Mastodon non sono esposti a contenuti emotivi tanto quanto su altri servizi, ma la mancanza di selezione algoritmica è tale che le tempistiche si stanno affrettando ora più di prima. “Favorire la deliberazione richiederebbe piattaforme che incoraggino l’interazione a lungo termine e in profondità con argomenti e meno ‘abbondanza comunicativa’“, ha aggiunto.
Elitario
Jon Bell, ex designer di Twitter, ha affermato che solo il 3% dei suoi utenti ha scelto di godere di timeline non algoritmiche. Sebbene il numero non possa essere verificato in modo indipendente, Bell ha affermato che gli utenti si sentono persi senza una selezione automatica dei contenuti. Questa affermazione potrebbe essere contestata (Instagram ha avuto successo con la sua timeline non algoritmica) ma, alla fine, è irrilevante per la questione di come la tecnologia modella la sfera pubblica.
L’importanza di Twitter non deriva solo dai suoi milioni di utenti. Come ha affermato Biertz, è stato, nella maggior parte dei paesi europei, “un mezzo molto elitario utilizzato principalmente da politici, giornalisti e accademici”. Ironico, ha aggiunto che Mastodon non ha bisogno di milioni di utenti per essere rilevante, “ha solo bisogno di Joe Biden”.
Mentre la Casa Bianca non è (ancora) attiva su Mastodon, alcuni governi lo sono. Le istituzioni federali tedesche sono disponibili su social.bund.de e le istituzioni europee su social.network.europa.eu . Anche diversi partiti politici, come i Verdi tedeschi e i socialdemocratici, oi Pirati cechi, hanno la loro istanza di Mastodonte.
Almeno tra decisori e accademici, Mastodon potrebbe diventare un’alternativa a Twitter. Per loro, le interazioni più tranquille del fediverso potrebbero tradursi in una sfera pubblica meno infiammata.
Partecipazione ineguale
Ma le caratteristiche che rendono Mastodon più calmo per alcuni esacerbano anche le disuguaglianze. Poiché ogni server è autonomo, ognuno è vulnerabile. I server delle comunità discriminate potrebbero subire attacchi senza che gli altri utenti di Mastodon se ne accorgano. Questo sta già accadendo. Alcuni utenti neri hanno segnalato livelli di abusi razzisti mai visti su piattaforme commerciali. Sebbene alcuni siano passati a server dedicati, questi utenti sostengono il costo aggiuntivo della sola difesa dagli attacchi.
Johnathan Flowers, filosofo della tecnologia presso la California State University Northridge, ha sostenuto che Mastodon ha ereditato “strutture di bianchezza” dalle persone che lo hanno creato. Ciò rende il servizio particolarmente inadatto per i gruppi che sono stati ridotti in minoranza, ha affermato.
Oltre alla moderazione, il costo di esecuzione di un’istanza lascia la maggior parte degli utenti di Internet esclusi dal fediverso. I social media costano pochi euro all’anno e per utente per funzionare. L’importo potrebbe essere relativamente favorevole per gli europei della classe media, ma rappresenta una somma non trascurabile per gli altri. Ci sono solo una manciata di server Mastodon al di fuori dell’Europa, degli Stati Uniti e del Giappone. E sebbene la moderazione dei contenuti in lingue come swahili, oromo o telugu possa essere scarsa sui social network a scopo di lucro, è praticamente assente da Mastodon.
Nonostante tutti i suoi difetti, Twitter era la cosa più vicina a una sfera pubblica globale, ha affermato lo scrittore keniota Nanjala Nyabola . Diversi movimenti globali, da #BlackLivesMatter a #BringBackOurGirls, hanno avviato il servizio.
Resta da vedere se Mastodon può svolgere lo stesso ruolo.
Modificato il 30 novembre 10:30 per riflettere meglio i risultati di Stalinski et al.