Come definire i rischi sistemici delle piattaforme per la democrazia

Dare un senso alla legge sui servizi digitali

Non è chiaro come le piattaforme e i motori di ricerca più grandi dovrebbero identificare i “rischi sistemici” per conformarsi al DSA. AlgorithmWatch delinea una metodologia che servirà da punto di riferimento per il modo in cui noi, in quanto osservatori della società civile, giudicheremo le valutazioni del rischio che stiamo conducendo proprio in questo momento.

Autore Michele Loi 

Fonte Algorithm Watch

È difficile negare che i servizi Internet dominanti forniscano beni di consumo essenziali per gran parte del mondo. Dover passare una settimana, tanto meno un giorno, senza ricerche Google efficienti, o perdere la capacità di interagire con gli altri tramite una piattaforma di social media come Instagram, sconvolgerebbe sicuramente la vita personale e professionale di molte persone. Nonostante i loro vantaggi, tuttavia, questi e altri potenti servizi Internet stanno radicalmente trasformando la nostra società capitalista, potenzialmente , nella sua versione peggiore. In tal modo, l’economia delle piattaforme genera una miriade di rischi che possono avere un impatto negativo sugli individui e sulla democrazia stessa.

Valutazione dei rischi

I legislatori dell’Unione Europea sono convinti che le piattaforme possano comportare tali rischi e hanno quindi promulgato il Digital Services Act (DSA), una legge che impone alle cosiddette piattaforme online molto grandi (VLOP) e ai motori di ricerca online molto grandi (VLOSE) di “identificare, analizzare e valutare diligentemente qualsiasi rischio sistemico nell’Unione derivante dalla progettazione o dal funzionamento del loro servizio e dei relativi sistemi, inclusi i sistemi algoritmici, o dall’uso che viene fatto dei loro servizi”. Tali rischi includono, ma non sono limitati a, la diffusione di contenuti illegali attraverso i servizi di piattaforme e motori di ricerca; eventuali effetti negativi attuali o prevedibili per l’esercizio dei diritti fondamentali; sul discorso civico e sui processi elettorali e sulla pubblica sicurezza; in materia di violenza di genere, tutela della salute pubblica e minori; e gravi conseguenze negative per il benessere fisico e psichico della persona. Quando tali rischi vengono identificati,

Manca la guida

Mentre la legge fornisce un lungo elenco di possibili misure per mitigare i rischi – ad esempio “adattare il design, le caratteristiche o il funzionamento dei loro servizi, comprese le loro interfacce online” – è notevolmente  silenzioso su come VLOP e VLOSE dovrebbero condurre una valutazione del rischio e cosa i legislatori aspettarsi da loro. La legge precisa che VLOP e VLOSE devono tenere conto dei modi in cui determinati fattori possono influenzare i rischi sistemici, compresa la progettazione di sistemi di raccomandazione e qualsiasi altro sistema algoritmico pertinente, sistemi di moderazione dei contenuti, termini e condizioni applicabili e la loro applicazione, sistemi per selezionare e presentare annunci pubblicitari e pratiche relative ai dati del fornitore.

Non vi è, tuttavia, alcuna menzione di una procedura che delinei come identificare un rischio sistemico nella pratica. Inoltre, la Commissione europea non ha pubblicato alcuna guida per queste società. Ciò significa che in questo momento non è molto chiaro come VLOP e VLOSE debbano valutare i rischi per conformarsi ai requisiti del DSA . I VLOP e i VLOSE sono tenuti a consegnare le loro prime valutazioni del rischio alla Commissione europea fino all’agosto del 2023 – va detto, tuttavia, che è improbabile che rendano queste valutazioni disponibili al pubblico. Inoltre, non è chiaro cosa rilascerà la Commissione sui loro contenuti e quando.

Tracciare un percorso in avanti

Questo è il contesto del nostro articolo. Non cercheremo di fornire una valutazione olistica dei vantaggi e dei mali della società digitale modellata dai servizi Internet attualmente dominanti. Il nostro obiettivo è piuttosto più ristretto e più specifico. Lo scopo del lavoro è determinare se alcuni elementi di rischio che un servizio Internet genera per la libertà di parola e il pluralismo dei media sono identificabili. La nostra speranza è che con questo contributo, forniamo un punto di partenza tangibile per la discussione su ciò che le diverse parti interessate possono e devono aspettarsi da una valutazione del rischio, e come potrebbe essere fatto in pratica.

Michele Loi, Ph.D., è Marie Sklowdoska-Curie Individual Fellow presso il Dipartimento di Matematica del Politecnico di Milano con un progetto di ricerca su Fair Predictions in Health. È anche co-principal investigator del progetto interdisciplinare Socially Acceptable and Fair Algorithms, finanziato dal Fondo Nazionale Svizzero per la Ricerca Scientifica, ed è stato Principal Investigator del progetto “Algorithmic Fairness: Sviluppo di una metodologia per il controllo e la minimizzazione del bias algoritmico nei dati basati processo decisionale”, finanziato dall’Agenzia svizzera per l’innovazione.

Piattaforme che opprimono la ricerca di interesse pubblico: la Commissione europea risponde alla domanda dell’eurodeputato Breyer su AlgorithmWatch

Fonte AlgoritmWatch

 

 

 

Dopo che Facebook ha costretto AlgorithmWatch a chiudere il nostro progetto di monitoraggio di Instagram, l’eurodeputato Patrick Breyer ha presentato una domanda scritta alla Commissione europea chiedendo come proteggere la ricerca di interesse pubblico dall’essere oppressa dalle grandi piattaforme tecnologiche. Ora la Commissione ha risposto.

Nell’ottobre 2021, dopo che Facebook ha costretto AlgorithmWatch a chiudere il nostro progetto di donazione di dati sull’algoritmo di Instagram, l’eurodeputato Patrick Breyer ha presentato una domanda scritta alla Commissione europea sulle piattaforme che opprimono la ricerca di interesse pubblico, l’accesso ai dati e l’articolo 31 della proposta di legge sui servizi digitali ( DSA).

Tra le questioni sollevate dall’onorevole Breyer c’era la domanda sulle soluzioni proposte dalla Commissione per le organizzazioni della società civile ei giornalisti che desiderano accedere ai dati della piattaforma. L’articolo 31, paragrafo 4, del progetto di DSA prevede tale accesso solo per i “ricercatori controllati” con affiliazioni accademiche, quindi il signor Breyer ha chiesto specificamente se questo articolo debba essere modificato per estendere l’accesso ai dati per i ricercatori controllati al di fuori del mondo accademico.

Ora, il commissario UE Thierry Breton ha scritto una risposta a nome della Commissione . Quando si tratta di disinformazione, affermano che le piattaforme dovrebbero garantire un “livello sufficiente di accesso ai dati” alle parti interessate come le organizzazioni della società civile e i giornalisti investigativi. Ma quando si parla di art. 31(4), la Commissione ribadisce il linguaggio del progetto di DSA affermando che i “ricercatori controllati” che cercano di accedere ai dati della piattaforma devono avere affiliazioni accademiche.

AlgorithmWatch crede fermamente che tale definizione di “ricercatori controllati” sia troppo limitata e che la modifica dell’articolo 31 sia fondamentale per garantire una maggiore trasparenza e responsabilità per le grandi piattaforme tecnologiche. Questa convinzione è stata ripresa da dozzine di organizzazioni e ricercatori della società civile, nonché da oltre 6.000 persone che hanno firmato le nostre lettere aperte ai legislatori europei chiedendo che il DSA autorizzi la ricerca controllata di interesse pubblico a regnare sui rischi della piattaforma per la sfera pubblica.

Abbiamo già compiuto importanti passi avanti su questo fronte, poiché le nostre richieste si sono riflesse nel testo finale del DSA approvato dalla commissione per il mercato interno e la protezione dei consumatori (IMCO) del Parlamento europeo. A metà gennaio, la plenaria del Parlamento voterà su questo testo, auspicabilmente confermando la sua posizione sull’accesso ai dati. In linea con i progressi compiuti dall’IMCO, esortiamo vivamente la Commissione europea ad accogliere le nostre richieste nei negoziati a tre che ci attendono e ad ampliare la definizione di “ricercatori controllati” nel DSA per includere la società civile.

Per valutare in che modo le piattaforme influenzano la nostra sfera pubblica, dobbiamo proteggere e potenziare la ricerca di interesse pubblico. Solo allora possiamo avere un dibattito basato sull’evidenza sulla questione e solo allora possiamo tenere conto delle piattaforme.