Missione: social media responsabili
Testo originariamente apparso su "La Stampa" del 13 gennaio 2021 (pp. 22-23 dell'edizione cartacea e questa pagina del sito del quotidiano).
Inevitabilmente - e giustamente - si discute della rimozione dai social media di quello che per qualche giorno è ancora il Presidente degli Stati Uniti, ovvero, l'uomo più potente del mondo. Ma la discussione, pur doverosa, non deve farci perdere di vista il problema complessivo. In altre parole, al di là del singolo albero della rimozione di Trump, come è fatta la foresta?
La foresta, ovvero, la situazione attuale dei social media, è costituita da poche, enormi imprese private che, offrendo piattaforme semplici da usare e di elevate prestazioni, hanno creato i più grandi spazi di comunicazione della storia dell'umanità.
In proposito, il primo punto fondamentale da capire è che la natura privata delle piattaforme non esclude affatto la possibilità di regolarne i comportamenti. Così come, per esempio, un ristorante non può rifiutare di servire una persona a seconda del genere o del colore della pelle (e di esempi analoghi ne potremmo elencare molti altri), analogamente le piattaforme possono essere soggette a norme specifiche, come la “Legge per migliorare l'applicazione della legge sui social network” tedesca del 2017 o le recentissime proposte europee, "Digital Services Act" e "Digital Market Act".
Il secondo punto da tenere ben presente è che, contrariamente a quello che si sente dire spesso in queste ore, negli spazi online delle piattaforme non passa qualsiasi cosa. Da anni, infatti, le imprese di 'social media' hanno creato al loro interno complesse macchine di moderazione dei contenuti, che usano sia algoritmi, sia moltissimi lavoratori umani con l'obiettivo di offrire agli utenti ciò che si suppone essi vogliano trovare, in modo che passino il più tempo possibile sulle piattaforme stesse. Quindi tendenzialmente no, per esempio, alla pornografia e anche, in alcuni casi, a immagini di donne che allattano o persino a celeberrime opere d'arte che ritraggono il corpo umano in modo esplicito. Col tempo le proibizioni si sono estese - a volte per iniziativa delle piattaforme, a volte per pressione esterna - e quindi no, per esempio, anche a contenuti legati al terrorismo e alle persecuzioni etniche. Infine di recente l'attenzione si è concentrata sulle assai controverse categorie delle "notizie false" e dell'"odio online".
Infine, il terzo punto è che a questa moderazione dei contenuti effettuata da attori privati si affianca - e non potrebbe essere altrimenti - la legge dello Stato, che proibisce la diffamazione, l'incitazione alla violenza, il procurato allarme e altri reati. Ci si può legittimamente interrogare su come rendere più incisivo e veloce il braccio della Giustizia, ma la legge online c'è e si sente, come dimostrano le ormai molte sentenze per reati commessi online.
Chiariti questi punti chiave, i principali pronblemi che vedo sono tre.
Il primo problema è la mancanza di trasparenza. Ogni mese le piattaforme bloccano, escludono, cancellano, rendono poco visibili milioni di utenti, pagine, gruppi, ecc., ma nessuno - a parte loro - ha un quadro completo di queste iniziative: chi è stato bloccato o oscurato? Per quali motivi? Per quanto tempo? Con quali effetti? Più in generale, quali sono di preciso le loro regole di moderazione? Non si sa.
Il secondo problema è la mancanza di "accountability". A chi rispondono le piattaforme per loro scelte, grandi e piccole? E' accettabile che le piattaforme, oltre ad applicare regole spesso opache e variabili, tendenzialmente ancora non garantiscano a tutti gli utenti modalità rapide, eque e trasparenti per appellare le loro decisioni, indipendentemente dal fatto che riguardino Donald Trump o il Sig. Mario Rossi?
Infine, il terzo problema, inesorabilmente legato ai primi due: l'estrema concentrazione di potere (economico, civile, politico) delle piattaforme. Un pugno di uomini residenti negli Stati Uniti prende decisioni - non di rado opportunistiche - che riguardano la sfera comunicativa di miliardi di persone. Giuste o sbagliate che siano le loro decisioni, ci va bene così? La concentrazione tra l'altro implica l'assenza di alternative: se non piacciono i "termini di servizio" di Facebook o Twitter, infatti, l'unica alternativa è "scegliere" di rimanere esclusi dai luoghi dove buona parte dell'umanità si informa e si confronta.
Che cosa fare? A mio avviso occorre procedere simultaneamente in due direzioni.
La prima è ridurre radicalmente la concentrazione di potere del mondo digitale, come si sta discutendo - anche se ancora abbastanza timidamente - sia in Europa, sia negli USA, contemplando anche opzioni pubbliche, come fece l'Europa dopo il nazismo e il fascismo con l'istituzione di robuste televisioni pubbliche. Concentrazione di potere che, lo diciamo di passaggio, ha impatto non solo sul mondo della comunicazione, ma anche su quali applicazioni possiamo installare (Apple e Google), a chi fornire servizi cloud (Amazon e pochi altri) e se elaborare o meno pagamenti verso determinate persone o entità (Visa e Mastercard).
La seconda direzione è pretendere fin da subito, se necessario per legge, che le piattaforme rispettino alcuni sacrosanti principi di trasparenza e 'accountability', come per esempio i Principi di Santa Clara del 2019. In attesa della riduzione della concentrazione, intanto almeno si ridurrebbe il livello di opacità e di arbitrarietà di spazi che ormai – piaccia o non piaccia – sono un'infrastruttura essenziale delle nostre democrazie.
Testo originariamente apparso su "La Stampa" del 13 gennaio 2021 (pp. 22-23 dell'edizione cartacea e questa pagina del sito del quotidiano).
Inevitabilmente - e giustamente - si discute della rimozione dai social media di quello che per qualche giorno è ancora il Presidente degli Stati Uniti, ovvero, l'uomo più potente del mondo. Ma la discussione, pur doverosa, non deve farci perdere di vista il problema complessivo. In altre parole, al di là del singolo albero della rimozione di Trump, come è fatta la foresta?
La foresta, ovvero, la situazione attuale dei social media, è costituita da poche, enormi imprese private che, offrendo piattaforme semplici da usare e di elevate prestazioni, hanno creato i più grandi spazi di comunicazione della storia dell'umanità.
In proposito, il primo punto fondamentale da capire è che la natura privata delle piattaforme non esclude affatto la possibilità di regolarne i comportamenti. Così come, per esempio, un ristorante non può rifiutare di servire una persona a seconda del genere o del colore della pelle (e di esempi analoghi ne potremmo elencare molti altri), analogamente le piattaforme possono essere soggette a norme specifiche, come la “Legge per migliorare l'applicazione della legge sui social network” tedesca del 2017 o le recentissime proposte europee, "Digital Services Act" e "Digital Market Act".
Il secondo punto da tenere ben presente è che, contrariamente a quello che si sente dire spesso in queste ore, negli spazi online delle piattaforme non passa qualsiasi cosa. Da anni, infatti, le imprese di 'social media' hanno creato al loro interno complesse macchine di moderazione dei contenuti, che usano sia algoritmi, sia moltissimi lavoratori umani con l'obiettivo di offrire agli utenti ciò che si suppone essi vogliano trovare, in modo che passino il più tempo possibile sulle piattaforme stesse. Quindi tendenzialmente no, per esempio, alla pornografia e anche, in alcuni casi, a immagini di donne che allattano o persino a celeberrime opere d'arte che ritraggono il corpo umano in modo esplicito. Col tempo le proibizioni si sono estese - a volte per iniziativa delle piattaforme, a volte per pressione esterna - e quindi no, per esempio, anche a contenuti legati al terrorismo e alle persecuzioni etniche. Infine di recente l'attenzione si è concentrata sulle assai controverse categorie delle "notizie false" e dell'"odio online".
Infine, il terzo punto è che a questa moderazione dei contenuti effettuata da attori privati si affianca - e non potrebbe essere altrimenti - la legge dello Stato, che proibisce la diffamazione, l'incitazione alla violenza, il procurato allarme e altri reati. Ci si può legittimamente interrogare su come rendere più incisivo e veloce il braccio della Giustizia, ma la legge online c'è e si sente, come dimostrano le ormai molte sentenze per reati commessi online.
Chiariti questi punti chiave, i principali pronblemi che vedo sono tre.
Il primo problema è la mancanza di trasparenza. Ogni mese le piattaforme bloccano, escludono, cancellano, rendono poco visibili milioni di utenti, pagine, gruppi, ecc., ma nessuno - a parte loro - ha un quadro completo di queste iniziative: chi è stato bloccato o oscurato? Per quali motivi? Per quanto tempo? Con quali effetti? Più in generale, quali sono di preciso le loro regole di moderazione? Non si sa.
Il secondo problema è la mancanza di "accountability". A chi rispondono le piattaforme per loro scelte, grandi e piccole? E' accettabile che le piattaforme, oltre ad applicare regole spesso opache e variabili, tendenzialmente ancora non garantiscano a tutti gli utenti modalità rapide, eque e trasparenti per appellare le loro decisioni, indipendentemente dal fatto che riguardino Donald Trump o il Sig. Mario Rossi?
Infine, il terzo problema, inesorabilmente legato ai primi due: l'estrema concentrazione di potere (economico, civile, politico) delle piattaforme. Un pugno di uomini residenti negli Stati Uniti prende decisioni - non di rado opportunistiche - che riguardano la sfera comunicativa di miliardi di persone. Giuste o sbagliate che siano le loro decisioni, ci va bene così? La concentrazione tra l'altro implica l'assenza di alternative: se non piacciono i "termini di servizio" di Facebook o Twitter, infatti, l'unica alternativa è "scegliere" di rimanere esclusi dai luoghi dove buona parte dell'umanità si informa e si confronta.
Che cosa fare? A mio avviso occorre procedere simultaneamente in due direzioni.
La prima è ridurre radicalmente la concentrazione di potere del mondo digitale, come si sta discutendo - anche se ancora abbastanza timidamente - sia in Europa, sia negli USA, contemplando anche opzioni pubbliche, come fece l'Europa dopo il nazismo e il fascismo con l'istituzione di robuste televisioni pubbliche. Concentrazione di potere che, lo diciamo di passaggio, ha impatto non solo sul mondo della comunicazione, ma anche su quali applicazioni possiamo installare (Apple e Google), a chi fornire servizi cloud (Amazon e pochi altri) e se elaborare o meno pagamenti verso determinate persone o entità (Visa e Mastercard).
La seconda direzione è pretendere fin da subito, se necessario per legge, che le piattaforme rispettino alcuni sacrosanti principi di trasparenza e 'accountability', come per esempio i Principi di Santa Clara del 2019. In attesa della riduzione della concentrazione, intanto almeno si ridurrebbe il livello di opacità e di arbitrarietà di spazi che ormai – piaccia o non piaccia – sono un'infrastruttura essenziale delle nostre democrazie.
Testo originariamente apparso su "La Stampa" del 13 gennaio 2021 (pp. 22-23 dell'edizione cartacea e questa pagina del sito del quotidiano).