venerdì 31 gennaio 2025

Giardini Recintati e/o Orti Comunitari…

La Grande Diaspora dei Social Media
-Cosa succede quando le comunità online in forte espansione si trasformano in comunità politicamente omogenee e autonome?-
di Renée DiResta - January 7, 2025

Negli ultimi due decenni, la più parte di quello che è il discorso online si è svolto su una manciata di piattaforme di social media. Il suo dominio sembrava incrollabile. La domanda non era quando sarebbe arrivato un concorrente di Twitter o Facebook, ma se ci sarebbe stato qualcuno in grado di riuscire a farlo con successo. Una nuova app killer, o forse il manganello dell'antitrust, riuscirebbe a fare la differenza? Oggi, queste medesime piattaforme continuano ancora a godere delle più ampie basi di utenti; grandi successi come TikTok costituiscono la rara eccezione, e non la regola. Tuttavia, è diventato sempre più comune l'esodo degli utenti verso piattaforme più piccole, soprattutto da X, quella che era un tempo l'indiscussa sede del Discorso. I profughi di X si sono dispersi e si sono ricollocati più volte: su Gab e su Truth Social, su Mastodon e su Bluesky. Pertanto, ciò che ha finito per frammentare i social media, non è stata un'app killer o la Federal Trade Commission, quanto piuttosto la moderazione dei contenuti. Gli utenti più radicali si sono scontrati con gli "arbitri" incaricati di stabilire e far rispettare delle regole, come il divieto di incitamento all'odio, o sul prendere decisioni a proposito di come si devono gestire dei contenuti come quelli relativi al Covid-19. Alcuni principi, come quello secondo cui «la libertà di parola non è la stessa cosa della libertà di movimento» - che proponeva che i contenuti "borderline" (post che cadevano in aree grigie riguardo l'incitamento all'odio, per esempio) rimanessero visibili ma non amplificati – hanno tentato di articolare una via di mezzo. Tuttavia, anche i tentativi più sfumati sono stati interpretati come se fossero una repressione irrazionale, da parte di ideologi che si riconoscevano nel potere di dominare il discorso online. Gli sforzi per moderare sono diventati dei punti critici, alimentando così un circolo di feedback nel quale le norme online alimentavano la polarizzazione offline e viceversa. In tal modo, in ondate successive, gli utenti sono partiti verso nuove alternative: piattaforme dove gli arbitri erano lassisti (Truth Social), quasi inesistenti (Telegram), o autoproclamati (Mastodon). Gran parte di questa frammentazione si è verificata secondo delle linee politiche. Oggi, la Grande Decentralizzazione sta accelerando, e vede le principali testate giornalistiche, Luke Skywalker e altri, nel ruolo degli ultimi profughi di alto profilo che guidano nuovi esodi. Ai vecchi tempi, erano le nuove funzionalità - come l'etichettatura delle foto di Facebook o i tweet con citazioni provenienti da Twitter - che attiravano gli utenti sui siti di social media. Ora, più spesso è l'allineamento ideologico quello che seduce gli utenti. Le persone si stanno affollando su quelle piattaforme che ritengano che corrispondano alle loro norme e ai loro valori; e in un'America sempre più polarizzata, c'è un abisso tra le due fazioni. Tuttavia, in questa migrazione c'è assai più di quel che può sembrare. Sotto la superficie, si muove un profondo cambiamento nella tecnologia che si trova alla base della socializzazione online. Nell'ultima ondata di esodi, soprattutto verso Bluesky, vediamo che gli utenti sono alla ricerca di un'alternativa ideologica a X, che diventa sempre più di destra. Può darsi che se ne stiano andando a causa della "atmosfera", però stanno anche entrando in un mondo il quale è fondamentalmente diverso, e in modi che molti stanno solo iniziando a capire. La natura federata di alternative emergenti quali Mastodon e Bluesky – piattaforme strutturate come una rete di server gestiti in modo indipendente con i propri utenti e regole, collegati da un protocollo tecnologico comune – offre un potenziale futuro, dove le comunità creano le proprie istanze (o server) con le proprie regole. Questo allontanamento dalla fiducia centralizzata, e dai team di sicurezza che applicano regole universali, può sembrare una soluzione ai problemi dei social media. Meno scontri violenti tra combattenti culturali. Meno accuse istrioniche di “censura”. I giocatori diventano gli arbitri. Non è l'ideale? Tuttavia, i nuovi modelli di governance recano in sé nuove complessità, ed è fondamentale affrontare ciò che verrà. Cosa succede quando le comunità online di decine di milioni di persone si frammentano in comunità autonome più piccole e politicamente omogenee? E cosa significa questo per la coesione sociale e il consenso, sia online che offline?

Prima della Grande Decentralizzazione
Come siamo arrivati fin qui? Il sistema centralizzato della moderazione dei contenuti, che ora ha iniziato a frammentarsi, era stato plasmato da un mix di valori politici americani, norme sociali e realtà economiche, come ha sostenuto la ricercatrice e professoressa Kate Klonick sulla Harvard Law Review nel 2018. Il saggio della Klonick, "The New Governors", descrive in dettaglio il modo in cui le politiche di governance delle piattaforme sociali siano state in gran parte elaborate da alcuni avvocati americani con un pedigree da Primo Emendamento. Queste piattaforme erano di proprietà e venivano gestite privatamente, certo, ma la loro governance obbediva comunque allo spirito della legge americana. Tuttavia, la maggior parte delle piattaforme riteneva anche di avere il dovere di moderare i contenuti «osceni, violenti o odiosi». Ciò era dovuto, in parte, al desiderio di essere visti come dei buoni cittadini aziendali, essendo però la cosa anche puramente pragmatica: «La redditività economica, dipende dal rispettare il discorso degli utenti e le norme della comunità», ha scritto Klonick. Nel momento in cui le piattaforme hanno creato degli ambienti che soddisfacevano alle aspettative degli utenti, ecco che essi hanno allora trascorso più tempo sul sito, e così le entrate sono potute aumentare. Misure economiche, pure e semplici. Sebbene le piattaforme abbiano cercato di bilanciare la responsabilità aziendale, la sicurezza degli utenti e la redditività economica, le Regole sono tuttavia diventate sempre più punti di malcontento. Le decisioni di moderazione dei contenuti non sono state percepite come se si trattasse di una governance neutrale, ma come se fossero giudizi carichi di valori, dichiarazioni implicite a proposito di quali voci erano le benvenute, e quali no. Nel 2016 la rimozione da parte di Facebook dell'iconica foto "Napalm Girl" – a causa dell'applicazione automatizzata delle regole contro la nudità – ha scatenato una reazione globale, costringendo così la piattaforma a revocare la sua decisione, e a riconoscere le complessità della moderazione su larga scala. Nello stesso periodo, Twitter è stato criticato per non aver risposto adeguatamente all' aumento dei propagandisti dello Stato Islamico e alle campagne di molestie come il “Gamergate” (un movimento online del 2014 che in apparenza si occupava di etica nel giornalismo videoludico, ma che in realtà veniva ampiamente percepito come una campagna di trollaggio contro le donne nel settore). Questi incidenti hanno evidenziato la tensione esistente tra l'applicazione degli standard comunitari e la protezione della libertà di parola. Per molti utenti, soprattutto quelli il cui discorso rasentava il controverso o l'offensivo, gli arbitri delle piattaforme del Big Tech esercitavano un potere sproporzionato, e la cosa alimentava un senso di alienazione e sfiducia. Piuttosto che limitarsi a limitare ciò che poteva essere detto online, le regole sembravano suggerire quali erano i punti di vista del potere nella piazza pubblica digitale. Via via che queste forze convergevano e si consolidavano in uno status quo di governance, coloro che si irritavano con loro si trovavano di fronte a un'eterna scelta: o andarsene o manifestare. Avrebbero dovuto abbandonare un prodotto, o una comunità, alla ricerca di opzioni migliori, oppure dovrebbero rimanere e parlare, incanalando la propria frustrazione in una richiesta di cambiamento? L'economista tedesco Albert Hirschman sosteneva che la decisione, se andarsene o restare e manifestare apertamente verso i consumatori insoddisfatti, era mediata da un terzo fattore: la lealtà. La fedeltà, che essa sia radicata nel patriottismo, o nell'affinità con il marchio, può legare le persone a un'istituzione o a un prodotto, rendendole perciò più propense a chiedere il cambiamento, piuttosto che ad andarsene. Per anni, la fedeltà alle principali piattaforme ha avuto meno a che fare con l'affetto, e più a che fare con le realtà strutturali; Il dominio monopolistico e i potenti effetti della rete hanno lasciato agli utenti dei social media ben poche alternative realistiche. Non esistevano molte app che avevano le funzionalità, la massa critica, o la portata, per soddisfare le esigenze degli utenti in termini di intrattenimento, connessione o influenza. Per diffondere i loro messaggi, anche i politici e gli ideologi hanno fatto affidamento sulle potenzialità delle piattaforme. Così, la gente è rimasta, anche quando la sua insoddisfazione era latente. In tal modo, la risposta è stata quella di manifestare. Politici e gruppi di difesa hanno fatto pressione sulle aziende affinché cambiassero le politiche per soddisfare le esigenze della loro parte; un processo noto, come "working the refs" (lavorare sugli arbitri), tra coloro che studiano la moderazione dei contenuti. Nel 2016, ad esempio, il “Trending Topicsgate” ha visto influencer di destra e media di partito criticare Facebook per il presunto declassamento dei temi conservatori nella loro funzione di trending topics. Il ciclo di indignazione ha funzionato: Facebook ha licenziato i suoi redattori umani di notizie e ha rivisto a fondo il sistema (il suo sostituto, un algoritmo, si è rapidamente impegnato a diffondere titoli oltraggiosi e falsi, provenienti anche da fabbriche macedoni di troll, finché l'azienda non ha infine deciso di eliminare la funzione). Nel corso degli anni, anche le organizzazioni di sinistra hanno lavorato ripetutamente, esercitando pressioni per massimizzare i propri interessi. Le folle politicamente impegnate online, hanno iniziato a percepire anche le decisioni una tantum come se fossero una prova di pregiudizi di ranking. Le chiamate alla moderazione dei contenuti che coinvolgevano controversie interpersonali apparentemente irrilevanti, sono state amplificate e trasformate in controversie pubbliche; la prova che le piattaforme si sono piegate alla politica dell'identità o che hanno perpetuato una sorta di suprematismo. In questo c'era un po' di verità: i moderatori commettevano errori, perdevano il contesto e prendevano decisioni sbagliate lavorando con milioni di decisioni al trimestre. Tuttavia, quando il disaccordo è diventato uno sport fazioso, le piattaforme si sono trovate ad arbitrare una guerra culturale sempre più intensa. Gli sforzi per far rispettare l'ordine, per evitare che le persone reali siano sottoposte a controlli sulla loro vita personale, a stalking o a semplici molestie, venivano regolarmente trasformati in foraggio per ulteriori aggressioni tribali. Soprattutto da parte della destra, le dispute sulla moderazione sono state riformulate come battaglie esistenziali sull'identità politica e sulla libertà di espressione in quanto tale. Nonostante la scarsità di prove circa un vero e proprio pregiudizio sistemico, gli influencer di destra si sono eccitati e mobilitati intorno all'idea che le piattaforme li stessero perseguitando; hanno smesso di "lavorarsi" gli arbitri, e si sono messi a contestare il loro diritto di operare. È stato, in particolare, l'allora presidente Donald Trump ad arrabbiarsi per il fatto che i suoi tweet fuorvianti fossero stati etichettati come fuorvianti, e non fece sottili argomentazioni sulla trasparenza, o sulla necessità di un processo di appello; invece, da allora ha cominciato a delegittimare la moderazione dei contenuti stessa, e a minacciare un'azione normativa. Interventi di base come il fact-checking sulle affermazioni contestate – e talvolta anche il semplice sospetto di intervento (ad esempio, se un tweet non ha ricevuto un adeguato coinvolgimento) – sono stati riformulati come atti tirannici da parte delle élite tecnologiche che cospirano contro i populisti di destra. Pertanto, gli arbitri non erano più mediatori nella guerra culturale: erano diventati l'opposizione. Dato che questa narrazione è stata incorporata nell'identità politica della destra, il mercato ha risposto con delle opportunità di uscita. Piattaforme alternative, come Parler, emerse nel 2018, sono state create con l'obiettivo esplicito di soddisfare i sostenitori di Trump, i quali ora credevano che le piattaforme convenzionali fossero irrimediabilmente di parte. Poi sono arrivati Gettr e Truth Social, nati dalle lamentele relative alle elezioni del 2020 e alle rivolte del 6 gennaio, e dalla moderazione dell'uomo responsabile di averle istigate. Le nuove piattaforme alternative di destra avevano arbitri nella stessa squadra, ma continuavano a rimanere piccole perché la contropartita era rappresentata dal fatto che su di esse c'erano pochi liberali da attaccare. C'erano rare opportunità di battibecchi di parte o di trollaggio. Potenzialmente, c'erano pochi spettatori da reclutare per la propria causa preferita. Pertanto, gli influencer politici, le figure mediatiche e i politici di tutto lo spettro politico hanno continuato a lavorare, con gli arbitri, sulle piattaforme principali, dove la posta in gioco - e il pubblico - sono rimasti molto più alti. Poi, nel 2022, si è verificato un cambiamento sismico: Elon Musk, un vero credente nella teoria degli arbitri corrotti, ha acquistato Twitter e si è autonominato arbitro capo. La piattaforma, che ora si chiama X, era sempre stata relativamente piccola, ma sproporzionatamente influente: il suo concentrato di persone ossessionate dai media e dalla politica le aveva fatto guadagnare il soprannome di “piazza pubblica”. Più precisamente, spesso funzionava come un'arena di gladiatori; uno spazio caotico in cui si plasmava il consenso e dove individui sfortunati diventavano “protagonisti” di lotte tra bande. Dopo l'acquisizione, Musk ha offerto una "amnistia" a coloro (compresi i neonazisti dichiarati) che erano entrati in conflitto con gli ex arbitri. Gli influencer di destra che erano sulla piattaforma hanno colto al volo l'occasione per poter lavorare con il nuovo arbitro in modo vendicativo, e Musk ha risposto rimodellando rapidamente, e in modo significativo, la governance a loro favore. I post che prima venivano moderati, definendoli come voci infondate relative a elezioni fraudolente, o errori di genere intenzionali da parte di utenti transgender, ora sono stati consentiti. L'insoddisfazione per il nuovo arbitro, per le politiche e per l'ambiente generale di X hanno portato a un esodo dalla piattaforma, da parte della sinistra politica americana. All'inizio, le persone migrarono verso Mastodon, che aveva il vantaggio di esistere già. Un altro nuovo concorrente sul mercato, Bluesky, ha lanciato la sua versione beta, con un modello solo su invito, guidato da alcune reti di referral. La comunità della sinistra progressista, vi si è rapidamente affermata, e i suoi utenti hanno messo alla prova gli arbitri relativamente inesperti nei momenti di insoddisfazione per le loro iniziali politiche di moderazione. Si discuteva se i discorsi iperbolici costituissero una “minaccia” e a quali condizioni gli utenti dovessero essere bannati. In un primo episodio degno di nota, gli utenti hanno affrontato gli sviluppatori di Bluesky chiedendo scuse pubbliche dopo che un bug aveva permesso a dei troll di registrare degli insulti come se fossero dei nomi utente. Nel novembre 2023, Bluesky aveva 2 milioni di utenti, e la reputazione di essere uno spazio molto di sinistra. Nel luglio 2023, nella competizione tra i Twitter scontenti entra in scena il gorilla da 800 libbre: Threads, di proprietà di Meta. Posizionato come concorrente diretto di X, Threads si presentava come “gestito in modo sensato”, secondo le parole del direttore di prodotto Chris Cox. Tuttavia, la promessa di saggezza non ha protetto Threads dalle dinamiche di rielaborazione. La decisione della dirigenza di limitare le notizie politiche e di bloccare alcune ricerche relative alle pandemie ha provocato un contraccolpo nella base di utenti in gran parte liberali (alcuni dei quali hanno iniziato a promuovere Bluesky come posto migliore in cui stare). Nonostante tali tensioni, Threads è cresciuto rapidamente, registrando 275 milioni di utenti attivi mensili alla fine di ottobre 2024; anche gli utenti più scontenti hanno ammesso che era molto meglio di X. Tuttavia, a novembre 2024, ad accelerare drasticamente è stata la crescita di Bluesky, trainata dalla rielezione di Trump e dall'allineamento sempre più esplicito di Musk con l'estrema destra. Musk, l'utente più visibile di X, e anche il suo principale arbitro, era diventato un surrogato di Trump e un sostenitore del furto elettorale; e gli algoritmi della sua piattaforma sembravano dare una spinta a lui e ai suoi alleati ideologici. Tra gli utenti potenti che un tempo parlavano, la fedeltà al vecchio Twitter è diminuita costantemente. Nelle settimane successive alle elezioni, Bluesky ha superato la soglia dei 25 milioni di utenti, spinto non tanto dalle sue caratteristiche quanto piuttosto dall'insoddisfazione ideologica, e dal fascino di una piattaforma dove la governance sembrava essere più in linea con le norme progressiste. Ma è davvero così?

Nuova governance, nuove minacce
La Grande Decentralizzazione - la migrazione dalle grandi piattaforme centralizzate a taglia unica verso spazi più piccoli e ideologicamente distinti - è stata alimentata dall'identità politica e dall'insoddisfazione. Tuttavia, l'aspetto più interessante di quest'ultima ondata migratoria è la tecnologia che sta alla base di Bluesky, Mastodon e Threads: ciò che essa consente e ciò che intrinsecamente limita. Queste piattaforme danno la priorità a qualcosa di fondamentalmente diverso dai loro predecessori: la federazione. A differenza delle piattaforme centralizzate, dove la selezione e la moderazione vengono controllate dall'alto, la federazione si basa invece su protocolli decentralizzati - ActivityPub per Mastodon ( che anche Threads supporta) e il Protocollo AT per Bluesky - che permettono di avere dei server controllati dagli utenti e di restituire la moderazione (e in alcuni casi la selezione) al livello della comunità. Questo approccio non si limita solo a ridefinire la moderazione, ma ristruttura online la governance stessa. E questo è possibile perché, in generale, non ci sono parametri di riferimento su cui lavorare. Ciò che è importante, è comprendere quali sono i vantaggi e quali gli svantaggi. Se le piattaforme centralizzate, con le loro regole e algoritmi controllati centralmente, sono una sorta di "giardini recintati", i social media federati possono invece essere meglio descritti come degli "orti comunitari", modellati dai membri che si collegano a partire da dei legami sociali o geografici e da un interesse condiviso nel mantenere uno spazio comunitario che sia piacevole. Nel "Fediverso", gli utenti possono partecipare, o possono creare server che siano in linea con i loro interessi, o comunità. Di solito vengono gestiti da volontari che gestiscono i costi e stabiliscono le regole a livello locale. Anche la governance è federata: mentre tutti i server di ActivityPub, ad esempio, condividono un protocollo tecnologico comune, nel quale ognuno stabilisce le proprie regole e norme, e decide se interagire con la rete più ampia, o se preferisce isolarsi da essa. Ad esempio, quando nel 2019 la piattaforma Gab, dichiaratamente filo-nazista, ha adottato il protocollo di Mastodon, altri server lo hanno abbandonato in massa, tagliando così i kloro legami, e impedendo che i contenuti di Gab potessero raggiungere gli utenti. Tuttavia, Gab ha persistito, e ha continuato a crescere, evidenziando uno dei limiti importanti della federazione: la defederazione può isolare i cattivi attori, ma non li elimina. Le piattaforme basate su protocolli, offrono un significativo futuro potenziale ai social media: un federalismo digitale, nel quale la governance locale si allinea alle norme specifiche della comunità, ma rimane vagamente connessa all'insieme più ampio. Per alcuni utenti, la scala ridotta e il maggiore controllo possibile sulle piattaforme federate risultano attraenti. Su Bluesky - che per ora rimane sostanzialmente solo un'istanza gestita dal team di sviluppo - gli esperti stanno sviluppando strumenti per personalizzare l'esperienza. Esistono blocklist condivisibili, curated feed (visualizzazioni che consentono agli utenti di vedere gli ultimi post su un argomento definito dal creatore, come le notizie, il giardinaggio o lo sport), e strumenti di moderazione gestiti dalla comunità, con cui è possibile applicare etichette di categorizzazione ai post o agli account (“Contenuti per adulti”, “Discorso d'odio”, ecc.). Ciò consente agli utenti di personalizzare il proprio ambiente in base ai propri valori e interessi, dando loro un maggiore controllo su quali post vedere - dai discorsi volgari ai nudi e alla politica - e quali nascondere dietro un avviso, o nascondere del tutto. Sebbene attualmente esista un'etichettatura centralizzata dei contenuti controllata dal team di moderazione di Bluesky, gli utenti possono anche semplicemente disattivarla. Per alcuni, questo livello di agenzia è allettante. Tuttavia, la maggior parte degli utenti non modifica mai le impostazioni predefinite di una particolare applicazione o tecnologia: quello che cercano è un sollievo dal dramma, dal caos e dal disallineamento ideologico percepito in altri spazi. Non sono attratti dalla “moderazione composita” o dalla “governance federata” - molti, infatti, non sembrano comprendere appieno cosa significhi - ma dalla “atmosfera” dell' iniziativa. Vogliono che le piattaforme “competano sulla base del servizio e del rispetto”, anche se le grandi piattaforme, contrastate dai politici con i randelli normativi, non vogliono altro che smettere il prima possibile di fare richiami alla moderazione. Bluesky, che è impegnata nella missione di creare un protocollo che alla fine renderà praticamente irrilevante la moderazione centralizzata, a causa dell'arrivo degli utenti ha dovuto quadruplicare rapidamente le dimensioni del suo team di moderazione. Ecco perché è importante capire che l'allontanamento degli arbitri centralizzati comporta dei compromessi assai concreti. Senza una governance centralizzata, non esiste un'unica autorità in grado di mediare i problemi sistemici né di applicare le regole in modo coerente. Per gli amministratori delle singole istanze, per lo più volontari, il decentramento comporta un pesante onere, in quanto si potrebbero trovare a non avere gli strumenti, il tempo o la capacità di risolvere efficacemente problemi complessi. Ad esempio, alcuni dei miei lavori si sono concentrati sulla grande sfida di affrontare, nel Fediverso, contenuti esplicitamente illegali: immagini di sfruttamento minorile. La maggior parte dei server gestiti da volontari non è preparata per affrontare questi problemi, esponendo così gli amministratori a delle responsabilità legali, e lasciando vulnerabili gli utenti. L'applicazione frammentata lascia delle scappatoie che i malintenzionati . ivi compresi quei gestori sponsorizzati dallo Stato e gli spammer - possono sfruttare con relativa impunità. La verifica dell'identità è un altro punto debole, e porta a dei rischi di impersonificazione che le piattaforme centralizzate in genere gestiscono in modo più efficiente. Pratiche di sicurezza incoerenti tra i server, possono consentire a dei malintenzionati di sfruttare i collegamenti più deboli. Le aziende professionali esperte (come Threads) hanno esperienza nella gestione di alcune di queste problematiche, ma per partecipare hanno bisogno di un incentivo economico. Sebbene la federazione offra maggiore autonomia agli utenti, oltre a promuovere la diversità, rende significativamente difficile combattere i danni sistemici, o coordinare le risposte a minacce come la disinformazione, le molestie o lo sfruttamento. Inoltre, dato che gli amministratori dei server possono moderare solo localmente - ad esempio possono nascondere solo il contenuto sul server che gestiscono - i post da un server possono diffondersi attraverso la rete verso gli altri server con poche risorse. I post che promuovono una pseudoscienza dannosa ("bere candeggina cura l'autismo"), o l'esposizione della vita personale, possono persistere incontrollati su alcuni server, per quanto altri rifiutano o ne bloccano il contenuto. Le persone che si sono convinte del fatto che "la moderazione è censura" potrebbero pensare che questa sia una vittoria assoluta, ma gli utenti, che fanno parte di tutto lo spettro politico, hanno costantemente espresso il desiderio che le piattaforme si preoccupino degli account falsi e i contenuti falsi o violenti. Oltre alle sfide legate alla gestione dei contenuti illegali o dannosi, la Grande Decentralizzazione solleva domande più profonde sulla coesione sociale: la frammentazione delle piattaforme esacerberà i silos ideologici ed eroderà ulteriormente gli spazi condivisi necessari per il consenso e il compromesso? I nostri spazi di comunicazione modellano le nostre norme e politiche. Gli stessi strumenti che ora consentono direttamente agli utenti di aver cura dei propri feed, e bloccare i contenuti indesiderati, possono anche ampliare le divisioni o ridurre l'esposizione a prospettive diverse. Le blocklist create dalla comunità, sebbene utili per gruppi specifici che cercano di evitare i troll, sono strumenti contundenti. Un commento inappropriato, una battuta non raccontata o un'animosità personale da parte di un creatore di liste possono gettare una rete ampia e isolata; un commento inadeguato, una battuta non detta o un risentimento personale da parte del creatore di una lista possono generare una rete ampia e isolata; le persone con opinioni diverse su questioni controverse, come la politica sull'aborto, possono autocensurarsi per evitare di essere “etichettate male” ed escluse. I recenti eventi di Bluesky illustrano queste sfide. A metà dicembre, sono sorte tensioni sulla piattaforma a causa dell'improvvisa presenza di un importante giornalista e podcaster che scrive di salute trans, e lo fa in un modo che alcuni degli utenti trans più attivi della piattaforma trovano dannoso. In risposta, decine di migliaia di utenti hanno bloccato in modo proattivo l'account ritenuto problematico (i blocchi sono pubblici su Bluesky). Gli etichettatori della community consentivano agli utenti di nascondere i propri post. La proliferazione di blocklist condivise ne includeva alcune che consentivano agli utenti di bloccare in modo massiccio i follower del commentatore controverso. I giornalisti, molti dei quali seguono persone con cui non sono personalmente d'accordo, hanno commentato di essere stati catturati in rete; per mitigare questo problema, gli utenti della comunità hanno suggerito di creare account "alternativi" per evitare di inviare segnali indesiderati. Le blocklist condivisibili, per quanto espansive, sono strumenti progettati per responsabilizzare gli utenti. Tuttavia, una parte della comunità non era soddisfatta degli strumenti. Ragion per cui, invece, ha iniziato a fare pressione sul responsabile della fiducia e della sicurezza di Bluesky, il quale così è stato inondato da furiose richieste di una risposta dall'alto verso il basso; anche attraverso una petizione per bandire il discutibile giornalista. Il giornalista, a sua volta, ha anche lui contattato i moderatori, dicendo di essere stato bersaglio di un linguaggio minaccioso e di un'indebita esposizione della sua vita personale. Il dramma evidenzia la tensione esistente tra la maggiore possibilità per gli utenti di agire per proteggere i propri spazi individuali, e il persistente desiderio di arbitri centralizzati che agiscano per conto di una comunità. E sfortunatamente, illustra quali sono le sfide per la moderazione di una grande comunità che abbia risorse relativamente limitate. Nell'esperienza americana, l'obiettivo idealistico del federalismo era quello di mantenere l'unità della nazione, pur consentendo il controllo locale degli affari locali. La versione digitale di questo, tuttavia, sembra essere un'involuzione, un ritiro in spazi separati che può aumentare la soddisfazione in ogni avamposto, ma fa ben poco per rafforzare i legami, ripristinare le norme reciproche o diminuire l'animosità tra i gruppi. Cosa succede quando delle norme divergenti diventano così distinte che non possiamo più nemmeno vedere o partecipare alle conversazioni degli altri? La scommessa del consenso non è semplicemente più difficile, ma ne viene così strutturalmente rafforzata.

Che cosa sta per accadere
Che vi piaccia o no, i modelli di policy e di applicazione centralizzati dall'alto verso il basso hanno definito l'esperienza dei social media su grandi piattaforme come Facebook, Twitter e YouTube per due decenni. Come ha detto Nilay Patel, sul sito "The Verge", il "prodotto" di queste piattaforme è la moderazione dei contenuti: le decisioni prese dai team di moderazione determinano, non solo ciò che gli utenti vedono, ma anche quanto si sentono sicuri o minacciati. Queste politiche hanno avuto effetti profondi non solo su fenomeni sociali come la democrazia e la coesione comunitaria, ma anche sul senso di benessere dei singoli utenti. Se la Grande Decentralizzazione continuerà, questa esperienza è destinata a cambiare. Mentre la governance centralizzata su piattaforme come Twitter e Facebook è diventata un fronte altamente politicizzato nella guerra culturale, vale la pena chiedersi se davvero il sistema sia stato rotto. La moderazione centralizzata, nonostante fosse imperfetta, costosa e opaca, offriva regole articolate, tecnologia sofisticata e team di applicazione professionali. Le critiche a questi sistemi spesso derivavano dalla loro mancanza di trasparenza, o da occasionali errori di alto livello che alimentavano la percezione di pregiudizi e insoddisfazione. Questa crisi di legittimità ha finito per far pendere l'ago della bilancia, spostandolo dalla parte della protesta a quella dell'uscita, e adesso la formazione di un nuovo spazio comune online rappresenta al tempo stesso una sfida e un'opportunità. Sì, esiste il potenziale per degli spazi online veramente democratici, liberi da quegli incentivi disallineati che finora hanno definito il rapporto tra la piattaforma e l'utente. Ma la realizzazione di questi spazi richiederà un lavoro significativo. C'è anche la questione economica che si sta sempre più avvicinando. Se vogliono persistere, le alternative federate devono essere finanziariamente sostenibili. Al momento, Bluesky è alimentato principalmente da capitale di rischio; ha affrontato la possibilità di avere abbonamenti e funzionalità a pagamento, in futuro. Ma se gli ultimi due decenni di sperimentazione sui social media ci hanno insegnato qualcosa, è che gli incentivi economici hanno inevitabilmente un impatto sproporzionato sulla governance e sull'esperienza dell'utente. I tecnologi (me compreso) amano parlare di innovazione più rapida, migliore privacy e controllo più granulare degli utenti, vedendolo come il futuro dei social media. Ma ciò non è quello che pensa la maggior parte delle persone. La maggior parte degli utenti desidera solo buoni servizi, rischi minimi per il proprio benessere e un ambiente complessivamente positivo e divertente. Ironia della sorte, sono questi gli stati finali che la moderazione aveva cercato di offrire. L'argomentazione secondo cui gli svantaggi della partecipazione ai social media – disinformazione, esposizione della vita personale e molestie – sono emblematici del trionfo della "libertà di parola", è stata respinta da tutti; pochissimi utenti trascorrono effettivamente del tempo in comunità "assolutiste" che accettano tutto; "8chan", ad esempio, non è mai stata molto popolare. Eppure, la nostra incapacità di concordare norme e valori condivisi, sia online che offline, ci sta lacerando in spazi online distinti. Gli utenti che sono attratti da Bluesky stanno gravitando verso la cultura dell'istanza principale, che poi assomiglia un po' al vecchio Twitter del 2014; un tempo più semplice e meno tossico. Desiderano ardentemente un ritorno a una società americana meno divisiva e sgradevole. Questo desiderio riflette una verità più profonda: le piattaforme online non riflettono solo i nostri valori offline: li influenzano attivamente. Le piattaforme federate ci daranno la libertà di curare la nostra esperienza online e di creare comunità in cui ci sentiamo a nostro agio. Rappresentano più che  un cambiamento tecnologico: sono un'opportunità per il rinnovamento democratico nella sfera pubblica digitale. Restituendo la governance agli utenti e alle comunità, esse hanno il potenziale per ricostruire la fiducia e la legittimità in un modo che le piattaforme centralizzate non possono più fare. Tuttavia, rischiano anche di frammentare ulteriormente la nostra società, poiché gli utenti abbandonano gli spazi condivisi in cui è possibile creare una più ampia coesione sociale. La Grande Decentralizzazione, è un riflesso digitalizzato della nostra politica polarizzata che, andando avanti, la plasmerà.

di  Renée DiResta -  January 7, 2025 - Pubblicato su Noema Magazine -

Nessun commento: