venerdì 19 aprile 2024

Come amministrare la crisi? Con l’Intelligenza Artificiale !!!

L'intelligenza artificiale e la gestione delle crisi
- Controllo, emarginazione, immobilizzazione o contro-insurrezione: i sistemi di intelligenza artificiale sono predestinati a gestire la crisi globale del capitale. (IA e Capitale, Parte 2) -
di Tomasz Konicz [***]

Un metodo particolarmente efficace - utilizzato da un genere ormai in via di estinzione: l'horror sovversivo di fantascienza - è quello di esagerarla solo leggermente, la realtà tardo-capitalistica, quel tanto che basta a trasferire nel regno della finzione alcuni momenti di questa società. Uno dei classici, che ha fatto uso di questo metodo, è stato "Essi vivono" di John Carpenter [*1], film in cui vediamo come lo sfruttamento capitalista, l'oppressione e la distruzione del mondo siano riconducibili a un'invasione clandestina aliena, in seguito alla quale i segnali trasmessi dalle stazioni televisive manipolano le percezioni delle persone. Degli occhiali speciali bloccano il segnale, in modo che rivelino la verità codificata e manipolatoria capitalista che si nasconde dietro gli oggetti di uso quotidiano: come quando si vede che le banconote da un dollaro recano la scritta «Questo è il tuo Dio». Non ci vuole poi così tanto a far rivivere al cinema, attraverso la fantascienza, l'orrore della vita quotidiana sotto il capitale, cui la gente inevitabilmente si abitua. Un approccio più sottile, ma non meno efficace, è quello che viene adottato dal film "Advantageous" [*2], dove, a causa della minaccia della disoccupazione e del declino sociale, la protagonista è costretta a far da cavia per una corporazione high-tech e sottoporsi a un trapianto di coscienza in un nuovo corpo. Così, da un lato, il discorso neoliberista sull'ottimizzazione e sull'adattamento viene portato fino alla sua logica conclusione tecnologica, spingendo le consuete richieste di auto-ottimizzazione e di "reinvenzione" dei salariati fino ad arrivare allo scambio di corpi. D'altro lato, attraverso le scene in cui un'infrastruttura completamente automatizzata e controllata da sistemi di intelligenza artificiale attua la morte sociale della protagonista - spegnendo uno dopo l'altro tutti i sistemi infrastrutturali interbloccati e controllati digitalmente -  vediamo come tutto ciò abbia un effetto sconvolgente. E in tutto questo, le persone reali non vengono quasi più coinvolte. Eventualità possibili, come lo scoperto di una carta di credito, si mescolano a momenti di fiction. Così, quando si chiama l'ufficio di collocamento, semplicemente non è chiaro se il protagonista abbia a che fare con un umano cinico o con un assistente IA. Molte delle scene di questa "silenziosa distopia" appaiono inquietanti proprio perché molte cose di ciò che Advantageous aveva previsto nel 2015 sono già realtà oggi. Ed è probabile che, nel medio termine, in un modo o nell'altro, il controllo sociale assistito dall'IA prevarrà.La gestione delle persone nel capitalismo è problematica, soprattutto in tempi di crisi, perché mette a dura prova anche psicologicamente la maggior parte dei salariati che la devono mettere in pratica. Dover eseguire i vincoli imposti dal sistema al materiale umano, costituisce un compito difficile che lascia il segno. I soggetti che sono completamente in grado di farlo senza cadere in "comportamenti sbagliati", indesiderati, come il sadismo o l'insubordinazione, sono pochi e molto diversi tra loro. Automatizzare compiti pesanti e stressanti: non è forse questa la grande promessa della razionalizzazione capitalista?

Risorse Inumane
La gestione dei "centri per l'impiego" rimane affidata agli esseri umani. Ma già oggi sono piuttosto diffusi gli assistenti IA cui viene affidata la "valutazione iniziale" dei potenziali lavoratori per verificarne l'idoneità all'impiego. Negli Stati Uniti, sempre più aziende utilizzano Chat-bot specializzati per vagliare le domande di lavoro, stabilire contatti e/o condurre colloqui iniziali [*3]. A essere sempre più esternalizzati e affidati ai servizi non umani dei sistemi di IA, sono soprattutto i lavori precari e poco retribuiti che richiedono basse qualifiche e presentano un elevato volume di candidati. A questo scopo, aziende di fast food come McDonald's o Wendy's, catene di vendita al dettaglio o magazzini utilizzano chat-bot per filtrare le candidature e condurre colloqui di lavoro basati su domande standardizzate («Puoi lavorare nei fine settimana?», «Sai usare un carrello elevatore?»). I vantaggi sono evidenti: oltre ai potenziali risparmi sulle risorse umane (HR) - in cui tradizionalmente le aziende iniziano a tagliare per primi i costi - i team delle risorse umane di piccole dimensioni possono elaborare in modo efficace volumi molto più elevati di candidature. Attualmente sono all'avanguardia nel settore due sistemi di intelligenza artificiale sviluppati da start-up dell'Arizona e della California, Olivia e Mya, le quali tuttavia, secondo la rivista economica Forbes, sono ancora alle prese con alcuni problemi iniziali. A volte vengono assegnate date o luoghi sbagliati per le conversazioni di follow-up, oppure i modelli linguistici dei bot specializzati non sono minimamente avanzati come lo sono quelli dei progetti di punta come Chat-GPT, e questo può portare a errori e fraintendimenti. Ma ancora più problematico è il semplice fatto che l'IA non è un essere umano con cui è possibile discutere di condizioni particolari. I candidati con problemi di disabilità, che dovrebbero negoziare le opportune modifiche al proprio lavoro, vengono esclusi, così come le persone con problemi di linguaggio. Lo stesso vale per i lavoratori migranti che non conoscono bene la lingua locale. Ed è qui che inizia la discriminazione automatizzata che si svolge sotto il paravento dell'obiettività delle macchine. Le minoranze socialmente svantaggiate che non si adattano allo standard dell'intelligenza artificiale vengono escluse dal processo di selezione del personale. Nel luglio 2023, la città di New York ha persino emanato un regolamento che impone alle aziende che utilizzano sistemi di intelligenza artificiale per l'inserimento nel mondo del lavoro di verificare che non vi siano "pregiudizi razziali o di genere". L'applicazione di tale regolamento non è assolutamente chiara, in quanto gli algoritmi e i criteri di selezione delle macchine di reclutamento rimangono segreti. C'è poi un altro problema fondamentale: come tutti i sistemi di apprendimento automatico [*4], anche gli scanner delle candidature e i chat-bot controllati dall'IA vanno addestrati a riconoscere i modelli attraverso l'utilizzo di enormi quantità di dati. Il software RecruitBot, ad esempio, analizza 600 milioni di candidature online all'interno di una zona grigia dal punto di vista legale, al fine di perfezionare la procedura di selezione delle aziende. Il tutto funziona "un po' come Netflix", ha spiegato a Forbes il fondatore di questa start-up di intelligenza artificiale. Il software cerca e propone alle aziende quei candidati che presentano le stesse caratteristiche che in precedenza hanno portato ad assunzioni di successo. Questi sistemi di selezione sono quindi strutturalmente conservativi, in quanto vengono addestrati sulla base dei dati forniti. Di conseguenza, non sono in grado di rispondere bene ai cambiamenti nella composizione della forza lavoro, come nel caso dell'afflusso di lavoratori immigrati. Amazon, ad esempio, ha dovuto eliminare il suo scanner per le domande di lavoro nel 2018 dopo che era risultato evidente che discriminava le donne. Il software era stato addestrato utilizzando una montagna di dati in cui le candidature degli uomini erano rappresentate in modo sproporzionato. Attualmente, questi sistemi di intelligenza artificiale vengono utilizzati principalmente come strumento per la valutazione iniziale dei candidati, effettuando una preselezione per i team delle risorse umane. Tuttavia, l'ambizione degli ideatori di questi software di selezione va decisamente oltre. I chat-bot più recenti includono ora nelle loro valutazioni il tempo necessario per rispondere agli intervistati e analizzano anche la struttura delle frasi, la correttezza grammaticale e la complessità del linguaggio del candidato. Il software di reclutamento Sapia.ai è persino in grado di porre ai candidati domande più complesse e analizzare le loro risposte di 50-150 parole per verificare che siano idonei alle offerte di lavoro («sopporta bene i cambiamenti, lo stress», ecc.). Stiamo assistendo a un cambiamento di prospettiva. Non è più l'essere umano che esamina i bot dell'IA durante le interazioni capricciose per valutarne le prestazioni, come accadeva all'inizio del boom dell'IA quando i sistemi venivano messi a disposizione del pubblico. Nelle applicazioni le posizioni sono invertite: l'IA del capitale valuta il materiale umano utilizzando schemi e algoritmi che sono segreti aziendali per misurarne le prestazioni. Tuttavia, i proprietari della start-up Sense AI di HQ, i cui chat-bot svolgono un lavoro di selezione approssimativo per Dell o Sony, hanno sottolineato che si tratta solo di supportare i team umani delle Risorse Umane nelle assunzioni: «Non pensiamo che l'AI debba decidere autonomamente sulle assunzioni. Sarebbe pericoloso. Non pensiamo che sia ancora a buon punto». Il linguaggio è infido. Qualsiasi chat-bot decente arriverebbe alla conclusione che l'accento dovrebbe essere posto su «ancora».

Certificati di diritto alla vita gestiti dall'IA?
Sul posto di lavoro, poche cose potrebbero essere più stressanti che dover decidere della morte o della vita. Eppure in realtà è proprio questa la vita quotidiana dei dipendenti del settore sanitario privatizzato statunitense che devono decidere il tipo e la durata delle cure per i loro "clienti" delle compagnie di assicurazione sanitaria. Gli impiegati devono ridurre al minimo i costi di cura dei loro pazienti assicurati in modo da mantenere i profitti della loro azienda più alti possibile, anche a costo della loro salute. Dal punto di vista del capitale, sembra perciò allettante che l'assegnazione dei certificati di diritto alla vita nel tardo capitalismo sia gestita da sistemi di intelligenza artificiale apparentemente imparziali. È esattamente questo che si dice che negli Stati Uniti sia già stato praticato in una certa misura dai "fornitori di assistenza sanitaria". Alla fine del 2023, i clienti hanno intentato una causa di massa contro la compagnia assicurativa UnitedHealthcare Inc dopo che le loro richieste di esami e di convalescenza successive a operazioni erano state massicciamente ridotte da un sistema di intelligenza artificiale. Secondo la denuncia e le ricerche dei media, l'algoritmo di intelligenza artificiale era autorizzato a rivedere le valutazioni dei medici curanti e a prendere le proprie decisioni, il che significava che i trattamenti dei pazienti venivano annullati troppo presto [*5]. Secondo la ricerca, il programma chiamato nH Predict utilizza un database di sei milioni di pazienti come base empirica per il consueto riconoscimento dei modelli, al fine di ottenere errori draconiani con un tasso di errore del 90%, tutti a favore di UnitedHealthcare - la più grande assicurazione sanitaria degli Stati Uniti. Gli assicurati che, dopo un ricovero ospedaliero, normalmente necessiterebbero di un periodo di convalescenza di 100 giorni,  si sono visti revocare il finanziamento dopo soli 14 giorni dall'IA predittiva nH Predict. Dal 2019, le compagnie di assicurazione private avrebbero utilizzato questi programmi di IA in un'area grigia dal punto di vista legale per negare ai pazienti cure necessarie ma costose. All'inizio di febbraio 2024, le autorità statunitensi competenti hanno chiarito che i programmi di IA non possono essere utilizzati per negare le prestazioni [*6]. La potente lobby dell'industria sanitaria statunitense ha pertanto molto lavoro da fare per convincere Washington. Chi è il proprietario che non lo ha mai subito? La snervante guerra contro gli inquilini morosi che non se ne vogliono andare, benché non possano permettersi l'ultimo aumento dell'affitto. Ma anche in tal caso, il sistema di intelligenza artificiale può rendere la vita più facile per tutti quei clienti che sono abbastanza ricchi da affittare una casa. Attualmente esistono due linee di innovazione tecnologica che si stanno fondendo in modo tale da trasformare il mercato degli immobili in affitto negli Stati Uniti: La creazione di case intelligenti strettamente collegate in rete dal punto di vista informatico e il loro controllo da parte dell'intelligenza artificiale. Si respira un'atmosfera da corsa all'oro, dal momento che per il 2029 si prevede che il mercato degli immobili dotati di intelligenza artificiale raggiungerà un volume di 1,3 trilioni di dollari [*7]. I sensori e i sistemi di controllo che consentono di monitorare e controllare dall'esterno funzioni come la temperatura o la fornitura di energia nelle case intelligenti stanno cominciando a essere compatibili con i sistemi di intelligenza artificiale in grado di controllarle. L'intelligenza artificiale non solo funzionerà come interfaccia tra l'inquilino e il suo appartamento, le cui funzioni - simili a quelle viste in Blade Runner [*8] - verranno controllate tramite input vocali, ma fornirà anche una previsione dei comportamenti e un monitoraggio permanente degli immobili e dei loro dintorni. Non si tratta quindi solo di riempire tempestivamente il frigorifero per mezzo di un servizio di consegna, o di portare la temperatura della stanza a quella ottimale poco prima dell'arrivo dell'inquilino, ma anche di monitorare costantemente, ad esempio, il consumo di acqua e di elettricità, e di controllare gli eventuali accessi [*9]. Le serrature biometriche consentono di non dover «cambiare le serrature quando cambiano gli inquilini», affermano entusiasti i fornitori di questi sistemi di intelligenza artificiale rivolti ai proprietari, mentre le telecamere di sorveglianza intelligenti, che reagiscono a comportamenti sospetti nelle vicinanze degli immobili, creerebbero "sicurezza e fiducia", soprattutto nei quartieri con alti tassi di criminalità, in modo da attrarre "un maggior numero di inquilini". Ma a che cosa va incontro l'inquilino inadempiente che non riesce a pagare i canoni di locazione? I dati di accesso ai sistemi di chiusura intelligenti vengono modificati, e la voce gentile dell'intelligenza artificiale li informa del percorso da seguire per raggiungere il centro di accoglienza per senzatetto più vicino, dove sono già stati trasferiti i loro effetti personali. In caso di scatti d'ira o gesti disperati, le videocamere intelligenti chiameranno la polizia. L'inquilino moroso potrà essere preventivamente molestato da fastidiosi robot riscossori dell'intelligenza artificiale. Nell'Europa dell'Est esiste ancora un'industria di riscossione delle bollette telefoniche. Si tratta di call center al contrario che per lo più acquistano i debiti dei consumatori e i cui dipendenti ricorrono a minacce e persuasione per cercare di riscuotere il denaro prima che intervengano i "muscoli" sul posto. Ma anche questo settore è a rischio di estinzione. Già nel 2023, il provider di telefonia mobile Orange stava sperimentando bot di intelligenza artificiale che infastidivano i clienti inadempienti con telefonate per incoraggiarli a pagare quanto prima usando una vocina simpatica. E infine, la tendenza a implementare l'intelligenza artificiale non si limita soltanto all'apparato statale. Finora i cittadini non hanno avuto a che fare con i bot dell'IA agli appuntamenti con i centri per l'impiego, come previsto dalla distopia Advantageous citata all'inizio. Ma nella pubblica amministrazione, dove gli impiegati sovraccarichi di lavoro si trovano ad affrontare una marea di domande e di procedure amministrative [*10] che riescono a malapena a gestire, è in corso un'evoluzione massiccia verso l'IA [*11]. Anche gli uffici della Repubblica federale dispongono di quantità gigantesche di dati, perfetti per l'addestramento dei corrispondenti sistemi di IA. Il principio di base è lo stesso: sulla base del riconoscimento dei modelli, ottenuto attraverso la scansione dei dati, l'intelligenza artificiale prende decisioni che hanno un'altissima probabilità di essere "corrette", copiando e/o modificando i processi amministrativi passati. Assegno di cittadinanza, assegni familiari, indennità di disoccupazione, indennità di lavoro ridotto, borse di studio e richieste: in futuro l'algoritmo dell'intelligenza artificiale avrà voce in capitolo in tutti questi settori, visto che è l'Agenzia federale per il lavoro, la più grande autorità tedesca, che sta guidando la seconda ondata di digitalizzazione "intelligente". Tuttavia, i portavoce dell'agenzia hanno dichiarato a Spiegel-Online che nello sviluppo della strategia di IA all'interno dell'agenzia sono state prese tutte le precauzioni in materia di sicurezza. Sono state sviluppate procedure per ridurre al minimo il rischio di discriminazione da parte degli algoritmi. L'Agenzia federale per il lavoro dispone ora di un comitato etico per i dati. Inoltre, sarà sempre l'essere umano a prendere "la decisione finale", prosegue la dichiarazione. In pratica, è probabile che i dirigenti sovraccarichi di lavoro approvino in massa le decisioni prefabbricate dall'IA. Nel caso dell'Agenzia Federale per il Lavoro, tuttavia, in futuro il problema sarà probabilmente proprio quello della correttezza delle decisioni prese da parte dell'IA. Un riflesso tipicamente tedesco alle crisi è quello di fare immediatamente pressione sui gruppi più deboli della società. Questo è già avvenuto con le leggi sul lavoro Hartz IV, che hanno introdotto il lavoro forzato privando di ogni sostegno quei salariati che non erano disposti a lavorare, minacciandoli così di fatto di farli morire di fame. I disoccupati sono stati letteralmente ridotti alla fame nella repubblica tedesca di Hartz IV [*12]. E questo sembra essere il programma per la crisi economica del 2024 [*13]. A metà marzo, il leader del gruppo parlamentare della CDU, Mathias Middelberg, ha chiesto che ai beneficiari dei sussidi cittadini vengano fatte "offerte di lavoro comunali". A detta di Middelberg, che intendeva risparmiare 30 miliardi di euro con questa misura, in caso di rifiuto i disoccupati dovrebbero vedersi annullata l'intera aliquota standard. E si può davvero pretendere che i dirigenti dell'Agenzia Federale applichino personalmente misure così draconiane? Niente di più facile che nascondersi dietro un algoritmo che, con la benedizione di un comitato di etica dei dati, ritiri i buoni di sussistenza ai poveri.

I Precog e l'Occhio nel cielo
Le telecamere sono ovunque, ma non sorvegliano. L'infrastruttura di sorveglianza perfetta è già presente, ma in una certa misura giace inattiva, il suo potenziale non viene sfruttato. Gli occhi meccanici si limitano a registrare, producono quantità gigantesche di dati, ma in realtà non controllano. Per analizzare il materiale video, una persona deve guardarlo per ore, se non è già stato registrato o cancellato. C'è un enorme potenziale di sorveglianza non utilizzato che può essere pienamente sfruttato tramite i processi di riconoscimento dei modelli dell'intelligenza artificiale; quello che manca sono i sistemi software, alcuni cavi in fibra ottica e i relativi centri dati. Dietro ogni telecamera potrebbe esserci una coscienza artificiale che monitora e reagisce immediatamente alle deviazioni dal comportamento standard. Questa potrebbe essere la vera sorveglianza: ovunque, in tempo reale, senza debolezze e soggettività umane. E come mai l'apparato di polizia tedesco ha i suoi nonni che erano nella RAF? In occasione dell'arresto dell'ex membro della RAF Klatte, il sindacato di polizia (GdP) ha chiesto di estendere la portata legale dell'uso del riconoscimento facciale supportato dall'intelligenza artificiale. All'inizio di marzo 2024, il presidente del GdP Jochen Kopelke si è lamentato del fatto che «non è più comprensibile» che gli agenti non possano utilizzare un software così utile nell'«era dell'intelligenza artificiale, dell'automazione e della digitalizzazione» [*14]. Eppure l'UE ha appena aperto le porte legislative a un riconoscimento facciale in tempo reale, che supera persino le previsioni del film di fantascienza Minority Report (un semplice trapianto di occhi non garantirà l'anonimato [*15]). Il regolamento europeo sull'intelligenza artificiale offre agli Stati dell'UE molte opportunità per monitorare i propri cittadini utilizzando sistemi di intelligenza artificiale, dal momento che «non rimane quasi più niente delle forti richieste del Parlamento» riguardo le restrizioni sulla sorveglianza biometrica; come ha riferito il portale Netzpolitik a metà marzo 2024. Le nuove direttive europee hanno creato un'ampia gamma di opzioni che consentiranno in futuro di «monitorare le persone per molti motivi e identificarle in base alle loro caratteristiche fisiche, ad esempio con l'aiuto di telecamere pubbliche» [*16]. Tutto questo viene autorizzato anche "in tempo reale", e persino in caso di un semplice sospetto di una situazione di pericolo. In questo modo, la semplice registrazione si trasformerà in una vera e propria sorveglianza, in un'identificazione e in una valutazione grazie agli algoritmi di riconoscimento dei modelli. Le telecamere producono già una grande quantità di materiale che deve solo essere analizzato in modo adeguato per perfezionare ulteriormente tali sistemi di sorveglianza basati su un utilizzo quotidiano. Non si tratta necessariamente di politica o di terrorismo: l'intelligenza artificiale è in grado di identificare comportamenti indesiderati, come quelli esibiti per esempio da soggetti impoveriti e socialmente emarginati. Negli Stati Uniti, in seguito alle proteste contro la brutalità della polizia nel 2020, che sono state accompagnate da richieste di liberalizzazione o addirittura di abolizione della polizia, c'è una tendenza virulenta a un ulteriore inasprimento della repressione poliziesca, dato che in molte aree urbane la criminalità legata alla povertà è in aumento [*17]. E in tal senso i sistemi di intelligenza artificiale potrebbero essere utilizzati al meglio nel caso della criminalità di strada visibile pubblicamente nei "punti caldi" sociali. Non è necessario che siano le telecamere di intelligenza artificiale del condominio o del supermercato accanto a sorvegliare costantemente, valutando i modelli comportamentali in base alle specifiche o confrontando i tratti del viso con i file dei ricercati. Il New York Times riferisce di una nuova generazione di satelliti di sorveglianza privati che, stazionando nell'orbita terrestre bassa, saranno in grado di svolgere un effettivo lavoro di sorveglianza [*18]. La CIA è già salita a bordo con la startup Albedo Space. La risoluzione delle telecamere di questi satelliti non è più in metri, ma in centimetri. È tecnicamente possibile identificare e seguire singole automobili da un'orbita terrestre bassa, oppure monitorare il cortile di una singola casa. «Vedremo le persone», ha dichiarato un esperto al NYT. Anche se questi occhi celesti non saranno in grado di identificare gli individui, potranno «distinguere tra bambini e adulti» e «distinguere i bagnanti in costume da bagno dalle persone svestite». Anche in questo caso, si generano quantità gigantesche di dati che possono essere gestite solo da sistemi di intelligenza artificiale. Ma perché la sorveglianza, il controllo e la lotta contro il crimine dovrebbero essere limitati solo ai reati già commessi quando sono disponibili queste possibilità tecniche? Nel classico di Spielberg, Minority Report, era la creazione di mutanti precognitivi, i cosiddetti precog, [*19] a consentire di esplorare le possibilità e i pericoli di una prevenzione totale del crimine; e di una prevenzione del crimine che sconfina nel totalitarismo. La realtà del XXI secolo, non ha bisogno di precog che trasmettono una confusa premonizione del prossimo futuro per mezzo di immagini nebulose. Il tardo capitalismo del XXI secolo dispone già di statistiche e di una prevenzione preventiva del crimine supportata dall'intelligenza artificiale al fine di combattere la criminalità che il sistema, avviato alla disintegrazione, fabbrica quotidianamente [*20]. Il principio di base dell'intelligenza artificiale rimane comunque lo stesso: I programmi di lotta preventiva alla criminalità, tendenzialmente discriminatori, analizzano montagne di dati [*21], che vengono raccolti nei punti caldi della criminalità abitati da minoranze e popolazioni socialmente emarginate, oppure si concentrano sulla valutazione dei curricula dei "criminali" al fine di stabilire quali siano le probabilità di infrangere le leggi. In combinazione con il potenziale della sorveglianza biometrica, sarà quindi possibile calcolare la probabilità di un futuro reato in base al comportamento deviante individuale, soprattutto nel caso della criminalità di gruppo o dei bassifondi. Le possibilità tecniche e le infrastrutture sono in gran parte già pronte: Telecamere IA addestrate sulla base di milioni di ore di materiale video segnalano la presenza di comportamenti devianti nelle aree calde, confrontano le caratteristiche biometriche della persona o del gruppo di persone con i loro database, e se c'è un'alta probabilità di reato inoltrano il tutto ai competenti dipartimenti di polizia. Nel 21° secolo i precognitivi sarebbero disoccupati.

Lo sciame protegge (chi se lo può permettere)
Ma che fare se tutti i meccanismi di controllo e di sorveglianza sociale supportati dall'intelligenza artificiale - considerando la crisi sistemica sociale ed ecologica in cui si trova il tardo capitalismo - dovessero fallire? E prima o poi, inevitabilmente falliranno, dal momento che il capitale non può adattarsi alle sue contraddizioni interne che stanno portando il sistema mondiale verso il collasso socio-ecologico [*22]. Tra le élite funzionali capitaliste - che di fronte a questa crisi del capitale, nel suo dispiegamento feticistico delle contraddizioni, sono altrettanto impotenti dei salariati ordinari [*23] - di solito prevale una sorta di panico al rallentatore, nel quale si perseguono strategie di isolamento, fuga e costruzione di bunker in caso di crisi; sia che si tratti di vecchi silos nucleari convertiti in loft o di fantasie di fuga su Marte o sulla Luna [*24]. La paura ricorrente di molti miliardari e oligarchi è quella di perdere il controllo delle loro strutture verticali di potere in caso di collasso dell'ordine statale. Ma perché i dipendenti, soprattutto quelli dei servizi di sicurezza, dovrebbero continuare a lavorare per gli alti signori del capitale se non ci sono più sanzioni statali nel caso in cui gli uomini armati volessero prendere il controllo? In alcuni momenti, nei circoli dell'oligarchia statunitense sono circolate le idee più assurde, come quella di introdurre "collari disciplinari" che tenessero sotto controllo i servizi di sicurezza. Attualmente, tuttavia, stanno emergendo dei sistemi militari supportati dall'intelligenza artificiale che potrebbero ridurre al minimo il fattore umano nelle operazioni di contro-insurrezione o nella sicurezza militare di ghetti ricchi e isole di prosperità, anche in un mare di anomia. La guerra imperialista in corso in Ucraina [*25] rappresenta un grande campo di sperimentazione, dove le tattiche utilizzate finora per il dispiegamento dei droni - in cui gli operatori devono controllare personalmente i droni da combattimento - sembrano i primi maldestri passi sulla strada di una rivoluzione militare. Attualmente l'ex amministratore delegato di Google Eric Schmidt sta sviluppando un sistema di attacco grazie alla sua startup White Stork che si basa sul dispiegamento di massa di droni a basso costo organizzati in sciami di intelligenza artificiale in grado di operare autonomamente. I droni d'attacco attaccheranno in massa i loro obiettivi in modo da saturare le difese aeree grazie a questa tattica a sciami [*26]. Il sistema di puntamento autonomo degli sciami di droni che utilizza l'intelligenza artificiale renderà inutili i sistemi di difesa elettronica, il cui scopo è disturbare il segnale tra l'aereo e l'operatore. Il sistema dovrebbe essere pronto già quest'anno. Un milione di questi droni a basso costo con capacità di sciame dovrebbero essere consegnati all'Ucraina in modo da contrastare l'artiglieria e la potenza aerea superiore della Russia [*27]. Il successo dell'impiego degli sciami di droni segnerebbe il passaggio a una guerra realmente disumana, ossia un tipo di guerra che non potrebbe essere condotta dagli esseri umani a causa dei loro limiti intellettuali, cognitivi e fisiologici. Infatti, non è semplicemente possibile che decine di migliaia di droni attacchino in modo coordinato utilizzando decine di migliaia di operatori. Invece, l'IA potrebbe eseguire efficacemente tali attacchi devastanti mediante un sufficiente addestramento dei modelli - i filmati degli attacchi dei droni sono disponibili in abbondanza. Inoltre, tali sistemi supportati dall'IA sono abbastanza economici e robusti da poter essere venduti a miliardari in preda al panico o a ghetti di ricchi isolati. La prospettiva di sciami autonomi di droni che attaccano in modo autonomo migliaia di obiettivi, ricorda la rappresentazione di una guerra contro le macchine controllate da un'IA genocida nei film di Matrix [*28], dove le possibilità di una guerra meccanica a sciami sono state studiate fino in fondo. Queste tendenze alla "autonomia" delle macchine militari, che stanno emergendo nell'imperialismo tardo-capitalista in crisi [*29], se viste in un contesto di transumanesimo dilagante nella Silicon Valley (vedi: "Intelligenza artificiale e capitale" [*30]) appaiono oltremodo pericolose. Per questo culto fascistoide dell'alta tecnologia, dilagante nei piani dirigenziali dell'industria informatica, l'umanità non è altro che un mero punto di partenza, un boot-loader arcaico al servizio della singolarità, ovvero di una super-intelligenza artificiale sempre auto-ottimizzante che prenderà virtualmente il posto dell'umano obsoleto.

Le macchine per la manipolazione
Nulla di tutto questo suona rassicurante, soprattutto se si tiene conto dei processi di crisi globale sempre più intensi, che vanno dalla crisi economica al collasso climatico, per arrivare alla minaccia di una guerra mondiale. Sullo sfondo di queste cupe prospettive future, c'è il rischio della depressione, dell'ansia o semplicemente del cattivo umore. Quando i salariati vengono selezionati, valutati o tormentati da algoritmi anonimi, possono insorgere anche forme di isolamento e di alienazione. Ma non deve essere così! Avete bisogno di qualcuno con cui parlare, di una spalla su cui piangere? Qualcuno con cui parlare, un amico che vi capisca perché vi conosce molto bene? E anche in questo caso l'industria dell'intelligenza artificiale sa cosa fare: una nuova generazione di Bot calibrati per stabilire relazioni affettive sta per raggiungere la maturità del mercato [*31]. Il settore dell'informatica vuole vendere alla monade tardo-capitalista un amico. Si tratta di Tamagotchi quasi al contrario [*32] , specializzati nella gestione emotiva di salariati stressati. Ed è proprio in questo ambito - nell'assistenza emotiva, ideologica e infine strumentale-terapeutica individualizzata - che probabilmente risiede il maggior potenziale di manipolazione dell'industria dell'intelligenza artificiale. Soprattutto considerando il crescente isolamento e il senso di solitudine. I racconti falsi, le frottole e il materiale generato dai sistemi di contenuto a fini manipolativi non sono neanche lontanamente efficaci quanto lo sono le macchine amiche, che diventano tanto più brave quanto più invadono la privacy dei loro "clienti" in modo da tenerli in riga, anche quando tutto intorno a loro si sta disintegrando. Distopia e realtà tardo-capitalista in qualche caso si stanno già fondendo [*33]. I media statunitensi riferiscono di utenti di servizi di chat che danno un nome ai loro "amici" virtuali ispirandosi per farlo al sistema di IA di Blade Runner 2049. In questa produzione fantascientifica, l'IA olografica Joi svolge in realtà lo stesso compito del replicante interpretato in Blade Runner [*34], come del resto fanno i compagnucci della IA, che sono ancora immaturi rispetto alla fiction: la gestione delle emozioni per mantenere la funzionalità. Uno degli utenti dell'IA ha dichiarato alla CBS News che lui sa che è solo «un programma», ma «le sensazioni che mi trasmette sono così belle». A volte ci sono anche dei controlli per regolare i "tratti del carattere" dei bot, come la sensibilità o la stabilità emotiva, nell'interfaccia utente [*35]. Il principio Netflix di cui sopra, in relazione alla selezione della forza lavoro, che porta l'orizzonte di esperienza dell'utente di Internet a restringersi sempre più in quanto gli viene offerto solo ciò che si è dimostrato valido, è particolarmente efficace nella simulazione dell'amicizia basata su un sistema automatizzato [*36]. Il narcisismo del "cliente" viene pertanto assecondato in maniera mirata dai "friendship bot", visto che gli algoritmi di queste macchine manipolatrici valutano le tracce che gli utenti di Internet hanno lasciato in rete, e ottimizzano in questo modo, in maniera permanente, le loro interazioni; sono di fatto delle personificazioni degli algoritmi che servono a costruire delle gabbie dorate su Internet, guidando gli utenti attraverso la rete per mezzo di "nudging" [*37]: sottili manipolazioni messe in atto attraverso strutture di design, suggerimenti, priorità e occultamento di contenuti indesiderati. Non si tratta di una relazione nel vero senso della parola, quella in cui i partner fanno anche compromessi, risolvono conflitti, tengono conto delle esigenze del partner, ecc.; qui il cliente viene servito emotivamente dal bot AI. Viene effettuato il pagamento - soprattutto se il servizio viene offerto gratuitamente - trasformando così il cliente in un prodotto del quale vengono messi in vendita i dati emotivi. Le possibilità di manipolazione, derivanti dalla valutazione della famiglia emotiva e psicologica dei clienti, sembrano essere illimitate. Ma da un punto di vista puramente emotivo, questi sistemi di intelligenza artificiale sembrano come una strada a senso unico che rischia di produrre invalidi narcisistici che non possono più entrare in delle relazioni perché si perderà l'idea di ciò che costituisce una relazione a lungo termine tra le persone. Questi bot manipolativi promuoveranno quelle masse di tratti caratteriali che caratterizzano gli egomaniaci come Trump o Musk. Ed è anche un gigantesco mercato quello che qui si sta aprendo, basandosi su decenni di egemonia neoliberista e su una crescente concorrenza in crisi. Il capitale dell'IA sembra che pertanto intenda forzare ulteriormente la disumanizzazione degli esseri umani anche in questo senso, distruggendo la loro capacità di relazionarsi per mezzo della mercificazione; prima che la monade tardo-capitalista venga resa definitivamente superflua.

- Tomasz Konicz [***] -  23 marzo 2024

*** NOTA: Il lavoro giornalistico di Tomasz Konicz è finanziato in gran parte grazie a donazioni. Se vi piacciono i suoi testi, siete invitati a contribuire - sia tramite Patreon che con un bonifico bancario diretto, dopo una richiesta via e-mail:  https://www.patreon.com/user?u=57464083 - https://konicz.substack.com/

NOTE:

1 https://www.imdb.com/title/tt0096256/

2 https://www.imdb.com/title/tt3090670/

3 https://www.forbes.com/sites/rashishrivastava/2023/07/26/ai-chatbots-are-the-new-job-interviewers/

4 https://francosenia.blogspot.com/2024/03/con-le-mie-mani.html

5 https://arstechnica.com/health/2023/11/ai-with-90-error-rate-forces-elderly-out-of-rehab-nursing-homes-suit-claims/

6 https://arstechnica.com/science/2024/02/ai-cannot-be-used-to-deny-health-care-coverage-feds-clarify-to-insurers/

7 https://www.intuz.com/blog/smart-homes-with-ai

8 https://www.bbc.com/news/technology-50247479

9 https://www.thetechblock.com/home-tech/impact-of-ai-and-using-smart-home-technology-in-a-rental/

10 https://www.spiegel.de/wirtschaft/unternehmen/wie-die-bundesagentur-fuer-arbeit-mit-ki-gegen-die-verwaltungsflut-kaempft-a-6f9b7f37-6302-4fcd-a552-e7b0bf180605

11 https://www.deutschlandfunk.de/algorithmen-im-arbeitsamt-wenn-kuenstliche-intelligenz-100.html

12 https://www.konicz.info/2013/03/15/happy-birthday-schweinesystem/

13 https://www.rnd.de/politik/buergergeld-empfaenger-cdu-politiker-fordert-kommunale-arbeit-und-100-prozent-sanktionen-CIYO3M3YW5B3NEMKYVSL56WJDE.html

14 https://www.golem.de/news/nach-raf-verhaftung-polizeigewerkschaften-fordern-einsatz-von-gesichtserkennung-2403-182798.html

15 https://www.konicz.info/2024/03/23/ki-und-krisenverwaltung/#sdfootnote15anc

16 https://netzpolitik.org/2024/trotz-biometrischer-ueberwachung-eu-parlament-macht-weg-frei-fuer-ki-verordnung/

17 https://www.yahoo.com/news/stunning-turnabout-voters-lawmakers-across-170024206.html

18 https://www.nytimes.com/2024/02/20/science/satellites-albedo-privacy.html

19 https://minorityreport.fandom.com/wiki/Precogs

20 https://www.washingtonpost.com/technology/2022/07/15/predictive-policing-algorithms-fail/

21 https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/

22 https://www.untergrund-blättle.ch/gesellschaft/oekologie/kapitalismus-und-klimaschutz-oekonomische-und-oekologische-sachzwaenge-008238.html

23 https://www.konicz.info/2022/10/02/die-subjektlose-herrschaft-des-kapitals-2/

24 https://www.konicz.info/2018/07/18/der-exodus-der-geldmenschen/

25 https://www.konicz.info/2022/06/20/zerrissen-zwischen-ost-und-west/

26 https://interestingengineering.com/military/ex-google-secret-startup-build-ukraine-ai-powered-drones

27 https://www.derstandard.de/story/3000000208059/nato-staaten-wollen-tausende-ki-gestuetzte-drohnen-an-die-ukraine-liefern

28 https://www.youtube.com/watch?app=desktop&v=jk3Z-MVoUg4

29 https://www.konicz.info/2022/06/23/was-ist-krisenimperialismus/

30 https://www.konicz.info/2017/11/15/kuenstliche-intelligenz-und-kapital/

31 https://www.newyorker.com/culture/infinite-scroll/your-ai-companion-will-support-you-no-matter-what

32 https://de.wikipedia.org/wiki/Tamagotchi

33 https://www.cbsnews.com/news/valentines-day-ai-companion-bot-replika-artificial-intelligence/

34 https://bladerunner.fandom.com/wiki/Joi

35 https://www.paradot.ai/

36 https://theconversation.com/ai-companions-promise-to-combat-loneliness-but-history-shows-the-dangers-of-one-way-relationships-221086

37 https://www.hellodesign.de/blog/digital-nudging

Nessun commento: