
The Preiser Project, Hacker, 2014
di Roberto Laghi *
1. Il nodo del linguaggio: IA, scrittura, creatività
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite.
L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati.
Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi.
Gran parte del successo dei chatbot e dei modelli linguistici dipende da una ragione molto evidente: sono macchine che usano il linguaggio (quasi) come noi. Fino a pochi anni fa, il linguaggio e, in particolare, la scrittura erano peculiarità umane: ogni espressione linguistica, ogni testo presupponevano l’esistenza di un essere umano con un pensiero e un’intenzione comunicativa. Ora le macchine scrivono più di noi, tanto che Matthew Kirschenbaum ha parlato di un’apocalisse testuale, «textpocalypse».
Quale sarà l’effetto su noi esseri umani? Difficile dirlo, oggi, anche se alcuni studi – che però non hanno ancora passato la peer review – sembrano dirci che usare costantemente modelli linguistici per la scrittura riduce le nostre funzionalità cognitive. Certo è, come sostengo in Scritture digitali, che ci servono nuovi strumenti concettuali e interpretativi per cogliere appieno la portata dei cambiamenti in atto.
«La digitalizzazione del mondo è una costruzione matematica», scrivono Lassègue e Longo in L’empire numérique. De l’alphabet à l’IA (Puf, 2025) e del resto «il mondo non ha alcun bisogno di essere messo in numeri» (Felice Cimatti, ∃x(fx) Logica della decisione, Cronopio, 2024) se non per renderlo contabile. In questo senso, per Lassègue e Longo l’informatica non è altro che una nuova tappa nell’evoluzione della scrittura. Ma cosa succede quanto questa scrittura è sempre più prodotta dalle macchine e ci diventa, in qualche modo, estranea? Che cosa significa questo per la nostra relazione con la scrittura e con la realtà, per l’accesso alla conoscenza, per la nostra capacità di pensare e dire (scrivere) il mondo?
«I chatbot cambiano ciò che chiunque può legittimamente aspettarsi dalla lingua», scrivono ancora Lassègue e Longo. Justin Joque ci ricorda inoltre che la scrittura informatica propria, la programmazione, è probabilmente l’esempio più evidente della différance derridiana: il filosofo francese Jacques Derrida sosteneva che nessuno scrive in un linguaggio di cui ha il completo controllo e questo, oggi, sembra valere ancora di più per i linguaggi di programmazione, in particolare di sistemi complessi come l’intelligenza artificiale, su cui gli stessi informatici che li sviluppano non sono in grado di avere il pieno controllo.
La produzione automatizzata di scrittura e l’opacità crescente dei sistemi informatici sembrano avere inoltre come conseguenza una de-alfabetizzazione collettiva, derivante dal fatto che il codice informatico è illeggibile per la maggior parte delle persone, oltre che nascosto intenzionalmente dai dispositivi di uso comune. Su questa colossale opera di scrittura e riscrittura che è il digitale per come sviluppato oggi, noi abbiamo sempre meno controllo, a maggior ragione quando questi sistemi sono presentati come soluzioni rapide e funzionali per produrre lavori creativi.
Il senso del creare arte sta nel percorso che ci porta a un determinato risultato, sta nel corpo a corpo con gli strumenti che usiamo, con i nostri limiti, con il contesto in cui ci troviamo e con la capacità di rielaborare gli elementi culturali in cui siamo immersi e che, giocoforza, influenzano il nostro sentire, il nostro pensare, il nostro creare. Delegare a una macchina queste funzioni può andare bene per generare immagini o testi pubblicitari, forse, oppure noiosi report aziendali che nessuno leggerà, perché rientrano in quei bullshit jobs così ben descritti da David Graeber. Altra faccenda, per esempio, delegare la letteratura. La letteratura non è l’output generato da un prompt rivolto a un sistema più o meno bravo a produrre testo su base probabilistica, la letteratura è un processo, è una questione di comunità e di corpi, di condivisione, come ha spiegato molto bene Wu Ming 1.
C’è una crescente rabbia nei confronti degli strumenti di IA, come dimostrano anche le reazioni indignate davanti ad autori e autrici accusati di aver fatto uso di modelli linguistici per la realizzazione delle proprie opere, come nel recente caso del romanzo Shy girl, ritirato dal mercato. In questo senso, l’IA si presenta come una scorciatoia per un potenziale successo facile: ancora una volta i criteri sembrano più legati a produttività e mercato che all’interesse per l’espressione artistica sulla condizione umana.
La sensazione è che spesso ci troviamo davanti a un riflesso pavloviano, un automatismo che passa da «tecnicamente si può fare» ad «allora si fa» senza nessuna riflessione critica nel mezzo. Viene in mente, a questo proposito, il caso della funzione Expert Review introdotta dalla piattaforma di scrittura assistita Grammarly: questa funzione generava suggerimenti editoriali presentandoli come se provenissero da autori e autrici note, tra cui Stephen King, bell hooks e Carl Sagan. La reazione all’introduzione di Expert Review è stata molto dura – e include anche una class action negli Stati Uniti – e c’è chi ha coniato il termine «sloppelgänger» per questo prodotto di Grammarly, sottolineando il fatto che la sbobba IA fosse attribuita a persone autorevoli.
Ancora una volta siamo di fronte a una logica estrattiva, la stessa che è alla base di tutti questi sistemi: prendere senza autorizzazione testi, immagini, creazioni artistiche, privatizzarli e rivenderli come servizio ai consumatori. Il motto della Silicon Valley «move fast and break things» sembra essersi ormai esteso alla società intera e non sembra esserci altra ragione che il profitto e la concentrazione del potere.
2. Travolti dal digitale?
Negli ultimi vent’anni siamo stati travolti da nuovi servizi e nuove applicazioni, nuovi dispositivi e nuove piattaforme a una velocità tale che non ci ha lasciato il tempo di riflettere, di metabolizzare quest’ondata. All’inizio sembrava un’ubriacatura, di quelle grosse ma prese bene: pubblicare e condividere video gratis, wow! Gli smartphone, che spettacolo! I social media, posso esprimermi come voglio e rimanere in contatto con tutti, bellissimo! Un mondo percepito come magico, inevitabile e meraviglioso era a portata di polpastrello, una rivoluzione che appariva democratizzante, quasi liberatoria: le nostre vite sarebbero migliorate, diventate più facili e ricche…
La sensazione, oggi, è che quella sbronza non sia mai passata, ma che a essa si siano affiancati, allo stesso tempo, i postumi e che, inoltre, siamo sempre al lavoro. Ci troviamo così – e il noi plurale si riferisce alla società intera – entusiasti e storditi, eccitati come bambini in un negozio di giocattoli dove tutto sembra gratis, e allo stesso tempo con il fastidioso mal di testa e il costante sfinimento dato dal sovraccarico cognitivo che deriva dall’essere connessi 24 ore su 24, dal flusso di notifiche e notizie in tempo reale, dall’imperativo alla partecipazione a cui sembra non ci possiamo sottrarre, dall’accelerazione del nostro vivere a cui il digitale ha contribuito in misura significativa.
Non solo: sembra che le cose possano andare solo così. Non è un caso che il determinismo tecnologico sia una delle idee che le aziende spingono di più per convincerci che quello che fanno segue il corso inevitabile del progresso e a noi non resta che adattarci: molto del marketing intorno alla cosiddetta «intelligenza artificiale» gira proprio intorno a questo e, noi, ci dicono, o saltiamo sul treno in corsa o saremo esclusi – da tutto, o quasi. Ma, come sottolinea l’artista e ricercatrice Hito Steyerl nel suo Medium Hot (Timeo, 2025), le tre fallacie più significative sul progresso tecnologico sono che sia «inevitabile, automatico e che beneficerà tutti». Niente di più lontano dal vero.
La tecnologia non è neutra. Dietro a ogni dispositivo e ogni servizio ci sono aziende con obiettivi precisi, che poi si riducono a uno: massimizzare i profitti. Aziende fatte di persone che, a loro volta, hanno visioni del mondo e agiscono all’interno di un contesto anch’esso permeato da elementi economici, storici, sociali che concorrono alla progettazione dei prodotti che finiscono sul mercato. Questi elementi ideologici condizionano quindi la nostra esperienza, la nostra relazione con la realtà e la nostra visione del mondo, spesso senza che ce ne accorgiamo nemmeno, perché sono incorporati nei servizi e nei dispositivi che usiamo. In altre parole, ogni tecnologia, prima ancora di essere tecnologica, è situata storicamente, economicamente, socialmente.
Questi elementi ideologici sono pienamente visibili da tempo: l’allineamento (finanziario e operativo) dei giganti della Silicon Valley al potere assoluto di Trump; il recente «manifesto» di Palantir, da più parti definito «tecnofascista»; le dichiarazioni del CEO di Palantir Alex Karp, secondo cui l’automazione portata dall’IA colpirà soprattutto l’elettorato democratico e le donne in particolare, e del suo socio Peter Thiel sull’«anticristo»; per non dire delle sparate a cui Elon Musk ci ha abituato nel tempo.
3. IA, agenda neoliberale e speculazione finanziaria
Chiariamo una cosa: ci sono applicazioni delle tecnologie che vengono promosse e vendute sotto il termine di «intelligenza artificiale» che hanno un’utilità concreta, come i sistemi usati in ambito medico, per esempio, che sono addestrati in modo preciso e puntuale per essere di aiuto ai professionisti che operano negli ospedali, così come strumenti per l’analisi di grandi quantità di dati.
Quando invece parliamo di intelligenza artificiale «generativa» – come per esempio i modelli linguistici tipo ChatGPT o Gemini o quelli di immagine come Midjourney o DALL-E – le cose cambiano. Come spiegano molto bene Emily M. Bender e Alex Hanna in L’inganno dell’intelligenza artificiale (Fazi, 2026), pensare che un generatore statistico di testo che, ricordiamolo, non ha e non può avere accesso al senso della scrittura, possa sostituire un essere umano in ambito educativo, sanitario o culturale è solo un altro modo per dire che l’obiettivo è tagliare i costi, a prescindere dalla qualità del servizio che ne risulterà, perché la qualità del servizio non interessa, come abbiamo già potuto osservare in decenni di tagli al settore pubblico (sanità, educazione, trasporti…), in piena applicazione del manuale del pensiero neoliberale.
Il fatto che OpenAI, Anthropic, Alphabet (la casa madre di Google) e Microsoft spingano senza tregua per far adottare i loro modelli in ogni ambito è molto semplice: stanno perdendo un sacco di soldi.
Queste tecnologie hanno costi altissimi, in termini di investimento in capacità di calcolo (CPU e data center) e di consumo di energia e di acqua e non permettono di guadagnare abbastanza perché non c’è un modello di business che funzioni. Gli aspetti economici della bolla speculativa intorno all’IA ricordano molto da vicino quelli della crisi dei subprime che ha fatto tremare gli Stati Uniti e, a catena, l’economia globale alla fine degli anni Zero. Le aziende stanno disperatamente cercando di far tornare i conti e sono in tanti a pensare che questa ennesima bolla tecnologica speculativa stia per scoppiare. Ma intanto, per citare ancora Steyerl, «in assenza di una killer app, il settore ripiega sulle killer app originarie: le armi».
4. Un excursus su IA e guerra
Sul campo di battaglia la combinazione tra sistemi predittivi e sistemi conversazionali è già una realtà – per esempio a Gaza e in Iran – come ben racconta Andrea Daniele Signorelli su Guerre di rete. L’uso dell’IA in ambito bellico consente un’accelerazione significativa nell’identificazione dei possibili obiettivi e nella conseguente esecuzione degli attacchi. Ma questa velocità complica l’individuazione della responsabilità e riduce il ruolo dell’umano. Se, per ora, ci sono ancora degli umani che valutano gli output dell’IA e prendono decisioni, in futuro il settore si muoverà verso sistemi completamente automatizzati?
È in questo contesto che si inserisce lo scontro tra Anthropic, che produce il modello linguistico Claude, e il Pentagono: Claude era infatti già integrato in Maven, un sistema usato dall’esercito statunitense per analizzare, comparare e incrociare informazioni di intelligence in modo automatico, prodotto da Palantir dopo che Google aveva abbandonato il progetto a causa delle proteste dei suoi dipendenti. Anthropic aveva dichiarato che il suo modello linguistico non avrebbe dovuto essere utilizzato per armi completamente autonome né per la sorveglianza di massa a livello nazionale. Peter Hegseth, segretario della difesa USA, aveva chiesto la rimozione di questi limiti di sicurezza e, davanti al rifiuto di Anthropic, l’azienda è stata dichiarata «supply chain risk to national security» ed esclusa dai contratti militari. OpenAI è stata ben felice di prendere il suo posto.
L’IA è stata anche al centro di un’altra questione legata alla guerra contro l’Iran, in particolare: il bombardamento della scuola a Minab, che ha ucciso 156 civili, di cui 120 erano bambine. La responsabilità di questa strage di civili è stata più volte attribuita all’IA ma una macchina non può essere ritenuta responsabile e, come spiega Kevin T Baker sul Guardian, la situazione è molto più complessa:
«Qualcuno ha deciso di accorciare il processo decisionale che porta alle uccisioni. Qualcuno ha deciso che prendere tempo per la riflessione equivaleva a essere troppo lenti. Qualcuno ha deciso di creare un sistema in grado di generare 1.000 decisioni all’ora sui bersagli da colpire e di definirle di alta qualità. Qualcuno ha deciso di dare inizio a questa guerra».
Questo non è un problema di IA, è un problema strutturale e culturale, politico, l’IA è “solo” lo strumento perfetto nelle mani di chi incarna questo problema. Non a caso Dan McQuillan parla dell’IA come di qualcosa che «amplifica l’austerità» e «favorisce politiche autoritarie». Il software è un meccanismo ideologico e l’intelligenza artificiale è (anche) al servizio della guerra.
L’uso militare dei sistemi di IA, o di loro variazioni o integrazioni, e la propaganda sulla democratizzazione dell’arte e della creatività sono, evidentemente, due facce della stessa medaglia e rendono chiaro quanto l’intelligenza artificiale, per come è sviluppata e venduta al giorno d’oggi, sia una forza tecnologica sostanzialmente reazionaria, quando non direttamente fascista. Lo illustra in maniera articolata il già citato McQuillan nel suo Resisting AI. An Antifascist Approach to Artificial Intelligence (Bristol University Press, 2022).
5. Per una critica radicale dell’IA e dei suoi presupposti ideologici
Se c’è una risonanza tra l’IA e l’emergere di soluzioni fasciste ai problemi sociali, come sostiene McQuillan, è anche perché tutto viene ridotto a misura, a calcolo, e questi meccanismi computazionali non possono che riprodurre sistemi di ingiustizia perché sono basati su dati prodotti da società basate su ingiustizie strutturali e, per di più, sono indifferenti alla causalità.
Il mondo datificato, inoltre, rimane separato dalla dimensione di continuità dell’esperienza, e il ricorso massiccio e operativo all’uso di grandi quantità di dati ha le sue radici nella discriminazione razziale e nell’eugenetica, come dimostrano sia il già citato lavoro di Bender e Hanna, che quello di Anita Say Chan (in particolare Predatory Data. Eugenics in Big Tech and Our Fight for an Independent Future, University of California Press, 2025), e non fa altro che riprodurre modelli esistenti, incorporandoli nel calcolo:
«Nel processo di creazione di identità datificate, l’IA e i sistemi che si basano sui big data non si limitano a concretizzare una “realtà” sulla base di passate nozioni di differenza, ma riducono anche le diverse esperienze incarnate e vissute dagli individui solamente a quelle componenti che possono essere velocemente rese leggibili e sensate per i sistemi basati sui dati. La chiave dei processi basati sui dati predatori, quindi, risiede non solo nella capacità di manipolare le identità umane individuali attraverso l’assegnazione di etichette predeterminate, ma anche nella capacità di manipolare le relazioni umane attraverso raggruppamenti classificatori che codificano le relazioni sociali “passate” e di automatizzare la riproduzione delle gerarchie sociali esistenti nel “futuro” delle relazioni nel mondo reale.»
Ottimizzare, velocizzare, aumentare la performatività, in guerra come nella gestione della vita politica e sociale. Ridurre a categorie computabili, etichettare, mettere sul mercato, plasmare il futuro sul passato. Questo sembra essere l’obiettivo embedded nei dispositivi tecnologici basati su IA e big data. E chi non rientra nella produttività e nella computabilità? Viene scartato, attraverso l’applicazione automatizzata di sistemi di discriminazione preesistenti.
Non è un caso che tra i principali sostenitori dell’IA ci siano tanti – uomini, bianchi, occidentali – che sposano ideologie di estrema destra, caratterizzate anche da un forte, bianchissimo, pro-natalismo. L’IA «agisce come una presa di potere epistemica che nasconde politica e ideologia sotto la sua opacità macchinica», scrive ancora McQuillan e forse non è un caso nemmeno che l’IA emerga proprio in un momento in cui l’ordine neoliberale dominante sembra in crisi, e questo riporta, in un circolo vizioso necropolitico, alla virata militare e tecno-sicuritaria nell’azione dei governi. Del resto, questa IA in qualche modo bisognerà pur usarla, no?
6. Costruiamo un futuro tecnologico diverso
Davanti a uno scenario così inquietante, quale spazio rimane per pensare e costruire un presente e un futuro tecnologico diversi? Soprattutto se consideriamo che il digitale viene spesso accettato per come ci è proposto dalle grandi aziende tech, senza alcuna messa in discussione critica, non di rado anche in ambiente militante, dove l’uso dei recinti proprietari come Instagram, Facebook e Gmail sembra essere ancora dominante.
Perché le scelte critiche relative al consumo non valgono anche per la tecnologia? Io faccio spesso l’esempio del bar all’angolo che fa un ottimo caffè: ci andiamo perché il caffè è molto buono, appunto, ma se scoprissimo che il gestore finanzia gruppuscoli fascisti e partecipa a ronde e aggressioni razziste, omofobe e transfobiche, continueremmo a prendere il caffè nel suo bar? Credo di no. E allora perché continuiamo a usare piattaforme e app di aziende che fanno esattamente queste cose, per di più su scala globale e con un impatto devastante?
Esistono strumenti e pratiche alternative, per un digitale che nasca dai bisogni delle persone e delle comunità e che queste persone e queste comunità tuteli, che abbia un minore impatto ambientale (e cognitivo), che non sia distorto da algoritmi che creano dipendenza né riempito di inutile sbobba fatta con l’IA. Il primo passo, più che mai necessario, è costruire una grande alfabetizzazione digitale critica, partendo dal basso, dal nostro vissuto e dall’alienazione che tutte e tutti viviamo a causa della pervasività spesso tossica che dispositivi e servizi commerciali portano con sé.
L’alfabetizzazione digitale permetterebbe di contrastare quello che Lassègue e Longo definiscono una specie di ritorno a una società di scribi, una classe oggi rappresentata da programmatori e informatici, in cui il sapere non è diffuso perché in pochissimi hanno accesso al codice informatico e lo possono capire.
Tutte le persone dovrebbero essere in grado di capire il funzionamento delle macchine, di vedere cosa succede al loro interno e di essere consapevoli di come condizionano la nostra relazione con il mondo e con gli altri (e pure con noi stessi, visto il ruolo da “psicologi” di cui sempre più spesso vengono investiti i chatbot).
Il lavoro di gruppi come C.I.R.C.E. e la loro pedagogia hacker sono un passo fondamentale in questa direzione: mostrare e smontare gli automatismi, farlo collettivamente e a partire dal vissuto delle persone, imparare insieme a leggere interfacce e piattaforme per come sono progettate e per quello che ci chiedono/impongono, problematizzare la nostra relazione con i dispositivi.
Contrastare l’imperativo funzionale e preferire l’attrito o il bug alla fluidità dell’esperienza senza intoppi, perché è lì che si apre la possibilità di rallentare, di attivare uno sguardo critico e comprendere cosa sta succedendo. Anche nell’accesso all’informazione l’attrito è importante, come ci ricordano Bender e Hanna, perché ci spinge a verificare e a confrontare fonti, ad attivare la nostra attenzione critica.
Questa ricerca dell’attrito, dell’errore, dell’uso improprio e non produttivo può essere portata avanti in campo artistico, come raccontano bene il lavoro di Valentina Tanni (in particolare in Antimacchine. Mancare di rispetto alla tecnologia, Einaudi, 2025) e le pratiche di «unreal data, real effects» raccolte e presentate da Aksioma. O ancora tramite azioni di sabotaggio algoritmico, che puntano a confondere, rallentare o impedire l’accaparramento di testi e immagini da parte dei crawler delle aziende di intelligenza artificiale.
In questi approcci critici rientrano anche le lotte contro la costruzione di centri dati, sempre più diffuse a livello globale, così come la possibilità di rifiutarsi di usare certi servizi o certe piattaforme. Le alternative per app e software di uso quotidiano esistono già, esistono anche liste di app e software alternativi creati all’interno dell’Unione Europea che, nonostante i tanti problemi e le tante battaglie su cui non dobbiamo abbassare la guardia, ha standard molto più altidel resto del mondo per quanto riguarda la protezione dei dati personali e i diritti degli utenti.
Davanti al gigantesco potere economico e politico di Big Tech e, in particolare, alla bolla attuale dell’intelligenza artificiale, può sembrare che ci sia poco margine di azione, ma organizzarsi e resistere è possibile e forse è arrivato il momento, per usare ancora le parole di Hito Steyerl, di «disabituarci a un sistema basato su molteplici forme di estorsione ed estrazione» e rivendicare forme di libertà nelle nostre società digitali.
__
* Roberto Laghi è ricercatore indipendente, traduttore e sound artist. Per Meltemi ha pubblicato Scritture digitali. Dai social media all’IA e all’editing genetico (2025) e di recente ha tradotto L’inganno dell’intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo di Emily M. Bender e Alex Hanna (Fazi, 2026). È stato tra i cofondatori di Information Guerrilla, punto di riferimento dell’informazione indipendente italiana nei primi anni Zero. È tra i membri fondatori del collettivo Socialini, che si occupa di educazione critica al digitale, ed è una delle voci della trasmissione Hack or Die su Radio Città Fujiko.


Scarica questo articolo in formato ebook (ePub o Kindle)

