Oltre gli schermi: scrittura, IA e resistenze tecnologiche

The Preiser Project, Hacker, 2014

di Roberto Laghi *

1. Il nodo del linguaggio: IA, scrittura, creatività

Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite.

L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati.

Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi.

Gran parte del successo dei chatbot e dei modelli linguistici dipende da una ragione molto evidente: sono macchine che usano il linguaggio (quasi) come noi. Fino a pochi anni fa, il linguaggio e, in particolare, la scrittura erano peculiarità umane: ogni espressione linguistica, ogni testo presupponevano l’esistenza di un essere umano con un pensiero e un’intenzione comunicativa. Ora le macchine scrivono più di noi, tanto che Matthew Kirschenbaum ha parlato di un’apocalisse testuale, «textpocalypse».

Quale sarà l’effetto su noi esseri umani? Difficile dirlo, oggi, anche se alcuni studi – che però non hanno ancora passato la peer review – sembrano dirci che usare costantemente modelli linguistici per la scrittura riduce le nostre funzionalità cognitive. Certo è, come sostengo in Scritture digitali, che ci servono nuovi strumenti concettuali e interpretativi per cogliere appieno la portata dei cambiamenti in atto.

«La digitalizzazione del mondo è una costruzione matematica», scrivono Lassègue e Longo in L’empire numérique. De l’alphabet à l’IA (Puf, 2025) e del resto «il mondo non ha alcun bisogno di essere messo in numeri» (Felice Cimatti, ∃x(fx) Logica della decisione, Cronopio, 2024) se non per renderlo contabile. In questo senso, per Lassègue e Longo l’informatica non è altro che una nuova tappa nell’evoluzione della scrittura. Ma cosa succede quanto questa scrittura è sempre più prodotta dalle macchine e ci diventa, in qualche modo, estranea? Che cosa significa questo per la nostra relazione con la scrittura e con la realtà, per l’accesso alla conoscenza, per la nostra capacità di pensare e dire (scrivere) il mondo?

«I chatbot cambiano ciò che chiunque può legittimamente aspettarsi dalla lingua», scrivono ancora Lassègue e Longo. Justin Joque ci ricorda inoltre che la scrittura informatica propria, la programmazione, è probabilmente l’esempio più evidente della différance derridiana: il filosofo francese Jacques Derrida sosteneva che nessuno scrive in un linguaggio di cui ha il completo controllo e questo, oggi, sembra valere ancora di più per i linguaggi di programmazione, in particolare di sistemi complessi come l’intelligenza artificiale, su cui gli stessi informatici che li sviluppano non sono in grado di avere il pieno controllo.

La produzione automatizzata di scrittura e l’opacità crescente dei sistemi informatici sembrano avere inoltre come conseguenza una de-alfabetizzazione collettiva, derivante dal fatto che il codice informatico è illeggibile per la maggior parte delle persone, oltre che nascosto intenzionalmente dai dispositivi di uso comune. Su questa colossale opera di scrittura e riscrittura che è il digitale per come sviluppato oggi, noi abbiamo sempre meno controllo, a maggior ragione quando questi sistemi sono presentati come soluzioni rapide e funzionali per produrre lavori creativi.

Il senso del creare arte sta nel percorso che ci porta a un determinato risultato, sta nel corpo a corpo con gli strumenti che usiamo, con i nostri limiti, con il contesto in cui ci troviamo e con la capacità di rielaborare gli elementi culturali in cui siamo immersi e che, giocoforza, influenzano il nostro sentire, il nostro pensare, il nostro creare. Delegare a una macchina queste funzioni può andare bene per generare immagini o testi pubblicitari, forse, oppure noiosi report aziendali che nessuno leggerà, perché rientrano in quei bullshit jobs così ben descritti da David Graeber. Altra faccenda, per esempio, delegare la letteratura. La letteratura non è l’output generato da un prompt rivolto a un sistema più o meno bravo a produrre testo su base probabilistica, la letteratura è un processo, è una questione di comunità e di corpi, di condivisione, come ha spiegato molto bene Wu Ming 1.

Rage Against The Machine Learning.

C’è una crescente rabbia nei confronti degli strumenti di IA, come dimostrano anche le reazioni indignate davanti ad autori e autrici accusati di aver fatto uso di modelli linguistici per la realizzazione delle proprie opere, come nel recente caso del romanzo Shy girl, ritirato dal mercato. In questo senso, l’IA si presenta come una scorciatoia per un potenziale successo facile: ancora una volta i criteri sembrano più legati a produttività e mercato che all’interesse per l’espressione artistica sulla condizione umana.

La sensazione è che spesso ci troviamo davanti a un riflesso pavloviano, un automatismo che passa da «tecnicamente si può fare» ad «allora si fa» senza nessuna riflessione critica nel mezzo. Viene in mente, a questo proposito, il caso della funzione Expert Review introdotta dalla piattaforma di scrittura assistita Grammarly: questa funzione generava suggerimenti editoriali presentandoli come se provenissero da autori e autrici note, tra cui Stephen King, bell hooks e Carl Sagan. La reazione all’introduzione di Expert Review è stata molto dura – e include anche una class action negli Stati Uniti – e c’è chi ha coniato il termine «sloppelgänger» per questo prodotto di Grammarly, sottolineando il fatto che la sbobba IA fosse attribuita a persone autorevoli.

Ancora una volta siamo di fronte a una logica estrattiva, la stessa che è alla base di tutti questi sistemi: prendere senza autorizzazione testi, immagini, creazioni artistiche, privatizzarli e rivenderli come servizio ai consumatori. Il motto della Silicon Valley «move fast and break things» sembra essersi ormai esteso alla società intera e non sembra esserci altra ragione che il profitto e la concentrazione del potere.

2. Travolti dal digitale?

Negli ultimi vent’anni siamo stati travolti da nuovi servizi e nuove applicazioni, nuovi dispositivi e nuove piattaforme a una velocità tale che non ci ha lasciato il tempo di riflettere, di metabolizzare quest’ondata. All’inizio sembrava un’ubriacatura, di quelle grosse ma prese bene: pubblicare e condividere video gratis, wow! Gli smartphone, che spettacolo! I social media, posso esprimermi come voglio e rimanere in contatto con tutti, bellissimo! Un mondo percepito come magico, inevitabile e meraviglioso era a portata di polpastrello, una rivoluzione che appariva democratizzante, quasi liberatoria: le nostre vite sarebbero migliorate, diventate più facili e ricche…

La sensazione, oggi, è che quella sbronza non sia mai passata, ma che a essa si siano affiancati, allo stesso tempo, i postumi e che, inoltre, siamo sempre al lavoro. Ci troviamo così – e il noi plurale si riferisce alla società intera – entusiasti e storditi, eccitati come bambini in un negozio di giocattoli dove tutto sembra gratis, e allo stesso tempo con il fastidioso mal di testa e il costante sfinimento dato dal sovraccarico cognitivo che deriva dall’essere connessi 24 ore su 24, dal flusso di notifiche e notizie in tempo reale, dall’imperativo alla partecipazione a cui sembra non ci possiamo sottrarre, dall’accelerazione del nostro vivere a cui il digitale ha contribuito in misura significativa.

Medium HotNon solo: sembra che le cose possano andare solo così. Non è un caso che il determinismo tecnologico sia una delle idee che le aziende spingono di più per convincerci che quello che fanno segue il corso inevitabile del progresso e a noi non resta che adattarci: molto del marketing intorno alla cosiddetta «intelligenza artificiale» gira proprio intorno a questo e, noi, ci dicono, o saltiamo sul treno in corsa o saremo esclusi – da tutto, o quasi. Ma, come sottolinea l’artista e ricercatrice Hito Steyerl nel suo Medium Hot (Timeo, 2025), le tre fallacie più significative sul progresso tecnologico sono che sia «inevitabile, automatico e che beneficerà tutti». Niente di più lontano dal vero.

La tecnologia non è neutra. Dietro a ogni dispositivo e ogni servizio ci sono aziende con obiettivi precisi, che poi si riducono a uno: massimizzare i profitti. Aziende fatte di persone che, a loro volta, hanno visioni del mondo e agiscono all’interno di un contesto anch’esso permeato da elementi economici, storici, sociali che concorrono alla progettazione dei prodotti che finiscono sul mercato. Questi elementi ideologici condizionano quindi la nostra esperienza, la nostra relazione con la realtà e la nostra visione del mondo, spesso senza che ce ne accorgiamo nemmeno, perché sono incorporati nei servizi e nei dispositivi che usiamo. In altre parole, ogni tecnologia, prima ancora di essere tecnologica, è situata storicamente, economicamente, socialmente.

Questi elementi ideologici sono pienamente visibili da tempo: l’allineamento (finanziario e operativo) dei giganti della Silicon Valley al potere assoluto di Trump; il recente «manifesto» di Palantir, da più parti definito «tecnofascista»; le dichiarazioni del CEO di Palantir Alex Karp, secondo cui l’automazione portata dall’IA colpirà soprattutto l’elettorato democratico e le donne in particolare, e del suo socio Peter Thiel sull’«anticristo»; per non dire delle sparate a cui Elon Musk ci ha abituato nel tempo.

3. IA, agenda neoliberale e speculazione finanziaria

Chiariamo una cosa: ci sono applicazioni delle tecnologie che vengono promosse e vendute sotto il termine di «intelligenza artificiale» che hanno un’utilità concreta, come i sistemi usati in ambito medico, per esempio, che sono addestrati in modo preciso e puntuale per essere di aiuto ai professionisti che operano negli ospedali, così come strumenti per l’analisi di grandi quantità di dati.

L'inganno dell'intelligenza artificialeQuando invece parliamo di intelligenza artificiale «generativa» – come per esempio i modelli linguistici tipo ChatGPT o Gemini o quelli di immagine come Midjourney o DALL-E – le cose cambiano. Come spiegano molto bene Emily M. Bender e Alex Hanna in L’inganno dell’intelligenza artificiale (Fazi, 2026), pensare che un generatore statistico di testo che, ricordiamolo, non ha e non può avere accesso al senso della scrittura, possa sostituire un essere umano in ambito educativo, sanitario o culturale è solo un altro modo per dire che l’obiettivo è tagliare i costi, a prescindere dalla qualità del servizio che ne risulterà, perché la qualità del servizio non interessa, come abbiamo già potuto osservare in decenni di tagli al settore pubblico (sanità, educazione, trasporti…), in piena applicazione del manuale del pensiero neoliberale.

Il fatto che OpenAI, Anthropic, Alphabet (la casa madre di Google) e Microsoft spingano senza tregua per far adottare i loro modelli in ogni ambito è molto semplice: stanno perdendo un sacco di soldi.

Queste tecnologie hanno costi altissimi, in termini di investimento in capacità di calcolo (CPU e data center) e di consumo di energia e di acqua e non permettono di guadagnare abbastanza perché non c’è un modello di business che funzioni. Gli aspetti economici della bolla speculativa intorno all’IA ricordano molto da vicino quelli della crisi dei subprime che ha fatto tremare gli Stati Uniti e, a catena, l’economia globale alla fine degli anni Zero. Le aziende stanno disperatamente cercando di far tornare i conti e sono in tanti a pensare che questa ennesima bolla tecnologica speculativa stia per scoppiare. Ma intanto, per citare ancora Steyerl, «in assenza di una killer app, il settore ripiega sulle killer app originarie: le armi».

4. Un excursus su IA e guerra

Sul campo di battaglia la combinazione tra sistemi predittivi e sistemi conversazionali è già una realtà – per esempio a Gaza e in Iran – come ben racconta Andrea Daniele Signorelli su Guerre di rete. L’uso dell’IA in ambito bellico consente un’accelerazione significativa nell’identificazione dei possibili obiettivi e nella conseguente esecuzione degli attacchi. Ma questa velocità complica l’individuazione della responsabilità e riduce il ruolo dell’umano. Se, per ora, ci sono ancora degli umani che valutano gli output dell’IA e prendono decisioni, in futuro il settore si muoverà verso sistemi completamente automatizzati?

È in questo contesto che si inserisce lo scontro tra Anthropic, che produce il modello linguistico Claude, e il Pentagono: Claude era infatti già integrato in Maven, un sistema usato dall’esercito statunitense per analizzare, comparare e incrociare informazioni di intelligence in modo automatico, prodotto da Palantir dopo che Google aveva abbandonato il progetto a causa delle proteste dei suoi dipendenti. Anthropic aveva dichiarato che il suo modello linguistico non avrebbe dovuto essere utilizzato per armi completamente autonome né per la sorveglianza di massa a livello nazionale. Peter Hegseth, segretario della difesa USA, aveva chiesto la rimozione di questi limiti di sicurezza e, davanti al rifiuto di Anthropic, l’azienda è stata dichiarata «supply chain risk to national security» ed esclusa dai contratti militari. OpenAI è stata ben felice di prendere il suo posto.

L’IA è stata anche al centro di un’altra questione legata alla guerra contro l’Iran, in particolare: il bombardamento della scuola a Minab, che ha ucciso 156 civili, di cui 120 erano bambine. La responsabilità di questa strage di civili è stata più volte attribuita all’IA ma una macchina non può essere ritenuta responsabile e, come spiega Kevin T Baker sul Guardian, la situazione è molto più complessa:

«Qualcuno ha deciso di accorciare il processo decisionale che porta alle uccisioni. Qualcuno ha deciso che prendere tempo per la riflessione equivaleva a essere troppo lenti. Qualcuno ha deciso di creare un sistema in grado di generare 1.000 decisioni all’ora sui bersagli da colpire e di definirle di alta qualità. Qualcuno ha deciso di dare inizio a questa guerra».

Resisting AIQuesto non è un problema di IA, è un problema strutturale e culturale, politico, l’IA è “solo” lo strumento perfetto nelle mani di chi incarna questo problema. Non a caso Dan McQuillan parla dell’IA come di qualcosa che «amplifica l’austerità» e «favorisce politiche autoritarie». Il software è un meccanismo ideologico e l’intelligenza artificiale è (anche) al servizio della guerra.

L’uso militare dei sistemi di IA, o di loro variazioni o integrazioni, e la propaganda sulla democratizzazione dell’arte e della creatività sono, evidentemente, due facce della stessa medaglia e rendono chiaro quanto l’intelligenza artificiale, per come è sviluppata e venduta al giorno d’oggi, sia una forza tecnologica sostanzialmente reazionaria, quando non direttamente fascista. Lo illustra in maniera articolata il già citato McQuillan nel suo Resisting AI. An Antifascist Approach to Artificial Intelligence (Bristol University Press, 2022).

5. Per una critica radicale dell’IA e dei suoi presupposti ideologici

Se c’è una risonanza tra l’IA e l’emergere di soluzioni fasciste ai problemi sociali, come sostiene McQuillan, è anche perché tutto viene ridotto a misura, a calcolo, e questi meccanismi computazionali non possono che riprodurre sistemi di ingiustizia perché sono basati su dati prodotti da società basate su ingiustizie strutturali e, per di più, sono indifferenti alla causalità.

Il mondo datificato, inoltre, rimane separato dalla dimensione di continuità dell’esperienza, e il ricorso massiccio e operativo all’uso di grandi quantità di dati ha le sue radici nella discriminazione razziale e nell’eugenetica, come dimostrano sia il già citato lavoro di Bender e Hanna, che quello di Anita Say Chan (in particolare Predatory Data. Eugenics in Big Tech and Our Fight for an Independent Future, University of California Press, 2025), e non fa altro che riprodurre modelli esistenti, incorporandoli nel calcolo:

«Nel processo di creazione di identità datificate, l’IA e i sistemi che si basano sui big data non si limitano a concretizzare una “realtà” sulla base di passate nozioni di differenza, ma riducono anche le diverse esperienze incarnate e vissute dagli individui solamente a quelle componenti che possono essere velocemente rese leggibili e sensate per i sistemi basati sui dati. La chiave dei processi basati sui dati predatori, quindi, risiede non solo nella capacità di manipolare le identità umane individuali attraverso l’assegnazione di etichette predeterminate, ma anche nella capacità di manipolare le relazioni umane attraverso raggruppamenti classificatori che codificano le relazioni sociali “passate” e di automatizzare la riproduzione delle gerarchie sociali esistenti nel “futuro” delle relazioni nel mondo reale.»

Predatory DataOttimizzare, velocizzare, aumentare la performatività, in guerra come nella gestione della vita politica e sociale. Ridurre a categorie computabili, etichettare, mettere sul mercato, plasmare il futuro sul passato. Questo sembra essere l’obiettivo embedded nei dispositivi tecnologici basati su IA e big data. E chi non rientra nella produttività e nella computabilità? Viene scartato, attraverso l’applicazione automatizzata di sistemi di discriminazione preesistenti.

Non è un caso che tra i principali sostenitori dell’IA ci siano tanti – uomini, bianchi, occidentali – che sposano ideologie di estrema destra, caratterizzate anche da un forte, bianchissimo, pro-natalismo. L’IA «agisce come una presa di potere epistemica che nasconde politica e ideologia sotto la sua opacità macchinica», scrive ancora McQuillan e forse non è un caso nemmeno che l’IA emerga proprio in un momento in cui l’ordine neoliberale dominante sembra in crisi, e questo riporta, in un circolo vizioso necropolitico, alla virata militare e tecno-sicuritaria nell’azione dei governi. Del resto, questa IA in qualche modo bisognerà pur usarla, no?

6. Costruiamo un futuro tecnologico diverso

Davanti a uno scenario così inquietante, quale spazio rimane per pensare e costruire un presente e un futuro tecnologico diversi? Soprattutto se consideriamo che il digitale viene spesso accettato per come ci è proposto dalle grandi aziende tech, senza alcuna messa in discussione critica, non di rado anche in ambiente militante, dove l’uso dei recinti proprietari come Instagram, Facebook e Gmail sembra essere ancora dominante.

Perché le scelte critiche relative al consumo non valgono anche per la tecnologia? Io faccio spesso l’esempio del bar all’angolo che fa un ottimo caffè: ci andiamo perché il caffè è molto buono, appunto, ma se scoprissimo che il gestore finanzia gruppuscoli fascisti e partecipa a ronde e aggressioni razziste, omofobe e transfobiche, continueremmo a prendere il caffè nel suo bar? Credo di no. E allora perché continuiamo a usare piattaforme e app di aziende che fanno esattamente queste cose, per di più su scala globale e con un impatto devastante?

Esistono strumenti e pratiche alternative, per un digitale che nasca dai bisogni delle persone e delle comunità e che queste persone e queste comunità tuteli, che abbia un minore impatto ambientale (e cognitivo), che non sia distorto da algoritmi che creano dipendenza né riempito di inutile sbobba fatta con l’IA. Il primo passo, più che mai necessario, è costruire una grande alfabetizzazione digitale critica, partendo dal basso, dal nostro vissuto e dall’alienazione che tutte e tutti viviamo a causa della pervasività spesso tossica che dispositivi e servizi commerciali portano con sé.

L’alfabetizzazione digitale permetterebbe di contrastare quello che Lassègue e Longo definiscono una specie di ritorno a una società di scribi, una classe oggi rappresentata da programmatori e informatici, in cui il sapere non è diffuso perché in pochissimi hanno accesso al codice informatico e lo possono capire.

Tutte le persone dovrebbero essere in grado di capire il funzionamento delle macchine, di vedere cosa succede al loro interno e di essere consapevoli di come condizionano la nostra relazione con il mondo e con gli altri (e pure con noi stessi, visto il ruolo da “psicologi” di cui sempre più spesso vengono investiti i chatbot).

Pedagogia HackerIl lavoro di gruppi come C.I.R.C.E. e la loro pedagogia hacker sono un passo fondamentale in questa direzione: mostrare e smontare gli automatismi, farlo collettivamente e a partire dal vissuto delle persone, imparare insieme a leggere interfacce e piattaforme per come sono progettate e per quello che ci chiedono/impongono, problematizzare la nostra relazione con i dispositivi.

Contrastare l’imperativo funzionale e preferire l’attrito o il bug alla fluidità dell’esperienza senza intoppi, perché è lì che si apre la possibilità di rallentare, di attivare uno sguardo critico e comprendere cosa sta succedendo. Anche nell’accesso all’informazione l’attrito è importante, come ci ricordano Bender e Hanna, perché ci spinge a verificare e a confrontare fonti, ad attivare la nostra attenzione critica.

Questa ricerca dell’attrito, dell’errore, dell’uso improprio e non produttivo può essere portata avanti in campo artistico, come raccontano bene il lavoro di Valentina Tanni (in particolare in Antimacchine. Mancare di rispetto alla tecnologia, Einaudi, 2025) e le pratiche di «unreal data, real effects» raccolte e presentate da Aksioma. O ancora tramite azioni di sabotaggio algoritmico, che puntano a confondere, rallentare o impedire l’accaparramento di testi e immagini da parte dei crawler delle aziende di intelligenza artificiale.

Algorithmic Sabotage Manifesto. Grafica di Apsara Flury, 2025.

In questi approcci critici rientrano anche le lotte contro la costruzione di centri dati, sempre più diffuse a livello globale, così come la possibilità di rifiutarsi di usare certi servizi o certe piattaforme. Le alternative per app e software di uso quotidiano esistono già, esistono anche liste di app e software alternativi creati all’interno dell’Unione Europea che, nonostante i tanti problemi e le tante battaglie su cui non dobbiamo abbassare la guardia, ha standard molto più alti del resto del mondo per quanto riguarda la protezione dei dati personali e i diritti degli utenti.

Davanti al gigantesco potere economico e politico di Big Tech e, in particolare, alla bolla attuale dell’intelligenza artificiale, può sembrare che ci sia poco margine di azione, ma organizzarsi e resistere è possibile e forse è arrivato il momento, per usare ancora le parole di Hito Steyerl, di «disabituarci a un sistema basato su molteplici forme di estorsione ed estrazione» e rivendicare forme di libertà nelle nostre società digitali.

__

* Roberto Laghi è ricercatore indipendente, traduttore e sound artist. Per Meltemi ha pubblicato Scritture digitali. Dai social media all’IA e all’editing genetico (2025) e di recente ha tradotto L’inganno dell’intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo di Emily M. Bender e Alex Hanna (Fazi, 2026). È stato tra i cofondatori di Information Guerrilla, punto di riferimento dell’informazione indipendente italiana nei primi anni Zero. È tra i membri fondatori del collettivo Socialini, che si occupa di educazione critica al digitale, ed è una delle voci della trasmissione Hack or Die su Radio Città Fujiko.

Scarica questo articolo in formato ebook (ePub o Kindle)Scarica questo articolo in formato ebook (ePub o Kindle)

21 commenti su “Oltre gli schermi: scrittura, IA e resistenze tecnologiche

  1. […] Un post di Roberto Laghi pubblicatosu Giap che sembra perfetto per le riflessioni riguardo alle AI che sulle pagine di questo blog si stanno avvicendando in questi utimi giorni. Il consiglio è di leggerlo per intero perché colmo di spunti e argomentazioni più che interessanti: dalla produzione automatizzata della scrittura alla crescente rabbia nei confronti delle intelligenze artificiali e di ciò che stanno concretamente comportando nel mondo reale e nelle nostre sinapsi, dalla non neutralità della tecnologia al suo uso nell’industria bellica. Fino agli strumenti e alle modalità che possiamo adottare per contrastare quel determinismo tecnologico che, attraverso il marketing, vorrebbe convincerci che non ci resta altro che adattarci.Col cazzo che ci adattiamo. […]

  2. Bel pezzo, che condivido in pieno eccetto due concetti:
    1) l’ipotesi che quella dell’IA possa essere una bolla destinata a scoppiare. Il futuro è suo, perché la useremo tutti, ripagando ampiamente i costi astronomici che le aziende hi tech sostengono per svilupparla. Gli studenti la usano già dalle scuole medie, da anni non siamo più in grado di andare da A a B senza interrogare Google map, i datori di lavoro spingono ad usarla sennò si rimane indietro rispetto alla concorrenza. È uno stupefacente di cui fra un po’ almeno 5 miliardi di persone non potranno fare a meno.
    La useremo non tanto perché qualcuno ha deciso di accorciare i processi decisionali (come sostiene Kevin Beker citato nell’articolo), ma perché questo accorciamento è fondamentale nel capitalismo, dove velocità significa profitto, quindi non più “qualcuno” ma “tutti” decideranno (decideremo) che conviene accelerare.
    Il mondo datificato come specchio della discriminazione radicata nel tempo, mi fa tornare in mente un articolo apparso proprio su Giap (“favole artificiali a testa in giù”) sulla produzione di testi narrativi da parte dell’IA, a partire da uno spunto dato; il risultato erano novelle piene di pregiudizi, luoghi comuni, banalità, a uso e consumo del pensiero unico occidentale bianco. Magari questo aspetto migliorerà, ma il futuro sembra essere fatto di appiattimento e livellamento verso il basso, al quale sarà difficile per le masse non abituarsi.
    2) “Tutte le persone dovrebbero essere in grado di capire il funzionamento delle macchine”. “Contrastare l’imperativo funzionale e preferire l’attrito o il bug alla fluidità dell’esperienza senza intoppi, perché è lì che si apre la possibilità di rallentare”. Non è necessario essere ingegneri meccanici per guidare un’automobile e capire che, se guidata in un certo modo, può essere letale. Bastano spirito critico e senso di responsabilità. E alla società della velocità e dell’iperattivismo non possiamo proporre l’attrito come alternativa alla fluidità, perché essa preferirà sempre la mancanza di intoppi alla fatica.

  3. Chiedo scusa per questo secondo intervento, ma solo per lanciare uno spunto di riflessione.
    Fino a qualche tempo fa il ricercatore scriveva l’articolo scientifico, che è il coronamento di una serie di sforzi che parte dalla programmazione della linea di ricerca. Oggi il ricercatore fa gli esperimenti, raccoglie i dati, ma lascia lo sforzo intellettuale di organizzare il materiale e di scrivere il paper all’amico Claude, che è tanto più efficiente di lui in questo. Coscientemente fa si che si operi una specie di ribaltamento di ruoli, fornendo il materiale grezzo all’IA, che si occupa di nobilitarlo. Il naturale passo successivo sarà che Claude suggerirà quale linea di ricerca sviluppare. Quanto tempo passerà da qui a quando il ricercatore si chiederà chi, fra lui e Claude, è la macchina?
    Ho paura che Hito Steyerl abbia torto nell’indicare le tre fallacie, perché solo l’ultima (l’IA beneficerà tutti) è palesemente una scemenza, le altre due sono già fra noi.
    Per dirla con Strelnik, col cazzo che ci adattiamo, ma questa, temo, sarà sempre l’idea di una minoranza.

    • Sono il Roberto autore dell’articolo, rispondo qui sotto alle tue osservazioni. La questione dell’esplosione della bolla speculativa intorno all’IA è analizzata e discussa da economisti e giornalisti e, ormai, anche da alcuni capi d’azienda del settore, come una possibilità molto concreta e reale. Ieri è uscita anche un’analisi interessante su Valigia Blu (https://www.valigiablu.it/bolla-intelligenza-artificiale-costi-rischi/), che fa un po’ di conti e li mette in relazione con i dati sull’applicazione dell’IA in ambito aziendale (solo il 5% di aziende che l’hanno inserita nei loro processi ha registrato miglioramenti effettivi).

      Io credo che si possa e si debba contestare il bisogno di accelerare imposto dal capitalismo, per una ragione molto semplice: è un processo distruttore, di vite umane, di risorse, del pianeta. Non sono così ingenuo da pensare che sia un risultato a portata di mano, che sarà sposato dalle masse, ciononostante dovrebbe rimanere come obiettivo di fondo. Questo modello ci viene venduto come inevitabile e automatico ed è indubbio che siamo spinti in questa direzione, ma è possibile contrastarla e contestarla, proprio perché non è inevitabile. È chiaro, però, che sarà parecchio difficile muoversi verso tecnologie che richiedono di pensare e rallentare, come dici tu, ora che siamo stati abituati ad automatismi e bisogni indotti. Nondimeno, per me vale comunque la pena provarci, anche se sono pessimista.

      L’esempio del guidare l’automobile secondo me è applicabile solo nella misura in cui le auto oggi sono ormai ad alta tecnologia ma il digitale è una tecnologia cognitiva, che ha un impatto diretto sul nostro cervello, sul nostro modo di pensare e sulla nostra visione del mondo. La differenza con l’auto è sostanziale, e poi basta vedere quanto è poco rispettato il codice della strada (almeno qui in Italia), per capire che spirito critico e senso di responsabilità sono davvero poco usati…

  4. Ieri, domenica 26 aprile, Loredana Lipperini ha intervistato Roberto Laghi durante il suo programma settimanale su Radio 3, “Trenta minuti”. La registrazione è qui, buon ascolto.

    https://www.raiplaysound.it/audio/2026/04/Radio3-Trenta-minuti-del-26042026-b027753b-65b6-4442-8474-722fdc3eff26.html

  5. Complimenti per l’articolo che contiene molti spunti interessanti e descrive il problema in modo molto ampio. Direi che l’articolo avrebbe funzionato ugualmente anche se non avesse mai citato l’AI. Le criticità evidenziate sono ravvisabili anche in altre tecnologie. Ad esempio il fatto che una cosa fattibile debba essere fatta, é alla base anche del paradosso di Jevons. Le discussioni sull’AI sono molto utili ma spero che saranno lo spunto per ridiscutere un po’ tutto l’approccio alla tecnologia. E anche alla ricerca perché, cito un commento precedente, il fatto che nella ricerca scientifica si faccia sempre più uso di modelli linguistici parla più del mondo accademico che non dei modelli linguistici, ed è quello il vero problema.

    • Grazie. Aggiungo una piccola riflessione a partire dall’ultimo spunto che dai: in ambito lavorativo, i modelli linguistici vengono spesso usati per creare testi/mail che poi magari vengono fatti riassumere a un altro modello dal destinatario in una spirale in cui si continuano ad automatizzare scritture inutili invece di chiedersi che senso abbia produrre certi documenti. Insomma, invece che automatizzare comunicazioni e burocratizzazioni sterili e inutili, perché non eliminarle direttamente? Ma qui poi si ritorna ai “bullshit jobs” di Graeber e al fatto che dovremmo ripensare radicalmente la nostra relazione al lavoro (e alla produzione) – invece di spingere sull’acceleratore della produttività automatizzata che, non a caso, è la direzione verso cui ci vogliono spingere queste tecnologie.

      • Beh, credo che anche in questo caso la tecnologia non sia affatto neutra rispetto alla predisposizione, che pure evidentemente esiste, a lasciare andare il comando intellettuale in modalità auto-pilota. Si tratta, ancora una volta, di dispositivi che fanno leva sul peggio dell’umano e lo amplificano.

        C’è anche da dire che l’aspetto di circolarità del movimento GenAI basterebbe da solo a smontare tutto il castello di stronzate su cui lo stesso si regge. Allo stato dell’arte, molti modelli anche foundational sono allenati con dataset spesso e volentieri composti in parti significative da dati sintetici a loro volta generati da altri modelli. Il tasso di contenuti – o slop come vuole un felicissimo neologismo – generati dal AI anche sull’internet naturale sta crescendo a dismisura. E questi sono tutti dati che inevitabilmente i prossimi allenamenti andranno a ingurgitare.
        Oppure, ancora, vengono messi a punto modelli piccoli -si dice distillati- per uno o più task specifici a partire dalle risposte generate da modelli più grandi. (nota tecnico-preveggente: il caso dei modelli piccoli allenati su task specifici ha spazzato via quasi tutte le tecniche classiche di ML ed è quello che resterà con noi più a lungo, e a ben vedere, tra la gran massa di questo ciarpame).

        Un movimento che si spiralizza fino al parossismo.

        Saremmo arrivati, in altre parole, a questo capolinea dell’intelletto, dove non c’è bisogno di capire più niente, creare niente, ci basta quello che abbiamo realizzato fin qui e ci accontentiamo di frullati e ricombinazioni infinite degli stessi elementi. Peccato che stiamo parlando, in ultima analisi, di statistica inferenziale e costruire campioni in cima ad altri campioni non fa altro che diluire l’apprezzabilità statistica. Gli strumenti statistici sono stati inventati e perfezionati considerando che quello che cercano di descrivere succede indipendemente dagli strumenti stessi, nei limiti del possibile.
        Mi pare abbastanza chiaro che tutto ‘sto gioco non può andare avanti così.

        Ancora una volta si tratta di soffiatori nelle vele dell’apprezzabilità al costo della quota/azione che cercano di tenere alta la mongolfiera finché possono, con grandi campagne di marketing piene di colpi di scena e spettacoli d’arte varia.

  6. Grandissimo articolo, da leggere in tutte le scuole d’Italia.
    Lavorando nella PA posso assicurarti che quasi nessuno utilizza i promt in maniera adeguata e va solo a complicare la gia architettura dei sistemi inutili e farraginosi di certi documenti totalmente inutili.
    Sulla inutilità di certi documenti amministrativi ed email e di consuguenza sull’inutilità stessa di certi lavori (pubblici e privati) impiegatizi, ci sarebbe da aprire un vaso di pandora che Greber ha anticipato 15 anni fa.
    Inoltre un tema poco toccato nelle varie ricerche che ho letto, sono le conseguenze a breve termine dell’inutilità delle Università umanistiche e scientifiche in ambito di nuove oopportunità lavorative entry-level (18-35 anni), nell’ultimo anno praticamente azzerate se la IA dovesse essere implementata in maniera massiccia in tutti i settori. Credo che le iscrizioni delle matricole crollerebbero dell’80% nel giro di 1-2 anni con trasformazioni “epocali” per alcune città che hanno costruito il loro “core-business” sugli affitti e vita universitaria Con un conseguente aumento delle iscrizioni alle Università Telematiche, che abbattono del 90% i costi, con una preparazione pari allo 0.

    • Il processo per cui un modello linguistico produce un documento verboso di cui poi verrà letta solo la sintesi, fatta da un altro modello, è abbastanza ridicolo ma non è troppo diverso dai vecchi copia incolla che generavano documenti infiniti e mai letti da nessuno. Certamente oggi come allora bisognerebbe chiedersi se ha senso produrre quel documento in così tante pagine, esattamente come ha senso chiedersi se comprare ancora una ennesimo oggetto quando ne abbiamo già abbastanza. Non ho capito però il riferimento alle università. Non credo siano molti i lavori veramente rimpiazzabili dall’AI.

  7. Partiamo da questo: l’intervento di Roberto Laghi è da considerare un punto di riferimento, per la quantità di questioni che sono realmente connesse, ma che nei discorsi circolanti su nuove tecnologie e dispositivi IA non lo sono. La prima regola quindi per parlare delle nuove tecnologie e dell’IA in modo “POLITICO”, ossia per quel che riguarda il suo possibile impatto sulla polis, sulla vita sociale, sull’insieme della nostra società, è mantenere ampia e articolata la prospettiva e gli oggetti d’analisi. Le questioni che l’IA (termine riduttivo e riassuntivo) pone sono di carattere sistemico e riguardano questioni di ordine politico (rafforzamento del fascismo e dei regimi autoritari), sociale (distruzione non solo del lavoro ma dell’autonomia dei lavoratori), ecologico (distruzione delle risorse ambientali), sanitarie (salute mentale e fisica degli utenti) per citare le più importanti. Poi possiamo considerare cosa succede nella corporazione letteraria, il problema se si è più o meno creativi con l’IA, ecc.
    Ma veniamo al paragrafo 6 di Roberto, quello del “che fare?”. Da quando il governo degli Stati Uniti decise di sganciare la prima bomba atomica su Hiroshima, nell’agosto del 1945, passarono circa 25 anni prima che la critica all’uso della tecnologia nucleare bellica e civile diventasse una pratica di massa, facendo un salto di scala rispetto alle cerchie pur significative della critica militante. Oggi la critica alle nuove tecnologie e alle sue applicazioni massicce possiede in realtà una reattività maggiore. Un articolo di “Le monde” del 24/4 ricorda che 11 Stati a maggioranza democratica stano riflettendo sulla possibilità di applicare una moratoria, per bloccare la costruzione sul loro territorio di nuovi data center. Bernie Sanders e Alexandria Ocasio-Cortez, membro della Camera, hanno già elaborato una proposta di legge per una moratoria a livello nazionale. Piccole cittadine come New Brunswick, hanno già ottenuto, grazie alla mobilitazione cittadina, di rifiutare la costruzione di un data center. La riposta al che fare è per forza molteplice e in parte imprevedibile nelle forme di contestazione che prenderà, ma possiamo essere sicuri che: 1) questa contestazione ci sarà; 2) prenderà forme sia movimentiste sia istituzionali, con azioni di piazza ma anche proposte legislative; 3) interesserà non solo i critici più radicali del capitalismo, ma anche i critici moderati o persino conservatori (in USA, anche nei Repubblicani cresce la critica nei confronti dei data center).

  8. Permettimi Roberto di aggiungere un secondo commento, a conclusione del primo. In tale contesto, bisogna però rendersi conto di due difficoltà. La prima riguarda la “cultura di sinistra”, inclusa quella di matrice marxista. La seconda riguarda la cultura “italiana”. Il discorso che hai fatto dovrebbe essere ormai patrimonio di tutti coloro che si considerano di sinistra, anche moderata (riformista si diceva un tempo). Ma così non è. Non solo, ma gli “umanisti” di sinistra sono quelli ancora più disarmati nei confronti del fascino delle nuove tecnologie e del mito dell’ineluttabilità del progresso tecnologico. Di questo ne parlai anch’io in un intervento del 2021 su Nazione Indiana: Umanisti del nuovo secolo e sottomissione tecnologica | NAZIONE INDIANA

    C’è quindi un lavoro da fare sulla “cultura” di sinistra, sul suo immaginario, e questo anche presso coloro che si definiscono anticapitalisti, ma che hanno integrato la mitizzazione della tecnica presenta nella teoria marxiana della storia. E non sono questioni accademiche. Sono proprio modelli di pensiero che ancora si trasmettono e hanno un forte radicamento.
    La seconda questione riguarda la cultura italiana, che a mio parare si caratterizza per una tale debolezza, un tale provincialismo, che non può che abbracciare ciecamente tutto quanto è nuovo, luccicante, espressione del capitalismo dei vincitori.

    • Ciao Andrea,

      un’osservazione riguardo a quella che chiami «mitizzazione della tecnica presente nella teoria marxiana della storia». Hai ragione, è un problema grosso, uno strascico di cui liberarsi, una concausa che impedisce di comprendere la realtà dei processi in corso. Però direi «marxista», e di un marxismo deteriore, anziché «marxiana», se per «marxiana» intendiamo «di Karl Marx», e se con questo complemento di specificazione intendiamo la posizione di Marx che si desume guardando la sua traiettoria e opera complessiva.

      L’equivoco di un Marx tecnofilo e produttivista, sviluppista e addirittura “accelerazionista” si basa non su un testo teorico ma su uno scritto d’occasione, un opuscolo di propaganda che scrisse a 29 anni e che purtroppo è la sua opera più famosa, il “Manifesto del partito comunista”.

      In quella fase Marx pensava che dietro l’angolo ci fosse la crisi che avrebbe suonato la campana a morto per il capitalismo, e faceva l’apologia delle sue “conquiste” perchè credeva imminente o comunque molto vicino il momento in cui di tali conquiste si sarebbe appropriata la classe operaia. Ma negli anni seguenti, quando questa crisi presuntamente risolutiva non arriva e anzi il capitalismo si rafforza, Marx capisce che deve rimettersi a studiare sodo.

      È così che matura una presa di distanza netta dai toni apologetici del Manifesto. Studiando le scienze naturali si rende conto della “frattura metabolica” (interruzione del ricambio di materia) che il capitalismo ha imposto al rapporto tra umani e ambiente; sviluppa una chiara coscienza delle condizioni materiali che il capitalismo non può trascendere e perciò di quelli che un secolo dopo il Club di Roma chiamerà i “limiti dello sviluppo”; esce dall’idea universalistica e unilineare del passaggio da un modo di produzione all’altro, fino a ipotizzare che in Russia possa affermarsi il socialismo senza passare prima dal capitalismo ma facendo leva sulla comune agricola tradizionale (obščina), che rispetta il metabolismo (stoffwechsel) della terra mentre l’agricoltura industriale lo distrugge.

      Tutto questo si trova nei taccuini di studio per Il Capitale, negli abbozzi del terzo libro del Capitale (ricordiamo che i libri successivi al primo non sono stesure compiute ma “collazioni” da parte di Engels di parte del materiale lasciato da Marx), nei cosiddetti “Taccuini etnologici”, nelle varie stesure della lettera alla rivoluzionaria russa Vera Zasulic, eccetera.

      Il problema è che il “marxismo” come teoria/ideologia si formò avendo a disposizione pochi scritti di Marx che non fossero d’occasione, e solamente il primo libro del Capitale. Il resto era inedito, e a tutt’oggi, nonostante sia morto nel lontano 1883, continuano a esserci testi inediti, perché l’impresa di pubblicare le opere complete (la cosiddetta MEGA) è rimasta incompiuta e qualche tempo fa si è ricominciato da capo, con la MEGA2, con approcci nuovi e più filologici.

      Ma anche senza aspettare la MEGA2, nel secondo novecento diversi marxisti o post-marxisti, leggendo bene Il Capitale, si erano resi conto che l’idea di un Marx semplicemente apologetico dello sviluppo delle forze produttive non reggeva. A modo suo ci arrivò Bordiga, intuizione poi sviluppata da Jacques Camatte. Dopo l’avvio della MEGA2, sono stati John Bellamy Foster e altri autori della Monthly Review, e soprattutto Saito Kohei, a gettare luce sul Marx ecologista ante litteram e niente affatto “accelerazionista”.

      • Wu Ming 1, la mia osservazione non riguarda la posizione “autentica” di Marx rispetto alla tecnica, e neppure certe letture marxiste su questa posizione. Intendo dire che tutta la questione che tu sollevi con consapevolezza è una question dottrinaria, di teoria e interpretazione della teoria. E’ una questione in realtà tipicamente marxista: cosa noi oggi lettori di Marx vogliamo sottolineare in Marx. Una questione, diciamolo,innanzitutto di studiosi. E non do’ alcun valore spregiativo a questo termine. Ma la mia riflessione riguardava una certa “tecnofilia”, non so quale sarebbe il termine più adatto, che da Marx al marxismo (anche non deleterio), si è propagata a una cultura di sinistra intesa in senso inevitabilmente generico. E se non è frutto dell’eredità marxiana-marxista, il semplice considerarsi “progressista”, e non conservatore o reazionario, predispone all’atteggiamento di “sottomissione” inconsapevole. All’evoluzione tecnologica non si puo’ dire di no, perché una politica di sinistra – quando ci fosse – saprebbe sempre trarne un risultato positivo – dal momento che la tecnologia è “neutra”. Quello che tu dici in un intervento successivo, è fondamentale: la tecnologia non è neutra, semplicemente perché tra i tanti campi di ricerca fondamentale, prima, e di applicazione, dopo, è sempre un certo dispositivo che viene scelto, organizzato, declinato, in vista di effetti che ha sull’utilizzatore e sul suo mondo. Basta, come a me è capitato, leggersi la storia di come sono nati i “like” (2016) sulla piattaforma FB, per farsi un’idea chiara delle alternative che SEMPRE esistono tra diverse messe in opera e declinazioni di una tecnica. Insomma, l’idea che “evoluzione tecnica = progresso sociale”, nella nostra cultura occidentale, e persino in quella più critica come la cultura di ascendenza marxista, risulta difficile da mettere in crisi.

    • Rispondo sulla cultura italiana, dato che WM1 è già intervenuto sulla “cultura di sinistra” e Marx. Come scrivo anche in Scritture digitali, che ha un focus proprio su alcune scritture digitali italiane, in Italia più che altrove mi sembra che lo smartphone sia la continuazione della TV con altri mezzi piuttosto che un dispositivo tecnologico radicalmente nuovo (anche se in continuità con lo sviluppo tecnologico e non in rottura), a maggior ragione ora che è diventato il dispositivo privilegiato per qualsiasi interazione. Inoltre, la non conoscenza della macchina digitale si abbina a un analfabetismo funzionale molto elevato, a una predilezione per i “contenuti” e i servizi semplici, immediatamente fruibili, che rifuggono la complessità.

      La domanda fondamentale, in questa situazione, è come fare a raggiungere le persone che non si sono mai poste la questione dei modelli tecnologici che ci sono imposti, quelle che proprio il problema non lo vedono, la cui risposta automatica è “ma lo usano tutti” oppure “non ho voglia di perderci del tempo” (il che sarebbe anche giusto, se non fosse che la comprensione richiede, appunto, tempo). Chi è disposto a cambiare le proprie abitudini, ormai consolidate? Chi ha tempo e voglia di tirarsi fuori da Gmail, da Microsoft 365, da Facebook e Instagram e Whatsapp? Davanti a questi temi, spesso trovo un muro – a parte in chi si è già posto il problema. Come si fa a diffondere l’urgenza, il bisogno di una relazione più profonda e critica con il digitale?

  9. Aggiungo un elemento di riflessione, che avevo toccato solo di passaggio nell’articolo. Timnit Gebru segnalava questa mattina su Mastodon un articolo sulla relazione tra Epstein e l’ideologia del mondo tech: non c’è solo l’insistenza (anche finanziaria) per arrivare a quella Artificial General Intelligence (AGI) che dovrebbe rendere gli umani obsoleti (e che, fortunatamente, resta ancora un lontanissimo miraggio) ma la stessa dedizione – ancora una volta ideologica ed economica – viene messa al servizio dell’eugenetica con l’obiettivo di “riscrivere” l’umanità attraverso forme di manipolazione genetica al servizio di un’élite di esseri umani che si ritengono superiori (guarda caso quasi tutti maschi, bianchi, occidentali e ricchi) rispetto a tutti gli altri esseri umani che sono ritenuti sacrificabili. Le testimonianze riportate nell’articolo sono raccapriccianti. L’intreccio tra capitale, tecnologia e ingegneria genetica non potrebbe essere più evidente (è un elemento che approfondisco anche nel mio libro, ma forse sarebbe necessario un aggiornamento anche alla luce di ciò che rivelano gli Epstein files).

  10. Il vostro punto di vista é probabilmente diverso dal mio, che lavoro in ambito tecnico e spero di avere il tempo di leggere i libri che citate. Non sono tecno-entusiasta, e ammiro la lungimiranza con cui Wu Ming ha colto l’effetto distruttivo dei social prima degli altri. Penso anche io, come ho scritto in un commento all’articolo su AI e letteratura, che conoscere la tecnologia sia il modo migliore per disinnescarne i pericoli. Però una delle criticità che evidenziate, la fiducia cieca in strumenti di cui non si conosce il funzionamento esisteva già prima, nel mio lavoro lo vedo da anni, ben prima dell’avvento su larga scala dell’AI. Quello che voglio dire è che non basta dire che l’AI é pericolosa, anche perché secondo me la tecnologia, a livello astratto e non di specifica implementazione, è neutra, ma bisogna dire che può essere pericoloso l’uso che si fa della tecnologia, per pigrizia, indolenza, o anche malvagità in certi casi. Penso che l’obiettivo dovrebbe essere spingere chiunque a ragionare sul rapporto tra singoli, società e tecnologia, più che combattere la tecnologia maligna di turno, ieri il nucleare, oggi l’AI, altrimenti all’avvento di ogni nuova tecnologia ci si ritrova al punto di partenza: disarmati di fronte a qualcosa che in fondo replica gli stessi schemi già visti e che probabilmente non si può realmente eliminare.

    • Non esiste «la tecnologia» «a livello astratto». Esistono delle tecnologie, al plurale, concrete e specificamente applicate, e nessuna loro applicazione è mai «neutra», perché non è neutra la loro progettazione e costruzione. Nel capitalismo, la filiera delle tecnologie segue le logiche capitalistiche. Le tecnologie vengono progettate, costruite e implementate dentro un concretissimo reticolo di rapporti di proprietà (fondi privati alla ricerca, brevettazione, finalità di mercato ecc.), rapporti di produzione (sfruttamento del lavoro per produrle e gestirle, “esternalizzazione” e scarico dei costi ambientali sui più deboli ecc.) e rapporti di potere (concentrazione delle leve nelle mani di pochi ecc.).

  11. > Il fatto che OpenAI, Anthropic, Alphabet (la casa madre di Google) e Microsoft spingano senza tregua per far adottare i loro modelli in ogni ambito è molto semplice: stanno perdendo un sacco di soldi.

    Un elemento di nuance a questo: i quattrini nel mercato (civile) dell’IA sono in buona parte nella generazione di codice. I ChatBot e le altre applicazioni per uso personale o creativo sono sostanzialmente gadget per attirare l’attenzione (pur avendo un impatto sociale enorme, un po’ come i social media, che dal punto di vista economico non sono altro che vetrine pubblicitarie). Questo si riflette nei consumi di token, che secondo alcune ricerche (https://openrouter.ai/state-of-ai?ref=implicator.ai#dominant-categories) costituiscono il 50% del totale – e sono i soli consumi di massa paganti con vasta potenzialità di crescita. Il motivo per cui le compagnie perdono soldi è che hanno offerto abbonamenti a prezzi stracciati per attirare utenti e tagliare la concorrenza. Ma nelle ultime settimane tutto questo sta cambiando. Gli abbonamenti principali (Claude Code e GitHub Copilot) hanno drasticamente ridotto i limiti d’uso, il che significa che un uso quotidiano professionale individuale, che a marzo costava 20$ al mese, ora costa come minimo 100$. Nel prossimo futuro i prezzi si alzeranno ancora di più, anche per le aziende. Alcuni, soprattutto, nei paesi emergenti, saranno tagliati fuori. Ma per un’azienda digitale americana restano comunque noccioline: sono 5$ in più a giornata per uno sviluppatore che ne costa 500 al giorno come minimo. Anche se fossero 20 al giorno, andrebbe bene lo stesso visto che con l’IA produce molto di più. Tutto questo per dire che se a) la generazione di codice è il mercato più promettente, e b) i margini per aumentare i prezzi ci sono, i conti economici potrebbero iniziare a tornare nel giro di pochi anni. Il che non vuol dire che non ci sia una bolla e che la bolla non può scoppiare, ci sono molti altri fattori in gioco. Non vuol dire nemmeno che l’estensione dell’IA sarà limitata, anzi: per me l’aspetto più preoccupante di questa situazione è proprio che l’IA sta trasformando la produzione di software in un’industria pesante ad alta intensità energetica, estendendo – poiché il software è ovunque – la presa di poche compagnie su tutta l’economia. In breve: quello a cui davvero stanno puntando è fare all’economia nel suo complesso quello che fu fatto a suo tempo con i media.

  12. Ho apprezzato molto l’articolo e anche diversi spunti usciti dai commenti. Finalmente vedo, nel paragrafo 6, un abbozzo sul che fare, che non si trova spesso quando si legge di AI. Mi sembra che al momento stiamo a guardare l’evoluzione delle intelligenze artificiali, facciamo un sacco di teoria sulla sua natura e su quello che sa o non sa fare, ma su quello che dovremmo fare noi si parla un po’ poco. A differenza di Hito Steyerl io temo l’avanzamento tecnico sia inevitabile e automatico (mi sento più vicino al vecchio Ellul, credo) e dubito purtroppo che la bolla esploderà e tutto si ridimensionerà. Mi sembra che rispetto agli anni 80/90 l’attivismo digitale sia al momento un po’ fermo. Mancano le analisi e manca la voglia di passare all’azione. Forse le battaglie di trent’anni fa erano più comode: la crittografia digitale, il software libero, windows contro linux, la tariffa urbana a tempo… non c’era bisogno di fare grossi sacrifici. Oggi le tecnologie digitali sono più infestanti, più ubiquitarie, più irrinunciabili. Rifiutare android o iphone vuol dire tagliarsi fuori da qualcosa, stessa cosa per i social, e ora per l’AI. Tutti fanno cose bellissime e comode e io per protesta mi rendo la vita difficile e poco competitiva, senza un programma collettivo concreto, peraltro. Eppure bisogna trovare una via per qualche forma di resistenza e per farci trovare almeno culturalmente preparati quando (tra poco) queste tecnologie daranno problemi grossi. E concordo sul fatto che spesso la sinistra ha paura di mostrare diffidenza verso l’evoluzione tecnica, per un fraintendimento terminologico con l’idea di progresso che si pensa debba essere accompagnato in modo indiscriminato da avanzamento tecnologico

Lascia un commento