Schegge di vangelo a cura di don Stefano Bimbi
San Galdino a cura di Ermes Dovico
VIOLENZA IDEOLOGICA

Nasce il terrorismo contro l'intelligenza artificiale

Sam Altman, di OpenAI (produttrice di Chat GPT) bersaglio di due atti intimidatori che possono essere considerati anche come attentati. Uno degli autori, ha anche scritto un manifesto sulla lotta dell'umanità contro l'intelligenza artificiale.

Attualità 18_04_2026
La protesta dei quotidiani britannici contro l'intelligenza artificiale (AP)

Due atti intimidatori, o forse è meglio definirli tentativi di attentato in questa settimana, contro lo stesso bersaglio. La vittima è Sam Altman, amministratore delegato di OpenAI, la produttrice di ChatGPT, il primo e più famoso programma di intelligenza artificiale generativa. Il 12 aprile, un’auto, dopo un breve giro di ispezione, si fermava di fronte al cancello della sua villa a San Francisco e un giovane sparava due colpi di pistola contro l’abitazione. Poche ore dopo l'attacco, la polizia rintracciava gli autori del gesto: Amanda Tom, una giovane di 25 anni residente a San Francisco, e Muhammad Tarik Hussein, di 23 anni. Non fatevi ingannare dal nome: in questo caso il terrorismo islamico non c’entra nulla. Il bersaglio era l’amministratore delegato di OpenAI e la causa è esattamente quel che produce.

Nella mattinata del 10 aprile, la stessa abitazione era stata colpita da una bottiglia Molotov. A lanciarla e a provocare un principio di incendio era stato Daniel Alejandro Moreno-Gama. Lo stesso ragazzo aveva anche attaccato la sede di OpenAI, sempre con bombe incendiarie. Daniel Moreno-Gama è un texano di 19 anni con un lavoro part-time e frequentava corsi in un college comunitario. Secondo le forze dell'ordine, al momento dell'arresto l'uomo aveva con sé un manifesto in cui esprimeva chiaramente la speranza di ispirare altri a seguire il suo esempio. Nel manifesto erano inclusi i nomi e gli indirizzi di altri amministratori delegati e investitori nel settore dell'intelligenza artificiale.

Dopo i due attacchi alla sua abitazione privata e uno alla sede della sua compagnia, Sam Altman ha affidato le sue preoccupazioni al blog personale, dando la colpa alla pubblicazione di una lunga inchiesta apparsa sul New Yorker. Il pezzo in questione, intitolato Sam Altman può controllare il nostro futuro: ci si può fidare? del premio Pulitzer Ronan Farrow e di Andrew Marantz, più che una riflessione sull’intelligenza artificiale, è un’inchiesta sulla persona di Sam Altman, sulla sua incostanza e su come ha trattato ex soci ed amici. Per questo è piaciuto ed è stato rilanciato anche dall’ex socio Elon Musk, sul suo social network X.

Ma non è un articolo contro la persona di Sam Altman che sta suscitando questa ondata di odio che, in questi casi sfocia anche in atti di vandalismo e terrorismo vero e proprio. La causa è proprio la paura dell’intelligenza artificiale, in sé.

Andy Mills, giornalista di The Free Press e conduttore del podcast The Last Invention, per mera coincidenza aveva intervistato a gennaio quello che sarebbe diventato il futuro attentatore incendiario della casa di Sam Altman e della sede di OpenAI: «Alcuni mesi prima, io e i miei colleghi avevamo trovato Moreno-Gama su un server Discord chiamato Stop AI, dove pubblicava con il nickname Butlerian Jihadist (a quanto pare è un fan di Dune). Stavamo realizzando un episodio della nostra serie di podcast The Last Invention. Uno dei nostri giornalisti gli ha inviato un messaggio privato chiedendogli di spiegarsi meglio, e lui ha risposto di essere interessato a "fare come Luigi con alcuni CEO del settore tecnologico"». Dove per “Luigi” intende Luigi Mangione, l’uccisore di Brian Thompson, amministratore delegato dell’assicurazione sanitaria UnitedHealthcare

«Mi disse – prosegue Andy Mills - che era giunto alla conclusione che la creazione dell'intelligenza artificiale generale (AGI) avrebbe probabilmente portato alla fine della razza umana, e che se solo più persone avessero saputo ciò che sapeva lui, sarebbero state d'accordo e si sarebbero unite per fermarla prima che fosse troppo tardi. Quando gli ho chiesto direttamente fino a che punto le persone dovrebbero essere disposte ad arrivare per fermare questa apocalisse, si è sentito a disagio».

L’effetto imitazione è riuscito. L’attentato fallito di Moreno-Gama ha già creato una prima ondata di suoi seguaci: «Online, utenti anonimi su piattaforme come Reddit hanno già iniziato a paragonare Moreno-Gama a Luigi Mangione, con alcuni che invocano la presenza di qualcuno che porti a termine ciò che lui ha iniziato. "Questo dovrebbe accadere ogni notte", si legge in un post sui social media dopo l'attacco».

Stiamo assistendo alla nascita di un nuovo terrorismo? Scenari da fantascienza che si stanno rapidamente realizzando, più velocemente rispetto ai nostri tempi di adattamento, possono creare nuove forme di violenza. La paura immediata è che l’intelligenza artificiale ci possa portare via il lavoro. Ma si sta diffondendo anche un vero e proprio terrore esistenziale: che l’intelligenza artificiale sia un veicolo di autodistruzione. E sono gli stessi protagonisti dello sviluppo della nuova rivoluzione informatica ad alimentarlo. Sono passati solo tre anni dall’appello in cui  Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak e Yuval Noah Harari invitavano a rallentare lo sviluppo dell’intelligenza artificiale, per motivi di sicurezza. E proprio questa settimana, Anthropic, ha deciso di diffondere solo su piccolissima scala il suo nuovo programma Claude Mythos, perché lo considera troppo potente: permetterebbe di hackerare qualunque sistema, compresi i server della stessa Anthropic.

Dalla parte dell’ottimismo c’è l’esperienza delle precedenti rivoluzioni industriali: per quanto profonde siano state le trasformazioni, nessuna ha mai comportato la fine del lavoro, né la fine dell’umanità. La Chiesa ha avuto, sempre, un ruolo fondamentale, non nel frenare la rivoluzione tecnologica, ma condannando sia gli abusi, sia la violenza rivoluzionaria.