L’ingegnere a capo della robotica di San Altman lascia l’azienda dopo l’accordo siglato con il Dipartimento della Guerra americano: «La sorveglianza dei cittadini senza supervisione e l’autonomia letale senza autorizzazione umana sono linee di confine da non superare con leggerezza»
Una guerra nella guerra. Che deciderà il futuro della guerra. Non una in particolare, non solo quella contro l’Iran della coalizione Usa-Israele, e neanche soltanto quella combattuta in Ucraina contro l’invasione russa, dove si calcola che il 70% delle vittime sia stato causato da droni automatici. E neanche quella mossa da Israele nella Striscia di Gaza, dove una lista di oltre 30 mila presunti terroristi è stata data in pasto alla Ai per decidere chi andava eliminato e chi no. Il “braccio di ferro” tra il Pentagono e le aziende che sviluppano modelli di intelligenza artificiale in parte deciderà come l’uomo farà la guerra in futuro. Come in un videogioco – come sembra sostenere la propaganda militare negli Stati Uniti –, oppure mantenendo la responsabilità umana sulle decisioni cruciali. Caitlin Kalinowsky non ha dubbi su quale strada deve essere percorsa: «L’intelligenza artificiale ha un ruolo importante nella sicurezza nazionale. Ma la sorveglianza dei cittadini americani senza supervisione giudiziaria e l’autonomia letale senza autorizzazione umana sono linee di confine che meritavano una riflessione più approfondita di quella che hanno ricevuto». Il riferimento dell’ingegnere a capo della divisione di robotica a OpenAi è al contratto firmato dalla sua azienda con il Pentagono la scorsa settimana. Una firma da molti definita affrettata, per offrire al Dipartimento della Guerra americano ChatGpt in sostituzione di Claude. Il modello linguistico di Anthropic (utilizzato comunque nell’azione contro Teheran), l’azienda che – nelle parole e azioni del ceo Dario Amodei – ha imposto all’esercito statunitense paletti (appunto sulla sorveglianza e sulle armi autonome, citati da Kalinowsky) che hanno portato il Governo Usa a iscrivere Anthropic nella black list dei fornitori.
Caitlin Kalinowsky, con un curriculum straordinario che l’ha portata a lavorare sui progetti top di Apple e Meta prima di approdare, nel 2024, alla corte di Sam Altman, ha deciso di andarsene da OpenAi. Il post di commiato su X è stato visto oltre 5 milioni di volte in un giorno. «Si è trattato di una questione di principio, non di persone», ha proseguito Kalinowsky. «Nutro un profondo rispetto per Sam e per il team, e sono orgogliosa di ciò che abbiamo costruito insieme». L’ingegnere 44enne era al comando del settore dedicato alla cosiddetta physical Ai, robot dunque ma anche possibili hardware con un’anima artificiale, attesi da tempo da parte di OpenAi.
APPROFONDISCI CON IL PODCAST
Alcuni delle centinaia di commentatori al post sono andati oltre l’input di pancia – brava! cattiva! -, ponendo questioni concrete sul ruolo della Ai nella sicurezza, sia nazionale sia internazionale. In molti hanno sostenuto una tesi non banale – «non siete voi aziende a dover decidere cosa è legittimo e cosa no» -, altri invece si sono accodati, paventando un eccesso di regole in Occidente sull’uso dell’intelligenza artificiale, «regole che non esistono né in Cina né in Russia». I nemici. Kalinowsky risponde, perché vuole chiarire: «Il mio problema è che l’annuncio (da parte di OpenAi, ndr) è stato affrettato senza che fossero definiti i necessari sistemi di controllo. Si tratta, innanzitutto, di una questione di governance. Temi di questa importanza non possono essere sacrificati alla fretta di chiudere accordi o fare annunci».
Il riferimento, come detto, è al contratto firmato da OpenAi con il Pentagono il 28 febbraio scorso, il giorno dell’attacco all’Iran. Probabilmente solo una coincidenza, dato che un accordo che prevede l’uso di ChatGpt per scopi bellici era avviato già da giorni, e di fatto espandeva un contratto già esistente, siglato a luglio. Meno casuale il timing legato al “gran rifiuto” di Anthropic di poche ore prima. Con tanto di memo interno di Amodei che spiegava ai dipendenti che «abbiamo perso il contratto perché non riserviamo elogi da dittatore a Trump». Sam Altman da lì in avanti si è mosso in modo scoordinato, dapprima facendo intendere che nel contratto si salvava l’impedimento a utilizzare ChatGpt per la sorveglianza di massa e sistemi d’arma autonomi. Quindi, sempre su X, facendo un po’ di passi indietro. Riconoscendo l’intempestività della firma – «Credo che il nostro approccio sia apparso opportunistico e approssimativo» -, quindi ammettendo che OpenAi non può dettare condizioni di utilizzo al Pentagono. Un grande pentimento morale? Più che altro il riconoscere la pessima pubblicità che ha fatto alla sua creatura. Una mossa che ha avuto forti conseguenze commerciali: negli Usa le disinstallazioni giornaliere dell’app di ChatGpt sarebbero cresciute quasi del 300% in un giorno, quello dopo la firma. Di contro, Claude avrebbe incrementato i download di oltre il 50%. Nel momento in cui stiamo scrivendo, anche in Italia Claude ha superato ChatGpt nei download sugli smartphone: è secondo sia sull’AppStore di Apple (ChatGpt è quarto), sia sul PlayStore di Google (dove Chat è terzo).
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
8 marzo 2026 ( modifica il 8 marzo 2026 | 15:55)
© RIPRODUZIONE RISERVATA