di
Francesca Angeleri
Nel suo nuovo libro «Il futuro è già qui», la biologa e divulgatrice scientifica Barbara Gallavotti affronta le sfide e le opportunità dell’intelligenza artificiale. Strumento potentissimo ma non neutrale
In questa immensa confusione, abbiamo bisogno di un filo conduttore. Un punto fermo che ci permetta di appoggiarci, riferirci, forse anche rasserenarci. I temi sono tanti, troppi. Ma in questo caso ci occupiamo di intelligenza artificiale. Si intitola Il futuro è già qui (Mondadori) il nuovo libro di Barbara Gallavotti, autorevolissima voce del giornalismo scientifico. Divulgatrice, biologa e conduttrice televisiva, sarà lei a chiudere — sabato 23 agosto alle 21 — Sentieri e Pensieri, il festival diretto da Bruno Gambarotta a Santa Maria Maggiore.
Gallavotti, qual è il suo approccio all’Ai?
«È probabilmente lo strumento più potente mai inventato finora».
Il che può essere un bene, ma anche molto un male…
«Dobbiamo decidere, tutti insieme, che cosa ne vogliamo fare. Ogni strumento può essere utilizzato a vantaggio della comunità, a vantaggio di pochi, a svantaggio di molti. E per prendere queste decisioni non abbiamo bisogno di essere dei programmatori».
Ma come funziona?
«L’intelligenza artificiale generativa non ragiona come il cervello umano: si basa su probabilità, non su intenzioni legate a percezioni fisiche e sensoriali. È utile per la velocità, la precisione e la capacità di elaborare dati, ma l’intenzione e la creatività restano uniche prerogative dell’uomo».
Questo fino a quando l’essere umano avrà voglia di mantenere i suoi margini, senza lasciarsi appiattire dalla pigrizia. O è una visione troppo catastrofica?
«La sfida è proprio questa: continuare a usare l’intelligenza naturale al meglio. Adoperare strumenti che ci rendano più creativi, più efficienti e brillanti, senza però sostituirci. Il grande rischio è ritrovarci in un mondo in cui le macchine imparano e gli esseri umani non più. Invece, se le macchine imparano noi dobbiamo diventare ancora più bravi».
Pronti e lucidi non sembriamo…
«C’è chi dice che con l’intelligenza artificiale Galileo non avrebbe mai formulato, contrariamente al senso comune, la teoria eliocentrica. Le sue risposte sarebbero state elaborate su altre precedenti».
Una funzione molto utile?
«È estremamente efficace nella scelta critica delle fonti. Può suggerire, ma l’analisi finale la devo fare io…».
Cosa non fare?
«Riconosco l’importanza dello strumento a scopo lavorativo e lo utilizzo. Ma, anche tenendo conto dell’impatto ambientale, non userei mai un programma di intelligenza artificiale solo per scopo ludico. E non mi rivolgo mai all’intelligenza artificiale come se fosse un umano. Ci dialogo come faccio con Google, ritengo sia scorretto avere un’interlocuzione “umana”. All’inizio dicevo grazie e per favore, oggi sono diventata secca e faccio ben attenzione a che non si condividano dati che non siano essenziali alla risposta che necessito».
Lei parlava di decisioni collettive, ma esiste ancora una collettività?
«Infatti, quando mi si chiede se sia positiva o negativa sull’intelligenza artificiale, rispondo che dobbiamo chiederci se lo siamo rispetto agli esseri umani. Siamo noi a doverla gestire. Stiamo andando verso modelli sempre più potenti che consumano moltissimo, ma non è una cosa ineluttabile. L’Ai potrebbe svilupparsi in maniera diversa. Le forze politiche devono iniziare a occuparsene».
Ci sarà un protocollo etico?
«Parisi (Nobel per la Fisica 2021, ndr) spinge molto affinché si crei un grosso istituto pubblico europeo che si occupi di questi temi. Il protocollo etico è oggettivamente un problema».
Perché?
«Quale etica diamo alle macchine? Quella del dittatore o quella di Gandhi? Non esiste più un’etica condivisa, l’Ai è in mano a istituti privati cinesi e americani. È fondamentale averne una “nostra” che si rifaccia ai vecchi valori europei comuni».
Vai a tutte le notizie di Torino
Iscriviti alla newsletter di Corriere Torino
13 agosto 2025
© RIPRODUZIONE RISERVATA