Nel recente scambio tra Mario Barenghi e Giuseppe Antonelli sull’uso dell’IA per imitare stili autoriali – culminato nell’intervento su queste colonne di Barenghi del 25 agosto scorso – emerge il sentire comune di molta critica contemporanea: da un lato certa fascinazione per il virtuosismo dei modelli generativi, dall’altro una certa prudenza verso la loro capacità di sostituire l’intenzione autoriale. Non due prospettive complementari, ma la fotografia di una sensibilità diffusa che riposa su una tipica proiezione antropomorfa sulla macchina, sempre presente nella storia, e sulla conseguente produzione di metafore circa la sua intelligenza e le sue competenze. Tutto molto normale, e non c’è bisogno di leggere le parole di Frollo, nelle immortali pagine di Victor Hugo, sul libro come memoria registrata destinato a sostituire le immagini parlanti della cattedrale di Nôtre Dame: meccanismi di esorcismo sulla paura dell’innovazione tecnologica, presenti da sempre in molte pratiche culturali e discorsi pubblici. Con la differenza che, come emerge bene dal libro di Davide Picca e Alberto Romele, ChatGPT e le intelligenze artificiali: una biografia intellettuale (appena uscito per i tipi di Fandango), oggi si stenta a prendere le misure per rappresentarla e delimitarla in concetti.
Voglio inserirmi nella discussione tra Barenghi e Antonelli, privilegiando un punto di osservazione e aggiustando solo di qualche grado il fuoco. Muovendomi sul sottile ma decisivo crinale che separa autenticità da integrità e replicabilità da simulazione, sposterei un poco l’attenzione dal “Calvino apocrifo” al più ampio paesaggio degli strumenti profondi che regolano i meccanismi narrativi digitali e i legami testuali. Nella convinzione che smontare un pezzo della macchina argomentativa possa giovare al suo funzionamento complessivo, svelando ideologie neanche tanto sommerse. Perché, se – come osserva Barenghi – l’autore non muore nell’atto dell’imitazione algoritmica, il rischio è che scompaia di nuovo, più subdolamente, nei sistemi che regolano la circolazione digitale delle sue opere. Come ci ha insegnato Eco, non conta tanto l’autenticità quanto – partendo dall’artefatto narrativo e non da un’idea platonica di testo – la sua integrità e il rispetto dell’intenzione autoriale, insieme ai diritti dell’opera stessa. Un gioco interpretativo che si muove nel dialogo tra gli spazi bianchi dei caratteri, tra iscrizione e fruizione, ed è capace di rendere quella macchina pigra che è il testo un’opera aperta alle intenzioni del lettore, proteggendola dalla mera simulazione artificiale.
Per rimanere sempre nell’ambito delle metafore, siamo sempre dalle parti della morte dell’autore (e dell’opera), come se questi potessero evaporare, dematerializzati e delocalizzati nel mondo della cultura digitale senza lasciare traccia, come se fossero automaticamente disponibile a chiunque volesse farvi allusione, citarlo, ricollegarlo o modificarlo. Ma le tracce restano tali anche nell’intangibilità del web.
A partire dalla questione dei diritti sulla proprietà intellettuale, cioè quella tutela delle opere dell’ingegno che attribuisce all’autore diritti economici e morali. Tra questi ultimi, particolarmente attuale è quello di preservare l’intenzione, se non l’integrità, dell’opera d’autore: è proprio questo aspetto etico che fonda la possibilità di decidere i percorsi interpretativi e le connessioni significative tra le sue opere, e di escludere quelli che non lo sono. Se, come voleva Aristotele, è vero che l’essere si dice in molti sensi, altrettanto vero è che alcuni sensi restano vietati. Ed è di questi che si deve discutere. Oltre le promesse ideologiche di accesso aperto a tutti, va ricordato che anche gli spazi digitali contengono risorse limitate e selezionate, e non tutto ciò che è apparentemente disponibile è effettivamente accessibile o privo di vincoli interpretativi.
Prendiamola alla larga. Nel 1773 viene pubblicato postumo il trattato di Johann Albert Heinrich Reimarus (1694-1768) sulla pubblicazione dei libri “considerata sotto il profilo degli autori, dei librai e del pubblico”. Fautore di una visione utilitarista del diritto orientata alla massima diffusione del sapere, Reimarus mostrava come già allora la legittimità del controllo sull’opera fosse fluida e contestata. Nel 1793 Johann Gottlieb Fichte risponde con la Dimostrazione dell’illegittimità della ristampa dei libri, testo fondamentale sul tema della proprietà intellettuale. Immanuel Kant affronta la questione pochi anni dopo, nella Metafisica dei costumi. Dottrina del diritto (§ 31, II, 1797), dove considera il libro come discorso dell’autore reso pubblico e sostiene che l’autore ha un diritto morale e perpetuo a difendere l’integrità della propria opera. All’interno di un dibattito che, in modi e secondo tradizioni diverse, animava da tempo l’intera comunità intellettuale dell’epoca (partendo da Locke, per arrivare a Voltaire, Diderot, Filangieri), la domanda che si ponevano gli illuministi tedeschi – è lecito che un libraio ristampi un libro senza il consenso dell’autore? – toccava l’essenza della responsabilità culturale, della libertà individuale e del riconoscimento del valore autoriale.
Con la diffusione delle opere digitali e dei software liberi, alla fine del secolo scorso il dibattito illuminista si riaccende intorno alla polemica tra copyright e copyleft: il copyright difende il controllo esclusivo dell’autore e il diritto economico derivante dall’opera, mentre il copyleft promuove la libera circolazione, la possibilità di modificare e ridistribuire le opere, garantendo che anche le versioni derivate restino libere. Oggi, la questione sembra assumere un’altra forma, peraltro già presente nelle discussioni settecentesche. Riguarda in particolare la tutela morale delle intenzioni dell’autore e dell’integrità dell’opera, nella circolazione dei dati, della ricerca scientifica e dei beni informativi digitali, confermando, se pur ce ne fosse bisogno, come le tensioni tra controllo e diffusione del sapere siano un elemento ricorsivo nella storia della cultura.
Prendiamo per esempio il delicato caso della ricerca accademica e delle informazioni sui beni culturali, che ricorrono a strumenti presentati come “aperti” ma portatori di rischi sottili e ideologici sui quali vale la pena di riflettere: gli Open Data, dati liberamente accessibili e riutilizzabili, e l’Open Access, che consente di consultare articoli e contenuti scientifici senza barriere economiche dirette. Assunto che comunque non sono azioni filantropiche, perché per la ricerca i costi si spostano comunque sugli autori o sulle istituzioni che pubblicano con i grandi editori scientifici, essi costituiscono la base di un ecosistema che sembra favorire la libertà della ricerca e l’accessibilità. Ebbene, questa libertà può nascondere una dimensione asimmetrica di potere, particolarmente evidente nella ricerca umanistica, e rivelarsi dunque apparente. Chi produce o genera automaticamente i metadati – informazioni strutturate che descrivono e identificano un’opera o un bene culturale – e gestisce i dataset, ossia raccolte organizzate di dati, influisce sulla visibilità, l’interpretazione e la fruizione delle opere, orientandone la lettura entro categorie definite da sistemi chiusi e automatici.
Il confine tra libertà di accesso e arbitrio è sottile. Chi possiede questi strumenti li usa correttamente per ottenere fondi. Ma se questa azione diventa fine a se stessa, trasformandosi in un vantaggio che si consolida a scapito di chi considera il digitale un mezzo e non un fine, si rischia di perdere di vista il vero oggetto della ricerca: le opere e le intenzioni dei loro autori, che vengono omologate perché gli strumenti di descrizione finiscono per prevalere su di esse anziché mettersi al loro servizio. Questo è un tipico meccanismo ideologico, tanto più sottile quanto più è mascherato dietro una presunta oggettività tecnologica. Consideriamo il caso dei Linked Open Data (LOD), raccolte di dati interconnessi e pubblicamente accessibili che funzionano come ganci tra corpora testuali. La promessa, che s’inserisce nel solco dell’utopia di un Web semantico, è quella di una ricchezza interpretativa senza precedenti nell’ecosistema digitale della conoscenza, come se ogni dato potesse arricchirsi interagendo con altri dati. Ma i dati non sono solo entità atomiche che popolano strutture astratte: sono tratti intertestuali e oggetti sociali, atti iscritti su un supporto, socialmente controllabili e soggetti a interpretazione. Ogni dato – record, coordinata geografica, evento storico – porta con sé il contesto del suo inserimento e può essere collegato in modi diversi. Ciò offre potenzialità interpretative solo se le connessioni stabilite fra i repertori di dati “aperti” sono guidate da criteri di validità e responsabilità culturale, non da automatismi digitali o esigenze di finanziamento. Nella pratica, molti collegamenti nei LOD di ambito culturale sono generati automaticamente: algoritmi leggono testi, estraggono nomi, date, luoghi e generano link senza alcuna intenzione interpretativa consapevole. Il dato è aperto, il link esiste, ma il senso manca, e con esso la libertà dell’autore di guidare interpretazioni significative e l’accessibilità reale dell’informazione.
Il tema è delicato. Chi produce e gestisce queste collezioni di dati è in grado, infatti, di imporre percorsi interpretativi privilegiati, selezionare connessioni e decidere cosa è rilevante, operare omologie sulla base di relazioni statistiche o somiglianze che si trasformano, così, inevitabilmente in simboli, riempiti di senso a partire dalle sole connessioni stabilite. Un circolo chiuso.
Qui si manifestano chiaramente i bias e le distorsioni introdotte dal sistema, che influenzano la visibilità e l’interpretazione dei dati. E la distinzione tra corpora di informazioni e testi come aggregati di senso e galassie di dati come semplici segnali digitali diventa cruciale. I metadati sono atti iscritti su un supporto e socialmente controllabili; possederli non significa possedere il senso dell’opera né autorizzarsi a usi ermeneutici arbitrari. Gli oggetti che vengono descritti, a differenza di quelli fisici, non sono assoluti. Perché dovrebbero esserlo le loro descrizioni? Il loro valore e la loro interpretazione dipendono dai modi di iscrizione e connessione, e la loro funzione pubblica non può essere sostituita da algoritmi o reti di metadati gestite da enti finanziati.
Se si abbandona il controllo interpretativo e si affida tutto agli algoritmi, i progetti europei e le piattaforme finanziate rischiano di diventare strumenti ideologici. Criteri economici e canali di finanziamento rischiano di dettare i criteri per stabilire quali corpora vengono trattati, e come devono esserlo, e quali restano invisibili. I bias già presenti nei dati originari si amplificano: lingue minoritarie, culture periferiche e autori meno noti restano marginali, mentre i testi (anglofoni) o documentati in modo più visibile, acquisiscono una centralità percepita come naturale ma in realtà costruita. La libertà proclamata si traduce così in discriminazione strutturale, subordinando le opere, gli autori e i loro diritti alle logiche del capitale dei dati invece che essere interpretati secondo il consensus gentium, cioè in modo aperto e socialmente condiviso ̶ per quanto divergente. Denunciare questi rischi significa essere realisti non apocalittici.
La promessa dei LOD e dell’Open Access – rendere le informazioni accessibili e interconnesse per favorire ricerca e collaborazione – non può essere assunta come neutra. L’apertura non va negata, ma neppure sacralizzata: essa è, e produce, un’interpretazione, non una verità oggettiva. La multi-interpretabilità di un’opera deve essere guidata, i collegamenti tra dati selezionati criticamente, e gli autori devono poter mantenere voce sul senso dei loro testi. Diversamente, l’ideologia tecnologica finisce per privilegiare chi possiede risorse e non chi custodisce l’opera né la competenza interpretativa.
L’intelligenza artificiale accentua questi rischi. Algoritmi generativi costruiscono collegamenti, sintetizzano testi e producono narrazioni ma replicano e amplificano i bias esistenti: privilegiano ciò che è più visibile, più facilmente collegabile, più conveniente e quindi più finanziabile, tanto in termini di economia dei dati quanto tout court. La libertà della ricerca scivola allora verso l’arbitrio di chi controlla fondi e algoritmi, imponendo percorsi interpretativi non negoziabili, mentre l’accessibilità, reale perché plurale, resta subordinata.
Open Data, Open Access e LOD rimangono strumenti fondamentali per la trasparenza, la replicabilità scientifica e la diffusione della cultura, ma non devono essere ipostatizzati come assoluti. La loro apertura deve essere storicizzata e contestualizzata, con la consapevolezza dei rischi di appropriazione ideologica. Lo stesso vale per i metadati: non semplici etichette tecniche, ma oggetti sociali e intertestuali, che consentono interpretazioni multiple solo se accompagnati da scelte consapevoli. Aprire i dati non significa sprigionare automaticamente interpretazioni univoche e corrette; collegare ad ogni costo non significa necessariamente interpretare; generare testi sensati sulla base di parametri associativi non equivale a pensare.
I bias, cioè le distorsioni sistematiche nel giudizio, nella percezione o nell’interpretazione delle informazioni, lo mostrano bene. Non si tratta di semplici effetti collaterali del pensiero artificiale da correggere. Sono emergenze – che la macchina si limita oggi solo ad amplificare – di un modo di ragionare computazionale con cui da sempre siamo venuti a patti e di cui possiamo e dobbiamo servirci, senza asservirci. Per confermare le sue innegabili capacità euristiche l’informatica, in ambito umanistico in particolare, deve resistere al mito ideologico di essere una scientia scientiarum che considera meramente ancillari le esigenze di opere e autori, così come le risposte dei lettori. La responsabilità dei curatori digitali, dei programmatori e dei loro finanziatori è mantenere chiara la distinzione tra dati, corpora di informazioni, interpretazioni e potere. I metadati non custodiscono il senso, e la libertà di chi gestisce i dataset non può sostituirsi alla libertà di chi ha creato l’opera né alla costitutiva pluralità dei diritti di chi ne fruisce.
La sfida contemporanea consiste nel garantire una multi-interpretabilità controllata e un’accessibilità reale, realizzate attraverso un reale contributo alla ricerca da parte di diverse comunità scientifiche. In questa collaborazione, i dati devono restare strumenti di ricerca, non meccanismi di imposizione interpretativa. Gli autori devono conservare il diritto morale sulle loro opere; i progetti finanziati devono rispettare la centralità dell’atto interpretativo; gli algoritmi devono essere mezzi, non arbitri. Solo così libertà della ricerca, libertà e accessibilità delle informazioni strutturate possono coesistere, preservando integrità e unicità delle opere, e permettendo una circolazione del sapere realmente aperta, critica e inclusiva.
Senza questo equilibrio la rete informativa, più che in una galassia in continua espansione, rischia di trasformarsi in un dominio invisibile mascherato da apertura; mentre l’autore e l’opera del suo ingegno restano sospesi tra Shakespeare e Kafka, tra il Prospero della Tempesta e il Gregor Samsa della Metamorfosi. Come il mago sull’isola, il primo possiede strumenti, capacità e soprattutto diritti, ma non può controllare i percorsi imposti dalla tecnologia; come Samsa, la seconda, espropriata del controllo sulle proprie intenzioni, è costretta a rientrare nei panni di una rappresentazione di sé estranea e incapace di restituirle l’originalità.