IL FENOMENO DEL “MODEL COLLAPSE”
Inoltre, col passare del tempo i modelli di AI sono destinati ad essere alimentati sempre più non da informazione e contenuti di origine umana, ma da dati prodotti da altri modelli. Intelligenze artificiali che si autoalimentano. Dati sintetici basati su altri dati sintetici. E questo circolo vizioso, come segnalato già da molti esperti di intelligenza artificiale, aumenta il rischio tecnico di errore. Ebbene sì, perché i modelli di AI tendono nelle loro rielaborazioni a semplificare, a sintetizzare, perdendo, diciamo così, dei dettagli e delle sfumature. E, quindi, se il processo viene ripetuto molte volte, senza più l’apporto di informazione umana fresca che vuol dire garanzia di aderenza alla realtà, ad ogni passaggio è come se gli algoritmi rinunciassero a un piccolo margine di precisione in favore della sintesi fino a ritrovarsi poi troppo lontano da quel reale, da quella complessità del vero, che la funzione matematica deve sempre replicare.È il fenomeno tecnico che gli esperti di AI chiamano “model collapse”: un po’ come in un meccanismo dove da una immagine originale si fa una fotocopia e poi una fotocopia della fotocopia e così via fino ad arrivare a una copia un po’ sbiadita dove qualcosa non torna più, così in modo simile i modelli di intelligenza artificiale alla fine possono collassare. Ecco perché le società che creano algoritmi e chatbot cercano informazione umana per addestrare i modelli artificiali: non serve solo all’inizio, ma serve anche dopo, per mantenere i modelli precisi, aderenti alla realtà da registrare e rielaborare, solo che appunto il trend di mercato sembra andare verso un’autoalimentazione degli algoritmi per praticità, per risparmiare e forse anche perché il contenuto umano diventa la nuova risorsa rara.