Condivido questa interessante intervista al professore Luciano Floridi, ordinario di Filosofia ed etica dell’informazione all’università di Oxford.
Floridi afferma che in ChapGpt *”non c’è alcuna comprensione del testo. Brutale. Zero. Proprio come l’abbecedario o la calcolatrice non capiscono i numeri, per quanto precisi siano i calcoli”*
Aggiunge inoltre che *Non c’è un limite teorico al suo miglioramento. C’è un limite di risorse, finanziarie, computazionali. Di investimenti, di interesse industriale.*
Sostiene che ChapGpt debba essere insegnata nelle scuole e non bandita. Conclude infine affermando che gli uomini *”Gestiranno e controlleranno. Li chiamo i colletti verdi. E magari faranno quello che interessa di più fare. L’Otium latino lo abbiamo scordato? Magari sarà Otium per tutti. Automatizzato. Climate change permettendo…”*
Cosa ne pensate delle sue tesi nel merito?
Ci tengo anche a segnalarvi questo post su ChatGpt su [manteblog](https://www.mantellini.it/2023/01/28/salutava-sempre/) e, per farsi due risate, questo sito, famoso tra chi segue lo youtuber Wesa ed in particolare le sue live su Twitch (recuperabili su CantinaWesa), sulla [piena automazione](https://pienautomazione.com).
Quando andavo al liceo (e si, stiamo parlando di un bel po’ di anni fa…) ricordo un seminario di “etica” organizzato dalla mia professoressa di filosofia, proprio perche’ cominciavano a circolare discussioni riguardo a come le nuove forme di “intelligenza” introdotte dall’informatica ponessero questioni di questo tipo.
Dopo venticinque anni (che in informatica sono almeno un paio di ere geologiche) siamo ancora a parlare di intelligenza artificiale e spesso lo fanno i filosofi; nulla di male, ci mancherebbe ma se metto insieme un po’ di ricordi miei e dei miei colleghi questa roba l’abbiamo gia’ vista almeno tre o quattro volte.
Puttanate filosofiche.
Come per le auto che si guidavano da sole, se prendo sotto qualcuno in guida automatica e lo ammazzo, chi della casa automobilistica va in prigione al posto mio?
E alla catena di montaggio di detta casa automobilistica, cala la richiesta di auto, licenzio il 50% degli operai generici e chiudo il bilancio in pareggio. Come faccio a licenziare il 50% dei robot?
Concordo: secondo me uno dei lavori più a rischio è l’ordinario di Filosofia ed etica dell’informazione.
Il paragone con la calcolatrice mi pare un po’ da sempliciotti. Quando usi la calcolatrice stai mettendo in pratica un ragionamento precedente, puoi anche fare conti a caso ma non ti è di nessuna utilità. Una IA fa quasi tutto il lavoro per te.
Non succederà mai.
(mai= ragionevolmente non succederà nel lifespan di chiunque stia leggendo in questo momento.)
L’uomo è mille volte migliore e più conveniente. Immaginate dovere insegnare a un robot come lavorare da McDonald’s. Sarebbe un disastro. Solamente fargli eseguire il movimento di mettergli hamburger sulla griglia e tirarli via quando sono pronti richiederebbe uno sforzo assurdo. E Una spesa esorbitante. E farebbe comunque cagare rispetto alla destrezza naturale di un umano. E al primo imprevisto apriti cielo.
I robot non sostituiranno mai i lavori come ci immaginiamo noi. Automatizzare in quella maniera semplicemente non funziona, e non conviene.
Piuttosto Ci asseconderanno e renderanno i lavori “diversi” da come sono oggi (come già succede da decine di anni)
Prendendo ad esempio sempre una cucina mcdonalds, i “robot” ci sono già: la griglia cucina da sola l’hamburger, quando è pronto me lo fa sapere con un suono. Idem la friggitrice.
Un rullo mi trasporta gli hamburger fino al punto dove verranno prelevati al front e consegnati al cliente.
Questa è la vera robotizzazione. Ma ci saranno sempre gli umani dietro alle macchine, perché lo scopo delle macchine NON È sostituire gli umani. Non ne sono capaci.
Perfino i cassieri, dopo ormai 10 anni abbondanti di terrorismo psicologico, non sono scomparsi. Le tanto discusse casse automatiche hanno bisogno di una cassiera umana che spieghi alla nonna come fare… e poi si rompono. 🙂
Se proprio esiste qualche lavoro che rischia di essere sostituito, credo sia qualche lavoro di ufficio. Ma che un robot superi la destrezza umana… siamo lontani anni luce.
Anni 50: l’automatizzazione ci permetterà di sostituire le macchine alle persone nei lavori logoranti, in modo da avere più tempo libero da dedicare a noi stessi.
2023: _L’intelligenza artificiale scriverà i tuoi libri e sostituirà tutti i lavori creativi, in modo che tu possa stare 8 ore al giorno davanti ad Excel_
A parte che si tratta di affermazioni già pubblicate da Searle nel 1980 (l’intelligenza artificiale ragiona in maniera sintattica, mentre non può fare associazioni semantiche. In soldoni, “pensa ma non comprende”), ma ChatGPT è un modello di generazione del testo, non un motore matematico come potrebbe essere Wolfram Alpha.
L’IA è nata anche grazie a filosofi e linguisti, sarebbe carino se tali ricercatori si interessassero di più all’argomento invece di considerarla una barbaria da informatici.
Se la scoperta del fuoco, della ruota, dell’agricoltura, non hanno cancellato il lavoro, nessun altra scoperta lo farà.
Faremo altro, come abbiamo sempre fatto.
Questo è un professore, più che chiederci cosa ne pensiamo, chiederei io a lui di sviluppare lo studio e fare dei modelli per il futuro, dietro lauto compenso. Visto che enuncia dei fatti più che comprovabili, con una conoscenza superiore alla nostra.
Speriamo, venerdì il capo ci porta il rotolo di carta che usiamo per asciugarci le mani e il collega con milioni di metri quadri di capannone lo ha appoggiato sul pigmento nero (colorante), poi quando gliel’ho fatto notare l’ha girato per soffiare via il possibile e lo ha appoggiato sul silicato di zirconio. Solo l’ai può salvarci
“brutale e non comprende”, quindi è già meglio dell’uomo?
Bello lui, che filosofeggia da Oxford,
In Italia tanto gli imprenditori resteranno al palo. Commercianti, ristoratori, balneari e tassisti sono benaltristi.
È semplicemente uno strumento, molto potente, ma rimane sempre uno strumento. Riuscirà ad automatizzare alcune attività? Sicuramente sì, come fanno i robot industriali da 30 anni a questa parte. Ci saranno lavori che scompariranno? Sì, come è già successo in passato.
La differenza fra cose come ChatGPT e un robot industriale è solo il fatto che ChatGPT lavora su elementi non fisici, ma sulle informazioni e per questo sembra fantascienza.
In realtà la questione “comprensione” è molto più ambigua in letteratura. Esistono diverse scuole di pensiero al riguardo (specie legate ai vari approcci di analisi ai problemi come l’*argomento della stanza cinese* di Searle).
Il problema principale è, però, legato al fatto che Floridi quando dice che ChatGPT non comprende, fa un esempio di inferenza fallita in un compito di ragionamento comune
> “la mamma di Laura ha due figlie, una di loro si chiama Laura?”
che tra gli altri nelle versioni più recenti di ChatGPT viene risolto correttamente.
Stessa cosa per l’altro esempio, un quesito sulle età tipo > “la figlia ha 5 anni e la madre 30. Ora la figlia ha 20 anni, quanti hanno ha la madre?”
spesso sbagliato anche dagli esseri umani. Normalmente adesso viene risolto correttamente (ma spesso anche in passato, specie chiedendo al modello di ragionare *passo per passo*).
Fare alcuni errori inferenziali (alcuni quasi sistematici, altri casuali e altri ancora rari,in base al tipo di compito) **NON è sufficiente** per stabilire che non si comprenda il linguaggio, *a meno di voler sostenere che la totalità degli esseri umani non comprenderebbe un bel niente.*
D’altra parte, che un modello di linguaggio lo comprenda o meno¹, non è una questione rilevante a livello pratico: a contare è solo quanto sia utile (quindi in media) rispetto alla mediana degli esseri umani, tanto per un insieme prefissato di compiti, quanto per un compito casuale.
In alcuni di questi compiti prefissati in modo standard i *large language model* sono già al livello umano o super umano, in altri sono sotto la media (ma è probabile che migliorino nel giro di poco tempo). Il punto però è piuttosto quanto siano efficaci nell’apprendere compiti nuovi a partire da pochi esempi (*few shots learning*) o da solo una descrizione del compito (*zero shots learning*). Questo è quel che fin ora contraddistingue forse più di ogni altra cosa gli umani dai vari tipi di modelli basati sull’apprendimento statistico. Anche su questo fronte, però, i *large language models* si stanno rivelando sempre più bravi, quasi in modo seccante.
________________________
1.
A dire il vero esistono già dei primi modelli multimodali che, quando sufficientemente sviluppati almeno, superano buona parte delle obiezioni classiche alla capacità compresiva dei modelli di linguaggio, combinando ed associando dati testuali e audiovisivi, e perfino azioni fisiche.
16 comments
Condivido questa interessante intervista al professore Luciano Floridi, ordinario di Filosofia ed etica dell’informazione all’università di Oxford.
Floridi afferma che in ChapGpt *”non c’è alcuna comprensione del testo. Brutale. Zero. Proprio come l’abbecedario o la calcolatrice non capiscono i numeri, per quanto precisi siano i calcoli”*
Aggiunge inoltre che *Non c’è un limite teorico al suo miglioramento. C’è un limite di risorse, finanziarie, computazionali. Di investimenti, di interesse industriale.*
Sostiene che ChapGpt debba essere insegnata nelle scuole e non bandita. Conclude infine affermando che gli uomini *”Gestiranno e controlleranno. Li chiamo i colletti verdi. E magari faranno quello che interessa di più fare. L’Otium latino lo abbiamo scordato? Magari sarà Otium per tutti. Automatizzato. Climate change permettendo…”*
Cosa ne pensate delle sue tesi nel merito?
Ci tengo anche a segnalarvi questo post su ChatGpt su [manteblog](https://www.mantellini.it/2023/01/28/salutava-sempre/) e, per farsi due risate, questo sito, famoso tra chi segue lo youtuber Wesa ed in particolare le sue live su Twitch (recuperabili su CantinaWesa), sulla [piena automazione](https://pienautomazione.com).
Quando andavo al liceo (e si, stiamo parlando di un bel po’ di anni fa…) ricordo un seminario di “etica” organizzato dalla mia professoressa di filosofia, proprio perche’ cominciavano a circolare discussioni riguardo a come le nuove forme di “intelligenza” introdotte dall’informatica ponessero questioni di questo tipo.
Dopo venticinque anni (che in informatica sono almeno un paio di ere geologiche) siamo ancora a parlare di intelligenza artificiale e spesso lo fanno i filosofi; nulla di male, ci mancherebbe ma se metto insieme un po’ di ricordi miei e dei miei colleghi questa roba l’abbiamo gia’ vista almeno tre o quattro volte.
Puttanate filosofiche.
Come per le auto che si guidavano da sole, se prendo sotto qualcuno in guida automatica e lo ammazzo, chi della casa automobilistica va in prigione al posto mio?
E alla catena di montaggio di detta casa automobilistica, cala la richiesta di auto, licenzio il 50% degli operai generici e chiudo il bilancio in pareggio. Come faccio a licenziare il 50% dei robot?
Concordo: secondo me uno dei lavori più a rischio è l’ordinario di Filosofia ed etica dell’informazione.
Il paragone con la calcolatrice mi pare un po’ da sempliciotti. Quando usi la calcolatrice stai mettendo in pratica un ragionamento precedente, puoi anche fare conti a caso ma non ti è di nessuna utilità. Una IA fa quasi tutto il lavoro per te.
Non succederà mai.
(mai= ragionevolmente non succederà nel lifespan di chiunque stia leggendo in questo momento.)
L’uomo è mille volte migliore e più conveniente. Immaginate dovere insegnare a un robot come lavorare da McDonald’s. Sarebbe un disastro. Solamente fargli eseguire il movimento di mettergli hamburger sulla griglia e tirarli via quando sono pronti richiederebbe uno sforzo assurdo. E Una spesa esorbitante. E farebbe comunque cagare rispetto alla destrezza naturale di un umano. E al primo imprevisto apriti cielo.
I robot non sostituiranno mai i lavori come ci immaginiamo noi. Automatizzare in quella maniera semplicemente non funziona, e non conviene.
Piuttosto Ci asseconderanno e renderanno i lavori “diversi” da come sono oggi (come già succede da decine di anni)
Prendendo ad esempio sempre una cucina mcdonalds, i “robot” ci sono già: la griglia cucina da sola l’hamburger, quando è pronto me lo fa sapere con un suono. Idem la friggitrice.
Un rullo mi trasporta gli hamburger fino al punto dove verranno prelevati al front e consegnati al cliente.
Questa è la vera robotizzazione. Ma ci saranno sempre gli umani dietro alle macchine, perché lo scopo delle macchine NON È sostituire gli umani. Non ne sono capaci.
Perfino i cassieri, dopo ormai 10 anni abbondanti di terrorismo psicologico, non sono scomparsi. Le tanto discusse casse automatiche hanno bisogno di una cassiera umana che spieghi alla nonna come fare… e poi si rompono. 🙂
Se proprio esiste qualche lavoro che rischia di essere sostituito, credo sia qualche lavoro di ufficio. Ma che un robot superi la destrezza umana… siamo lontani anni luce.
Anni 50: l’automatizzazione ci permetterà di sostituire le macchine alle persone nei lavori logoranti, in modo da avere più tempo libero da dedicare a noi stessi.
2023: _L’intelligenza artificiale scriverà i tuoi libri e sostituirà tutti i lavori creativi, in modo che tu possa stare 8 ore al giorno davanti ad Excel_
A parte che si tratta di affermazioni già pubblicate da Searle nel 1980 (l’intelligenza artificiale ragiona in maniera sintattica, mentre non può fare associazioni semantiche. In soldoni, “pensa ma non comprende”), ma ChatGPT è un modello di generazione del testo, non un motore matematico come potrebbe essere Wolfram Alpha.
L’IA è nata anche grazie a filosofi e linguisti, sarebbe carino se tali ricercatori si interessassero di più all’argomento invece di considerarla una barbaria da informatici.
Se la scoperta del fuoco, della ruota, dell’agricoltura, non hanno cancellato il lavoro, nessun altra scoperta lo farà.
Faremo altro, come abbiamo sempre fatto.
Questo è un professore, più che chiederci cosa ne pensiamo, chiederei io a lui di sviluppare lo studio e fare dei modelli per il futuro, dietro lauto compenso. Visto che enuncia dei fatti più che comprovabili, con una conoscenza superiore alla nostra.
Speriamo, venerdì il capo ci porta il rotolo di carta che usiamo per asciugarci le mani e il collega con milioni di metri quadri di capannone lo ha appoggiato sul pigmento nero (colorante), poi quando gliel’ho fatto notare l’ha girato per soffiare via il possibile e lo ha appoggiato sul silicato di zirconio. Solo l’ai può salvarci
“brutale e non comprende”, quindi è già meglio dell’uomo?
Bello lui, che filosofeggia da Oxford,
In Italia tanto gli imprenditori resteranno al palo. Commercianti, ristoratori, balneari e tassisti sono benaltristi.
È semplicemente uno strumento, molto potente, ma rimane sempre uno strumento. Riuscirà ad automatizzare alcune attività? Sicuramente sì, come fanno i robot industriali da 30 anni a questa parte. Ci saranno lavori che scompariranno? Sì, come è già successo in passato.
La differenza fra cose come ChatGPT e un robot industriale è solo il fatto che ChatGPT lavora su elementi non fisici, ma sulle informazioni e per questo sembra fantascienza.
In realtà la questione “comprensione” è molto più ambigua in letteratura. Esistono diverse scuole di pensiero al riguardo (specie legate ai vari approcci di analisi ai problemi come l’*argomento della stanza cinese* di Searle).
Il problema principale è, però, legato al fatto che Floridi quando dice che ChatGPT non comprende, fa un esempio di inferenza fallita in un compito di ragionamento comune
> “la mamma di Laura ha due figlie, una di loro si chiama Laura?”
che tra gli altri nelle versioni più recenti di ChatGPT viene risolto correttamente.
Stessa cosa per l’altro esempio, un quesito sulle età tipo > “la figlia ha 5 anni e la madre 30. Ora la figlia ha 20 anni, quanti hanno ha la madre?”
spesso sbagliato anche dagli esseri umani. Normalmente adesso viene risolto correttamente (ma spesso anche in passato, specie chiedendo al modello di ragionare *passo per passo*).
Fare alcuni errori inferenziali (alcuni quasi sistematici, altri casuali e altri ancora rari,in base al tipo di compito) **NON è sufficiente** per stabilire che non si comprenda il linguaggio, *a meno di voler sostenere che la totalità degli esseri umani non comprenderebbe un bel niente.*
D’altra parte, che un modello di linguaggio lo comprenda o meno¹, non è una questione rilevante a livello pratico: a contare è solo quanto sia utile (quindi in media) rispetto alla mediana degli esseri umani, tanto per un insieme prefissato di compiti, quanto per un compito casuale.
In alcuni di questi compiti prefissati in modo standard i *large language model* sono già al livello umano o super umano, in altri sono sotto la media (ma è probabile che migliorino nel giro di poco tempo). Il punto però è piuttosto quanto siano efficaci nell’apprendere compiti nuovi a partire da pochi esempi (*few shots learning*) o da solo una descrizione del compito (*zero shots learning*). Questo è quel che fin ora contraddistingue forse più di ogni altra cosa gli umani dai vari tipi di modelli basati sull’apprendimento statistico. Anche su questo fronte, però, i *large language models* si stanno rivelando sempre più bravi, quasi in modo seccante.
________________________
1.
A dire il vero esistono già dei primi modelli multimodali che, quando sufficientemente sviluppati almeno, superano buona parte delle obiezioni classiche alla capacità compresiva dei modelli di linguaggio, combinando ed associando dati testuali e audiovisivi, e perfino azioni fisiche.
Ma magari.
Mi so rotto il cazzo di lavorare.