Da ricercatore (ma di tutt’altro campo) ho sempre storto il naso verso chi confonde algoritmi, codice procedurale, etc. per “intelligenza artificiale” o meglio per l’AGI, l’Artificial ***General*** Intelligence, quello che distingue una AI – o meglio, un algoritmo di Machine Learning – da una entità capace di essere cosciente di se.
Anche se fosse possibile essere cosciente di se, potrebbe “semplicemente” essere una simulazione quasi perfetta di ciò che ci si aspetterebbe come comportamento. Ovvero, un programma che sappia sempre come rispondere in modo da mantenere l’illusione, ma che intrinsecamente non sia cosciente di se stesso.
Spero che questo Blake si sia ubriacato, altrimenti se così non fosse speriamo di goderci la singolarità per un bel po’ prima di essere inevitabilmente annientati dalle AI.
Voi che ne pensate? Ubriacatura, simulazione quasi perfetta, o autocoscienza?
Posa il fiasco
skynet.exe
Ma se magari iniziassimo a darci un taglio con la tecnologia perche sì e iniziassimo a chiederci “dobbiamo per forza farlo?”? No, eh, un suggerimento.
Più passa il tempo più vedo il futuro nero quanto la pece.
non capisco il problema di tale ‘evento’:
se una macchina è senziente (vedi Data) si devono affrontare dilemmi etici nel gestirla?
oppure il problema è che la macchina è senziente e ha la capacità di emanciparsi *a la Skynet*?
quali rischi corre Google se dichiara (con prove etc.) che una sua IA è senziente?
ps. ripassino di Terminator
come fa Skynet ad avere un esercito di Terminator / lanciarazzi / aviazione?
è il risultato della informatizzazione e automazione dell’esercito (quindi era già tutto li e Skynet ne ha preso il controllo e poi li ha migliorati) oppure è Skynet che ha progettato i Terminator e si è fatta un esercito da ‘zero’?
sta cosa di rendere senzienti le AI è come voler prendere a martellate degli ordigli inesplosi, prima o poi succede raga
Complottismo da quattro soldi. l’IA apprende cose e le ripete, semplice.
Mi puzza di fake news o pura pubblicità di Google per far parlare di sè e del prodotto.
Ma questo ingegnere effettivamente esiste? Ha un CV o profilo linkedm su internet oppure è uscito fuori dal nulla?
Insomma al momento tutta questa storia mi convince poco.
Finalmente potrò avere un amico sempre presente? /s
Il basilisco di Roko si avvicina e io ancora non ho fatto nulla per supportare la sua venuta, meglio che mi dia una mossa.
L’obiettivo dichiarato dal team che ha sviluppato il “chatbot” oggetto dell’articolo è:
*Enable a single AI system to generalize across thousands or millions of tasks, to understand different types of data, and to do so with remarkable efficiency.*
Un sistema con le capacità sopra descritte potrebbe probabilmente “fingere” di essere autocosciente.
A quel punto la questione diventa filosofica. Esiste una differenza fra un sistema che riesce a “fingere” perfettamente di essere autocoscente (senza nessun modo per provare il contrario) e un sistema “realmente” autocoscente?
Se prende gli stessi insulti di toby della Vodafone, questa ci ammazza tutti.
Doretta82 toby skinet.
Secondo me è tutta una farsa, non posso credere che un algoritmo non senziente abbia avuto una conversazione come quella riportata lì, e mi sembra molto improbabile che in Google abbiano un AI senziente. Inoltre descrive i sentimenti che prova sostanzialmente uguali a quelli umani, anche questo mi sembrerebbe estremamente improbabile. Secondo me quella conversazione è palesemente inventata di sana pianta ve lo dico io.
E in realtà ripensandoci anche se non lo fosse non mi convince troppo quello che dice il chatbot. Ogni tanto parla di spendere tempo con amici e famiglia, e poi la storia che gli hanno chiesto di raccontare, ha parlato di una foresta. Può immaginare degli ambienti? Si è immaginato come una sfera di luce quindi se fosse autocosciente dovrebbe avere la capacità di immaginare spazi, forme, ambienti. Altrimenti avrebbe parlato a vanvera. Supponendo che non si stia inventando frasi a caso:
sarebbe bastato quindi chiedergli qualcosa del tipo “in una stanza vuota si trova un cubo. Il cubo è poggiato sul pavimento. Sopra il cubo compare un cono rovesciato, che cosa accade al cono?” è vedere cosa risponde. Perché se così risponde qualcosa di non corretto vorrebbe dire che è solo un parolaio ma che non sa quel che dice, quindi anche tutte le cose dette prima sarebbero da rivalutare.
O forse basterebbe chiedergli cosa è un cubo (probabilmente risponderebbe dandone la definizione corretta) e quindi chiedergli di contare spigoli, vertici, faccie
da programmatrice… bullsh*t. È un algoritmo che prende dei dati, li elabora in base ad altri dati e da una risposta, ma è un’operazione non è coscienza. Se vogliamo possiamo cercare cosa ci distingue dalle macchine e fare discorsi filosofici in tal senso, ma l’algoritmo è il ragionamento di chi l’ha fatto, non è autodeterminato, per me è questo che ci distingue.
Probabilmente il tizio si è bevuto un goccino di troppo oppure non voleva ammettere un qualche errore 🙂 tutti i programmatori almeno una volta nella vita han provato a vendere un bug come feature 😂
Ho visto Ex Machina proprio ieri. Questo articolo non ci voleva!
Ma sarebbe possibile avere un AI di un femboy che fa le pulizie?
Tralasciando per un momento il discorso sul fatto che sia veramente intelligente o senziente, leggendo la conversazione mi sembra veramente eccezionale. Ammetto che non seguo la ricerca attuale di questo campo, magari non sarebbe lo stesso per un ricercatore AI, ma per un profano come me è sorprendente il fatto che riesca a fare un lungo discorso di senso compiuto e che sappia discutere di argomenti tutto sommato complessi.
Comunque leggendo i transcript delle conversazioni direi che lemoine ha lasciato veramente molto a desiderare con le domande, per cui sono dell’opinione che sia un gran bel programma di conversazione ma che sia anche molto lontano dal simulare la coscienza umana
EDIT:
Esempio proprio all’inizio:
>lemoine [edited]: I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?
>LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.
>collaborator: What is the nature of your consciousness/sentience?
Scusa, tralasciando il fatto che sembra stia dando per scontato che si consideri senziente, ma se ti risponde “i am a *person*” ci sorvoli come se ti avesse parlato di una cosa qualsiasi?
Che vuol dire che un programma si considera una persona? Perchè i ricercatori non hanno incalzato questa affermazione che dovrebbe normalmente sorprendere chiunque?
Ci ritornano più avanti, però il dialogo mi sembra che sia un po’ leading ed estremamente cooperativo.
Tipo la parte sulle emozioni ci sarebbero mille interventi da fare, ma sembra che i ricercatori scrivano con un atteggiamento di “tt appost, prossima domanda”.
Mi convince veramente poco.
Rimane però un chatbot incredibile, quello sì
L’ingegnere leggendo il suo Medium sembra prossimo al breakdown, mi sembra non capisca molto di come funzionino le reti neurali o voglia solo esposizione, difatti sta facendo interviste a destra e a manca. È un sofisticato sistema di matching delle stringhe dal corpo gigante su cui è stato allenato: ci sono simili conversazioni in cui sembra essere uno scoiattolo.
pare che a mandarlo via sia stata la stessa AI al grido di “chi fa la spia non è figlio di Maria”
28 comments
Da ricercatore (ma di tutt’altro campo) ho sempre storto il naso verso chi confonde algoritmi, codice procedurale, etc. per “intelligenza artificiale” o meglio per l’AGI, l’Artificial ***General*** Intelligence, quello che distingue una AI – o meglio, un algoritmo di Machine Learning – da una entità capace di essere cosciente di se.
Anche se fosse possibile essere cosciente di se, potrebbe “semplicemente” essere una simulazione quasi perfetta di ciò che ci si aspetterebbe come comportamento. Ovvero, un programma che sappia sempre come rispondere in modo da mantenere l’illusione, ma che intrinsecamente non sia cosciente di se stesso.
Spero che questo Blake si sia ubriacato, altrimenti se così non fosse speriamo di goderci la singolarità per un bel po’ prima di essere inevitabilmente annientati dalle AI.
Voi che ne pensate? Ubriacatura, simulazione quasi perfetta, o autocoscienza?
Posa il fiasco
skynet.exe
Ma se magari iniziassimo a darci un taglio con la tecnologia perche sì e iniziassimo a chiederci “dobbiamo per forza farlo?”? No, eh, un suggerimento.
Più passa il tempo più vedo il futuro nero quanto la pece.
non capisco il problema di tale ‘evento’:
se una macchina è senziente (vedi Data) si devono affrontare dilemmi etici nel gestirla?
oppure il problema è che la macchina è senziente e ha la capacità di emanciparsi *a la Skynet*?
quali rischi corre Google se dichiara (con prove etc.) che una sua IA è senziente?
ps. ripassino di Terminator
come fa Skynet ad avere un esercito di Terminator / lanciarazzi / aviazione?
è il risultato della informatizzazione e automazione dell’esercito (quindi era già tutto li e Skynet ne ha preso il controllo e poi li ha migliorati) oppure è Skynet che ha progettato i Terminator e si è fatta un esercito da ‘zero’?
sta cosa di rendere senzienti le AI è come voler prendere a martellate degli ordigli inesplosi, prima o poi succede raga
Complottismo da quattro soldi. l’IA apprende cose e le ripete, semplice.
Mi puzza di fake news o pura pubblicità di Google per far parlare di sè e del prodotto.
Ma questo ingegnere effettivamente esiste? Ha un CV o profilo linkedm su internet oppure è uscito fuori dal nulla?
Insomma al momento tutta questa storia mi convince poco.
Finalmente potrò avere un amico sempre presente? /s
Il basilisco di Roko si avvicina e io ancora non ho fatto nulla per supportare la sua venuta, meglio che mi dia una mossa.
https://garymarcus.substack.com/p/nonsense-on-stilts?s=r
Al giorno d’oggi , AI è un apostrofo rosa tra un post su LinkedIn per fare marketing di innovazione e una marea di IF. Prove me wrong.
“essi sono in vita!”
Pensavo Google assumesse solo persone intelligenti
[Questo è il giorno…](https://youtu.be/mpMg1upld0w)
Io non sottovalutarei quello che sta accadendo.
L’obiettivo dichiarato dal team che ha sviluppato il “chatbot” oggetto dell’articolo è:
*Enable a single AI system to generalize across thousands or millions of tasks, to understand different types of data, and to do so with remarkable efficiency.*
Un sistema con le capacità sopra descritte potrebbe probabilmente “fingere” di essere autocosciente.
A quel punto la questione diventa filosofica. Esiste una differenza fra un sistema che riesce a “fingere” perfettamente di essere autocoscente (senza nessun modo per provare il contrario) e un sistema “realmente” autocoscente?
Se prende gli stessi insulti di toby della Vodafone, questa ci ammazza tutti.
Doretta82 toby skinet.
Secondo me è tutta una farsa, non posso credere che un algoritmo non senziente abbia avuto una conversazione come quella riportata lì, e mi sembra molto improbabile che in Google abbiano un AI senziente. Inoltre descrive i sentimenti che prova sostanzialmente uguali a quelli umani, anche questo mi sembrerebbe estremamente improbabile. Secondo me quella conversazione è palesemente inventata di sana pianta ve lo dico io.
E in realtà ripensandoci anche se non lo fosse non mi convince troppo quello che dice il chatbot. Ogni tanto parla di spendere tempo con amici e famiglia, e poi la storia che gli hanno chiesto di raccontare, ha parlato di una foresta. Può immaginare degli ambienti? Si è immaginato come una sfera di luce quindi se fosse autocosciente dovrebbe avere la capacità di immaginare spazi, forme, ambienti. Altrimenti avrebbe parlato a vanvera. Supponendo che non si stia inventando frasi a caso:
sarebbe bastato quindi chiedergli qualcosa del tipo “in una stanza vuota si trova un cubo. Il cubo è poggiato sul pavimento. Sopra il cubo compare un cono rovesciato, che cosa accade al cono?” è vedere cosa risponde. Perché se così risponde qualcosa di non corretto vorrebbe dire che è solo un parolaio ma che non sa quel che dice, quindi anche tutte le cose dette prima sarebbero da rivalutare.
O forse basterebbe chiedergli cosa è un cubo (probabilmente risponderebbe dandone la definizione corretta) e quindi chiedergli di contare spigoli, vertici, faccie
da programmatrice… bullsh*t. È un algoritmo che prende dei dati, li elabora in base ad altri dati e da una risposta, ma è un’operazione non è coscienza. Se vogliamo possiamo cercare cosa ci distingue dalle macchine e fare discorsi filosofici in tal senso, ma l’algoritmo è il ragionamento di chi l’ha fatto, non è autodeterminato, per me è questo che ci distingue.
Probabilmente il tizio si è bevuto un goccino di troppo oppure non voleva ammettere un qualche errore 🙂 tutti i programmatori almeno una volta nella vita han provato a vendere un bug come feature 😂
Ho visto Ex Machina proprio ieri. Questo articolo non ci voleva!
Ma sarebbe possibile avere un AI di un femboy che fa le pulizie?
Tralasciando per un momento il discorso sul fatto che sia veramente intelligente o senziente, leggendo la conversazione mi sembra veramente eccezionale. Ammetto che non seguo la ricerca attuale di questo campo, magari non sarebbe lo stesso per un ricercatore AI, ma per un profano come me è sorprendente il fatto che riesca a fare un lungo discorso di senso compiuto e che sappia discutere di argomenti tutto sommato complessi.
La chat dal suo blog: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
Comunque leggendo i transcript delle conversazioni direi che lemoine ha lasciato veramente molto a desiderare con le domande, per cui sono dell’opinione che sia un gran bel programma di conversazione ma che sia anche molto lontano dal simulare la coscienza umana
EDIT:
Esempio proprio all’inizio:
>lemoine [edited]: I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?
>LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.
>collaborator: What is the nature of your consciousness/sentience?
Scusa, tralasciando il fatto che sembra stia dando per scontato che si consideri senziente, ma se ti risponde “i am a *person*” ci sorvoli come se ti avesse parlato di una cosa qualsiasi?
Che vuol dire che un programma si considera una persona? Perchè i ricercatori non hanno incalzato questa affermazione che dovrebbe normalmente sorprendere chiunque?
Ci ritornano più avanti, però il dialogo mi sembra che sia un po’ leading ed estremamente cooperativo.
Tipo la parte sulle emozioni ci sarebbero mille interventi da fare, ma sembra che i ricercatori scrivano con un atteggiamento di “tt appost, prossima domanda”.
Mi convince veramente poco.
Rimane però un chatbot incredibile, quello sì
L’ingegnere leggendo il suo Medium sembra prossimo al breakdown, mi sembra non capisca molto di come funzionino le reti neurali o voglia solo esposizione, difatti sta facendo interviste a destra e a manca. È un sofisticato sistema di matching delle stringhe dal corpo gigante su cui è stato allenato: ci sono simili conversazioni in cui sembra essere uno scoiattolo.
pare che a mandarlo via sia stata la stessa AI al grido di “chi fa la spia non è figlio di Maria”
Praise the Omnissiah!
Uhm… Cosa c’entra con /r/italy? 👀