L’impostore digitale: l’intelligenza artificiale non è una tecnologia come le altre, che possiamo usare anche senza sapere come funzionano. Ora ci sono nuovi rischi. Articolo apparso sullo spazio substack di Stefano Feltri, scritto dal suo amico e progrmmatore Daniele Paganelli.

16 comments
  1. Va bene, opinione rispettabile. Tra qualche anno le useremo comunque più di adesso e pagheremo in euro o dati qualche azienda americana o cinese per farlo, nessun problema

    Edit:

    >Già, perché per dare suggerimenti così precisi e puntuali, tutto il codice viene inviato ai server Microsoft per apprenderne la struttura di ciò che scriviamo e formulare consigli. 
    >
    >Tutto, anche il codice aziendale privato. Anche il codice che contiene [chiavi crittografiche e password](https://fossa.com/blog/analyzing-legal-implications-github-copilot/). 

    la PRIMA cosa che ti insegnano ovunque tu vada è non mettere dati sensibili hardcoded nel codice che scrivi

  2. Articolo interessante, che poteva anche riassumersi in poche righe (chiedendo a ChatGPT?), ma questo non si può leggere

    >Anche il codice che contiene chiavi crittografiche e password. 

  3. Mi sembra che l’intero articolo giri intorno a due punti: a) le intelligenze artificiali non sono infallibili e b) sollevano notevoli criticità di privacy. Considerazioni giuste ma non esattamente rivoluzionarie.

  4. Il primo paese che cercherà di saltare sul treno dell’IA Tuttofare sarà anche quello che deraglierà prima, con granda vantaggio per i suoi rivali, una volta che i limiti, prevedibili ma ignorati, di un motore predittivo spacciato per intelligenza simulata verranno alla luce.

  5. Bho non capisco il senso di questi articoli. Non capisco perchè in Italia ci fossilizziamo su i problemi più banali che verranno risolti e ignoriamo invece quelli fondamentali.

    I due problemi giganteschi che si porteranno le generative AI sono la sintetizzazione della realtà, sul piano sociale, e l’AI alignment sul piano tecnologico, con una discreta probabilità che ci sia qualche catastrofe.

    Qui stiamo a parlare ancora delle allucinazioni che sono la punta dell’iceberg e qualcosa che si risolverà da solo visti i trend di miglioramento. Ci sono mille cose di cui discutere, perchè becchiamo le più sceme?

    Comunque fun fact: la campagna elettorale per la neo sindaca di Brescia ha utilizzato anche generative AI. Per ora solo nelle fasi di produzione interna e per coordinamento creativo, ma il passo è breve.

    Lascio anche questo video interessante sulle capacità di analisi del nuovo plugin in fase di rollout: https://youtu.be/O8GUH0_htRM

  6. Penso ci sia un assunto piuttosto errato:

    >Perché dovrei voler scrivere un articolo di giornale su un argomento che non conosco minimamente?
    >Perché dovrei tentare di diagnosticarmi una malattia in base a dei sintomi che credo di sentire?

    Queste – e molte altre azioni che assumono una competenza superiore a quella che effettivamente abbiamo – sono cose che chiunque di noi fa costantemente. E a ben guardare agiamo sulla base di bias ben peggiori, molto spesso.

    Detto ciò.

    Giudicare questi strumenti basandosi sui risultati attuali mi pare abbastanza futile, ancorché la cosa solletichi la curiosità di molti me compreso. Sì, suscitano effetto wow e fanno ben sperare e intravedere futuri radiosi (o disastrosi, a seconda di chi parla), ma – *sospetto* – abbiamo a disposizione sì e no delle beta, se non delle alpha, delle tecnologie che effettivamente emergeranno. E quali tecnologie davvero emergeranno influenzerà anche gli ambiti in cui avranno rilevanza e quanto saranno trasformative.

    Sì, gli attuali LLM hanno caratteristiche molto fighe, ma anche problemi piuttosto seri. Risolvibili? Boh, e che ne so io. Tali da affossare l’intera iniziativa? Di nuovo, boh, e che ne so io.

    Di sicuro questi e altri problemi vanno e verranno affrontati da chi ci sta puntando miliardi. Funzionerà? Po’ esse. E che ne so?

    Miei due cent di banalità: emergeranno prima e meglio le applicazioni che prevedono una stretta interazione con un operatore umano, grande semplicità di valutare il risultato e un basso rischio in caso di errori.

    E.g.: AI per aiutare nel foto editing? C’è già, migliorerà moltissimo e diventerà molto importante. AI basata su LLM per generare grandi quantità di codice complesso e mission critical? LOL no, al momento non è lo strumento giusto e forse non lo sarà mai. Forse emergerà altro che riuscirà anche in ambiti simili, ma non penso a breve.

  7. Ciao u/throwawayivything

    Grazie dell’articolo, per i tldr; praticamente due temi che si contraddistinguono, il primo essendo la natura dell’uso dell’IA in campi dove all’utente manca la conoscenza, la sapienza, l’esperienza, poi mettendo in dubbio se mettere a disposizione tale strumento, comunque ignorando la motivazione per usarlo. Il secondo si basa su chi mette a disposizione l’IA e sotto quali condizioni con il timore *privacy* e i rischi vari di perdere i propri contenuti e con loro i diritti d’autore, che siano testi, codici, immagini. Con l’ultimo emergono anche le paure del plagio, siccome non è certo esattamente da dove provengono i contenuti creati tramite IA.

    La metafora del motore, che tutti usiamo, mi piace tantissimo, anche se in tanti non saprebbero spiegare esattamente come funzioni ed appare ovvio che ci muoviamo più in fretta e più facilmente usando una macchina – in tanti la usano. Lo stesso vale per l’elettricità, che in pochi saprebbero spiegare. I benefici dell’IA però sono identici e non sono d’accordo con l’articolo che ci sia una differenza tra guidare la macchina senza essere a conoscenza del suo funzionamento o di usare il navigatore per trovare una meta.

    L’IA, come la macchina, non è autosufficiente. Ha bisogno di utenti e impulsi esterni. Anche se la funzionalità nel nucleo rimane astratta e una *black box*. I benefici stanno sulla mano, ci aiuta a generare immagini, testi oppure contenuti più in fretta e sta a ciascuno di noi decidere se l’*output* aderisca alle aspettative di qualità individuali.

    Perciò infine son d’accordo con l’articolo che chiude con

    >Si tratta cioè di *consigli* all’operatore, che poi vaglierà con la propria testa.

    L’articolo comunque ha dei passaggi pressoché arroganti, ignorando le verità umane odierne:

    >Mentre è normale usare uno strumento incomprensibile per ottenere un risultato che ben sappiamo valutare, nessuno si sognerebbe mai di perseguire un risultato inintelligibile.

    Abbiamo talmente tanti opinionisti online e sui social media che non vado a cercare esempi. Dico solo che è incredibile quante stupidaggini vengono sparse con tantissima confidenza sia in privato che su internet, che alla fine veramente non fa differenza se emerse da un’IA o da una conversazione al bar.

    >Perché dovrei voler scrivere un articolo di giornale su un argomento che non conosco minimamente? Perché dovrei tentare di diagnosticarmi una malattia in base a dei sintomi che credo di sentire? O di difendermi da solo in tribunale? O provare a scrivere un intero sistema operativo per computer?

    Qui vengono sottovalutate le motivazioni intrinseche. Se a qualcuno piace scrivere riviste di videogiochi, anche se sono scritte in modo pessimo o poco avvincenti, a chi verrebbe in mente di privarli della propria passione? Quanti di voi vanno a cercare su Google dei sintomi di malattia prima di contattare il pronto soccorso o il medico? Trovare 50’000 pagine di farmacie e dottori vari, riviste, leggere articoli su articoli per cercare o di calmarsi o di capire veramente a quali rischi si sia esposti? Dov’è la differenza se un motore probabilistico e potenzialmente più accurato mi dia un’idea della correlazione di sintomi e malattie varie. Lo stesso vale per difendersi in tribunale, cercherei storie simili alle mie perché forse l’avvocato non é un’opzione viabile.

    Avrei tanto da scrivere e già son fallito a tenermi breve. L’impostore digitale è seduto davanti allo schermo. L’IA è un ulteriore strumento per abilitare e accelerare gli utenti nelle loro imprese, indifferente se basate su virtù o follie. Ciascuno di noi rimane responsabile allo scrutinio di quello che facciamo e condividiamo con altri, anche se non su tutti i temi riusciamo farci credere plausibili. I contenuti IA perciò sono da analizzare criticamente e son d’accordo che bisogna fare attenzione ai diritti d’autore e evitare il plagio.

    Per divertimento ho fatto fare a chatgpt il riassunto dell’articolo (perdonatemi) e anche se ne manca la completa essenza, penso non devii troppo dalle attestazioni fatte nel articolo, anche se ovviamente in modo superficiale:

    ​

    >L’intelligenza artificiale è un potente strumento, ma ci sono preoccupazioni riguardo alla sua comprensione e affidabilità. Mentre è normale usare strumenti tecnologici senza conoscere i dettagli interni, l’intelligenza artificiale solleva interrogativi diversi. L’IA fornisce risposte basate su statistiche, ma a volte sono errate o poco rilevanti. Ciò può portare alla svalutazione di professionisti come giornalisti, medici e avvocati. L’uso dell’IA potrebbe rendere difficile trovare professionisti qualificati quando ne abbiamo bisogno. Inoltre, l’IA può sollevare preoccupazioni sulla sicurezza e la privacy dei dati. È importante considerare attentamente l’utilizzo dell’IA e i suoi potenziali impatti negativi.

    input usati:

    `read the following text and let me know if you agree` [`https://appunti.substack.com/p/limpostore-digitale`](https://appunti.substack.com/p/limpostore-digitale)

    seguito da

    `can you shorten your reply to the key elements can give me the output in italian?`

  8. Stefano Feltri è un mito, riesce ad essere peggio di Vittorio Feltri, un’impresa titanica. Almeno Vittorio fa ridere.

  9. Mbe? Mi sembra un’accozzaglia di roba che ci erano già arrivati tutti sei mesi fa.

    Qual è il succo dell’articolo?

    No perché io è dalla versione 1 che dico che non può in nessun modo sostituire un programmatore

  10. …tutto vero ma lo sappiamo, ormai si sprecano questi articoli. Meglio che ci siano piuttosto che non ci siano, però è anche meglio leggere articoli più scientifici.

  11. > Ho svolto diversi esperimenti che coinvolgevano l’IA, […] Non è tollerabile che una parte significativa della procedura utilizzata per giungere la misura finale non sia conoscibile.

    Notare che qui l’autore non parla piu di IA che di terzi, ma del fatto di crearne una per facilitarsi il lavoro.

    Qui secondo me si sbaglia nel dire che “la procedura utilizzata per giungere la misura finale non sia conoscibile”, infatti, a meno che uno non librerie tipo keras alla cieca, chi è esperto di ML puo, in un certo grado, testare ad esempio una rete neurale, per capire che features ha effettivamente imparato a riconoscere e cose di questo tipo.

  12. Io penso che le AI siano sopravvalutate. Possono essere da una parte un rischio perché velocizzeranno certi lavori, certo che nel paese in cui per firmare un documento con un PC qualsiasi impiegato lo stampa, lo firma su carta e lo scansiona, hai voglia prima che si adottino le AI…

    ChatGPT ha fatto spacco perché ha un’interfaccia con cui ci chatti, che per carità è comoda per reperire informazioni velocemente, di tanto in tanto la uso per domande molto specifiche e spesso da risposte giuste o quasi giuste, una sorta di motore di ricerca potenziato, ma non è qualcosa che può risolvere i problemi del mondo.

    Per loro costruzione le AI potranno sempre e solo dare risultati che erano presenti nel loro set di dati di training, che per quanto ampio contiene solo informazioni esistenti, fra l’altro che nessuno garantisce siano corrette o meno, perché l’AI di sicuro non lo può sapere.

    I problemi di privacy invece esistono, e che se ne dica la vicenda ChatGPT e garante non ha risolto il nocciolo della questione, rimandandolo in futuro, ossia che da un modello addestrato di AI è impossibile eliminare o correggere un’informazione in maniera puntuale.

  13. Da programmatore l’AI mi ha *cambiato la vita*.

    Spessissimo riesco a trovare risposte o soluzioni pronte per problemi e/o dubbi che altrove non riesco neanche parzialmente a cercare (o magari trovo qualcosa che è una via di mezzo ma ci devo perdere un sacco di tempo). Non è uno strumento perfetto, ovviamente. A volte le risposte non sono esatte e se non conosci il mestiere rischi di piantarti senza capre il motivo. Per quella che è la mia esperienza di utilizzo da ormai diversi mesi… Gli errori sono talmente rari (ed evidenti) che quasi non li ricordo neanche.

    *Google*, *StackOverflow*, *forum vari* e *Reddit* sono sempre stati il mio pane quotidiano. Adesso con *OpenAI* il cambiamento (in meglio) è impressionante. Lavoro nel settore web/coding dal 1998 e ricordo pochissimi momenti così “storici” come l’avvento di Open AI.

    Aggiungo che da quando la utilizzo riesco anche a vendermi come copywriter per lavoretti più tranquilli ma che comunque mi fanno portare a casa qualche soldo in più, praticamente a fatica zero.

  14. Neanche altre tecnologie le puoi usare in sicurezza non conoscendone almeno i rudimenti del funzionamento. Altrimenti non esisterebbero truffe. E io riesco a riconoscere immagini generate (per ora) pur sapendone un cazzo

  15. Un paese assolutamente inadeguato alla modernità, a cominciare dalla sua cosiddetta classe dirigente

Leave a Reply