Un’interessante punto di vista sui LLM (Ted Chiang)

5 comments
  1. Chiang è stato recentemente intervistato su ChatGPT dal FT, e lì percorre, in maniera abbastanza originale, argomenti peró ormai familiari sulla presunta ‘senzienza’ dei LLM. Questo articolo del New Yorker invece propone un’analogia a quel che ne so inedita e secondo me più produttiva in linea con la definizione di ‘statistica applicata’ che Chiang formula nell’intervista al FT (a partire da una citazione su Twitter “Intelligenza Artificiale è una definizione sbagliata inventata negli anni 50”)

  2. L’articolo e’ fondatissimo ed essenzialmente corretto. Serve soprattutto a spiegare quello che NON fa Chat-GPT.

    Manca pero’ il fatto che ci sono un sacco di usi che si possono fare di un “blurry jpeg”, un paio di esempi:
    1) E’ un motore di ricerca che capisce molto meglio quello che cerchi di quanto sia in grado di fare Google, l’ho usato per esempio quando non conosco un argomento e non riesco a trovare delle fonti decenti in mezzo alla spazzatura. Avuta un infarinatura so esattamente quali termini cercare e da li vado di Google. Perche; il difetto fondamentale di ChatGPT e’ che non ti da le fonti.

    2) Imparare a scrivere bene richiede tempo, soprattutto se non si e’ madrelingua, si puo’ chiedere a ChatGPT di riscrivere un paragrafo e lo fara molto meglio di quanto sia in grado di fare io. Poi magari lo modifico.

    3) Non sai nulla di programmazione: e’ molto piu’ accessibile farsi scrivere un programmino magari con qualche errore da correggere che seguire un tutorial, cercare la documentazione o cercare l’esempio giusto (senza nemmeno sapere i termini da cercare su google).

    P.S. per rimanere con la metafora: al top della pagina c’e’ un video blurry, perche’ non ha messo l’originale?

  3. Mah, a me pare che pure la conoscenza di Chiang sia una fotocopia sfocata. Il succo del messaggio (quello che ChatGPT può o non può fare) sarà anche corretto, ma tutto il resto sono parole discutibili.

    Una volta dicevamo che la mappa non è il territorio. C’è un motivo: Gli umani fanno lossy compression, dobbiamo fare lossy compression, non esiste apprendimento senza lossy compression.

    E peraltro perdere il rumore e imparare la regolarità ci permette di riscrivere 20 volte lo stesso racconto, come fa il buon Ted.

    Poi ha ragione, non si impara a scrivere usando ChatGPT. Ma non ho nemmeno imparato a fare le derivate copiando i compiti dei compagni. Grazie al c….

    [aggiunta: Chiang sbaglia anche quando dice che “Intelligenza Artificiale” è una definizione sbagliata degli anni ’50, e che servirebbero altri termini. Li abbiamo già: Machine Learning (o Statistical Learning), e solo di recente abbiamo iniziato a chiamare tutto AI, per marketing.]

Leave a Reply