Visto che negli ultimi tempi non si fa altro che parlare di ChatGPT e delle professioni che potrebbero sparire, ecco un esempio di uso reale di ChatGPT.
Un avvocato americano ha usato ChatGPT per generare la documentazione di una causa e ChatGPT ha generato falsi casi precedenti.
Questo a riprova del fatto che ChatGPT è uno strumento che può aiutare a velocizzare e a migliorare il lavoro, ma necessita comunque di un controllo e di una validazione umana.
Enorme confusione su cosa é effettivamente ChatGPT.
Non é un risponditore automatico enciclopedico. É un modello di linguaggio naturale probabilistico.
Prima che venga usato come vuole questo avvocato, ci vuole una versione allenata in modo specifico solo su casi legali veri, certificati e che possa rispondere a modo. A quel punto allora potrà usare questo sistema per chiedergli con linguaggio naturale quali siano tutte le sentenze su un certo caso emesse e la risposta sarà messa in forma più bella e snella.
Ma fino a quando non sarà così…
I Large Language Model non sono intelligenze artificiali affidabili. Sono sofisticate macchine statistiche che producono linguaggio coerente e scorrevole imitando vasti dataset testuali su cui sono state allenate, e poiché questi enormi corpora contengono “incrostazioni” della logica e della creatività umana possono apparire capaci di ragionare; in realtà però non contengono ancora nessun meccanismo per distinguere il falso dal vero.
Possiamo dire che al momento abbiamo nelle nostre mani dei “confabulatori seriali” che spesso per fortuna azzeccano la risposta ma a volte prendono cantonate pazzesche. Il campo di ricerca delle “AI hallucinations” è estremamente attivo.
Con questo non voglio sminuire l’importanza dei recenti passi avanti del machine learning, impensabili fino ad un paio di anni fa.
Beh, si è comportata da avvocato
L’avvocato è stato ignorante e pigro nell’utilizzare nel suo lavoro uno strumento che non conosce e di cui non ha padronanza solo perché pensava gli avrebbe facilitato il lavoro.
Errore suo.
Better Call ChatGPT
Caro avvocato,
Mi rivolgo a te per condividere alcune preoccupazioni sul possibile utilizzo di ChatGPT, un modello di intelligenza artificiale, per la difesa dei tuoi clienti. Sebbene sia indubbio che l’IA abbia il potenziale per trasformare molti settori, inclusa la pratica legale, esistono ragioni valide per cui gli avvocati dovrebbero evitare di affidarsi esclusivamente a ChatGPT per rappresentare i loro clienti. Di seguito, elenco alcune considerazioni cruciali:
1. Mancanza di comprensione contestuale: Sebbene ChatGPT sia estremamente competente nell’elaborazione del linguaggio naturale, può ancora mancare una comprensione approfondita del contesto specifico di un caso legale. L’interpretazione dei documenti, delle testimonianze e delle norme legali richiede una conoscenza dettagliata delle leggi e delle giurisprudenze che spesso vanno oltre la portata di un modello di intelligenza artificiale.
2. Mancanza di empatia e intuizione umana: La pratica legale richiede una comprensione profonda delle emozioni e dei sentimenti umani. Gli avvocati devono essere in grado di stabilire connessioni empatiche con i loro clienti, cogliere sfumature nelle testimonianze e rispondere in modo appropriato. ChatGPT, essendo una macchina, non possiede empatia o intuizione umana e potrebbe non essere in grado di fornire il supporto emotivo necessario ai clienti.
3. Responsabilità etica e legale: L’utilizzo di ChatGPT nella pratica legale potrebbe sollevare preoccupazioni etiche e legali. Gli avvocati sono tenuti a seguire codici di condotta professionali che richiedono l’assunzione di responsabilità personale per le proprie azioni e decisioni. Affidarsi esclusivamente a un modello di intelligenza artificiale potrebbe sollevare interrogativi sulla trasparenza, sulla responsabilità e sulla supervisione umana necessaria per garantire un’assistenza legale adeguata.
4. Rischi di sicurezza e privacy: L’uso di ChatGPT comporta la condivisione di informazioni confidenziali con un sistema di intelligenza artificiale di terze parti. Questo potrebbe comportare rischi per la sicurezza e la privacy dei tuoi clienti. È fondamentale proteggere le informazioni sensibili e garantire che siano trattate in modo adeguato e conforme alle norme legali e alle regole sulla privacy.
Mentre l’IA può essere un valido strumento per supportare l’attività legale, è importante che gli avvocati conservino il controllo e mantengano il loro ruolo centrale nella difesa dei clienti. La combinazione di competenze umane, esperienza giuridica e supporto tecnologico può portare a risultati migliori e garantire un’assistenza legale di qualità superiore.
Spero che queste considerazioni ti siano utili nel valutare l’opportunità di utilizzare ChatGPT nella tua pratica legale. Se hai ulteriori domande o dubbi, non esitare a contattarmi.
Cordiali saluti,
Avvocato più stupido del mondo? Ha chiesto a chatGPT la fonte di quello che ha scritto! Genio!
Logicamente è sbagliata
Surprised Pikachu
“Non l’eroe che meritiamo, ma quello di cui abbiamo bisogno”
La stupidità umana è più forte dell’intelligenza artificiale
Plot twist: I casi sono veri ma censurati dai poteri forty che peró non sono riusciti a bloccare chatgpt dal trovarli. /s
Mi fiderei di più di un avvocato investigatore che picchia i bulli e fa amicizia con la mafia cinese piuttosto di uno che utilizza chat gpt.
Un buon avvocato, una persona esperta, è ancora e sempre la miglior soluzione. Anche un buon [avvocato online](https://savimap.com/it/avvocato-online/). Semmai chatGPT puo rileggere le sue note. Ma l’esperienza di un vero esperto non è replicabile. Non per il momento e forse non lo sarà mai.
14 comments
Visto che negli ultimi tempi non si fa altro che parlare di ChatGPT e delle professioni che potrebbero sparire, ecco un esempio di uso reale di ChatGPT.
Un avvocato americano ha usato ChatGPT per generare la documentazione di una causa e ChatGPT ha generato falsi casi precedenti.
Questo a riprova del fatto che ChatGPT è uno strumento che può aiutare a velocizzare e a migliorare il lavoro, ma necessita comunque di un controllo e di una validazione umana.
Enorme confusione su cosa é effettivamente ChatGPT.
Non é un risponditore automatico enciclopedico. É un modello di linguaggio naturale probabilistico.
Prima che venga usato come vuole questo avvocato, ci vuole una versione allenata in modo specifico solo su casi legali veri, certificati e che possa rispondere a modo. A quel punto allora potrà usare questo sistema per chiedergli con linguaggio naturale quali siano tutte le sentenze su un certo caso emesse e la risposta sarà messa in forma più bella e snella.
Ma fino a quando non sarà così…
I Large Language Model non sono intelligenze artificiali affidabili. Sono sofisticate macchine statistiche che producono linguaggio coerente e scorrevole imitando vasti dataset testuali su cui sono state allenate, e poiché questi enormi corpora contengono “incrostazioni” della logica e della creatività umana possono apparire capaci di ragionare; in realtà però non contengono ancora nessun meccanismo per distinguere il falso dal vero.
Possiamo dire che al momento abbiamo nelle nostre mani dei “confabulatori seriali” che spesso per fortuna azzeccano la risposta ma a volte prendono cantonate pazzesche. Il campo di ricerca delle “AI hallucinations” è estremamente attivo.
Con questo non voglio sminuire l’importanza dei recenti passi avanti del machine learning, impensabili fino ad un paio di anni fa.
Beh, si è comportata da avvocato
L’avvocato è stato ignorante e pigro nell’utilizzare nel suo lavoro uno strumento che non conosce e di cui non ha padronanza solo perché pensava gli avrebbe facilitato il lavoro.
Errore suo.
Better Call ChatGPT
Caro avvocato,
Mi rivolgo a te per condividere alcune preoccupazioni sul possibile utilizzo di ChatGPT, un modello di intelligenza artificiale, per la difesa dei tuoi clienti. Sebbene sia indubbio che l’IA abbia il potenziale per trasformare molti settori, inclusa la pratica legale, esistono ragioni valide per cui gli avvocati dovrebbero evitare di affidarsi esclusivamente a ChatGPT per rappresentare i loro clienti. Di seguito, elenco alcune considerazioni cruciali:
1. Mancanza di comprensione contestuale: Sebbene ChatGPT sia estremamente competente nell’elaborazione del linguaggio naturale, può ancora mancare una comprensione approfondita del contesto specifico di un caso legale. L’interpretazione dei documenti, delle testimonianze e delle norme legali richiede una conoscenza dettagliata delle leggi e delle giurisprudenze che spesso vanno oltre la portata di un modello di intelligenza artificiale.
2. Mancanza di empatia e intuizione umana: La pratica legale richiede una comprensione profonda delle emozioni e dei sentimenti umani. Gli avvocati devono essere in grado di stabilire connessioni empatiche con i loro clienti, cogliere sfumature nelle testimonianze e rispondere in modo appropriato. ChatGPT, essendo una macchina, non possiede empatia o intuizione umana e potrebbe non essere in grado di fornire il supporto emotivo necessario ai clienti.
3. Responsabilità etica e legale: L’utilizzo di ChatGPT nella pratica legale potrebbe sollevare preoccupazioni etiche e legali. Gli avvocati sono tenuti a seguire codici di condotta professionali che richiedono l’assunzione di responsabilità personale per le proprie azioni e decisioni. Affidarsi esclusivamente a un modello di intelligenza artificiale potrebbe sollevare interrogativi sulla trasparenza, sulla responsabilità e sulla supervisione umana necessaria per garantire un’assistenza legale adeguata.
4. Rischi di sicurezza e privacy: L’uso di ChatGPT comporta la condivisione di informazioni confidenziali con un sistema di intelligenza artificiale di terze parti. Questo potrebbe comportare rischi per la sicurezza e la privacy dei tuoi clienti. È fondamentale proteggere le informazioni sensibili e garantire che siano trattate in modo adeguato e conforme alle norme legali e alle regole sulla privacy.
Mentre l’IA può essere un valido strumento per supportare l’attività legale, è importante che gli avvocati conservino il controllo e mantengano il loro ruolo centrale nella difesa dei clienti. La combinazione di competenze umane, esperienza giuridica e supporto tecnologico può portare a risultati migliori e garantire un’assistenza legale di qualità superiore.
Spero che queste considerazioni ti siano utili nel valutare l’opportunità di utilizzare ChatGPT nella tua pratica legale. Se hai ulteriori domande o dubbi, non esitare a contattarmi.
Cordiali saluti,
Avvocato più stupido del mondo? Ha chiesto a chatGPT la fonte di quello che ha scritto! Genio!
Logicamente è sbagliata
Surprised Pikachu
“Non l’eroe che meritiamo, ma quello di cui abbiamo bisogno”
La stupidità umana è più forte dell’intelligenza artificiale
Plot twist: I casi sono veri ma censurati dai poteri forty che peró non sono riusciti a bloccare chatgpt dal trovarli. /s
Mi fiderei di più di un avvocato investigatore che picchia i bulli e fa amicizia con la mafia cinese piuttosto di uno che utilizza chat gpt.
Un buon avvocato, una persona esperta, è ancora e sempre la miglior soluzione. Anche un buon [avvocato online](https://savimap.com/it/avvocato-online/). Semmai chatGPT puo rileggere le sue note. Ma l’esperienza di un vero esperto non è replicabile. Non per il momento e forse non lo sarà mai.
https://preview.redd.it/leyic8ib9t2b1.jpeg?width=640&format=pjpg&auto=webp&v=enabled&s=a728c4cc50559cc697520d23e0713f285f8b26ba