Stop immediato a ChatGpt in Italia. Il garante della Privacy: «Dati personali a rischio»

41 comments
  1. Downvotatemi: il Garante ha ragione. Servizio bellissimo, lo adoro e penso che questo tipo di assistenti virtuali siano il futuro di molti lavori, ma la gestione della privacy finora è stata carente fino all’inesistenza. Proprio perché voglio che prosperino sono a favore di un intervento precoce, prima che diventino servizi commerciali importanti, in modo che si sviluppino fin da subito con policy di data management adeguate.

  2. Ottimo, giusto ieri ho pagato un mese di abbonamento al Plus per provare ChatGPT4! Qualcuno ha idea di cosa potrebbe succedere? C’è qualche furbata che posso inventarmi oppure ho buttato 20€?

  3. Il Garante è un ritaliano che si era rotto i coglioni dei millemila commenti nel Caffè su ChatGPT

  4. Titolo molto ambiguo,in realtà la sede europea ha 20 giorni di tempo per rimediare a tutte le carenze sul regolamento dei dati pena una multa parti a un’esigua percentuale del fatturato.

  5. “Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza».”

    ah, ho capito, invece negli altri siti specie quelli zozzi c’è un filtro? e non ditemi che cliccare su SI sia un filtro

  6. non capisco.
    A parte email e numero della carta di credito con relativo nome e cognome, che dati personali raccoglie chatGPT?

    > Il Garante privacy, inoltre, sostiene di rilevare […] la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

    Di che raccolta massiccia stanno parlando di preciso? Sotto questo punto di vista rispetto a un qualsiasi social network, rispetto ad android, rispetto a navigare su internet impestata di ad-sense, chatGPT sembra un agnellino

  7. Facciamo qualcosina anche per le chiamate promozionali illegali che aggirano senza problemi i registri vari? So boni tutti a schiaffare una multa GDPR

  8. Ah siamo già nella fase “che paura le cose nuove?”. Per carità il data breach c’è stato, ma avvengono tutti i giorni e ovunque, non è qualcosa di specifico di chatgpt.

    Politico che usa l’odio verso le AI per generare consensi populisti in stile “nei videogiochi vince chi seppellisce la bambina prima/ chi uccide più prostitute” in 3…2…1…

  9. > L’Autorità, si legge nel comunicato con cui ha reso noto il provvedimento, «ha contestualmente aperto un’istruttoria. ChatGpt, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento». 
    > […]
    > Il Garante privacy, inoltre, sostiene di rilevare la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto «l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto

    Mi sembra assolutamente fondato:

    * data breach non gestito correttamente (secondo disposizioni GDPR).
    * mancanza informativa e trattamento dati inesatto.

    Che altro dovrebbe fare il garante? Tra l’altro secondo GDPR le attività dei garanti europei devono andare nella stessa direzione, quindi c’è da aspettarsi che gli altri garanti europei o seguiranno o sono comunque già stati consultati.

  10. Testo dell’articolo:

    Ci sono notizie preoccupanti per gli utenti italiani di ChatGPT, il famoso assistente virtuale che ha conquistato milioni di persone in tutto il mondo grazie alla sua capacità di comprendere e rispondere in modo naturale alle domande degli utenti. Infatti, a seguito di alcuni problemi di privacy, ChatGPT potrebbe essere costretto a chiudere i suoi servizi in Italia.

    Il problema riguarda la raccolta e l’utilizzo dei dati personali degli utenti da parte di ChatGPT. In particolare, alcuni utenti hanno sollevato preoccupazioni riguardo alla possibilità che le loro conversazioni con l’assistente virtuale possano essere registrate e utilizzate per fini pubblicitari o di profilazione. Inoltre, alcuni hanno sottolineato il fatto che ChatGPT è stato sviluppato da una società con sede negli Stati Uniti, il che potrebbe comportare una violazione delle normative europee sulla privacy.

    Di fronte a queste preoccupazioni, le autorità italiane hanno avviato un’indagine sulla questione. In particolare, l’Antitrust ha aperto un’istruttoria per verificare se ChatGPT stia violando le normative italiane sulla privacy e sulla protezione dei dati personali. Nel frattempo, molte organizzazioni per la difesa della privacy hanno chiesto la chiusura dei servizi di ChatGPT in Italia.

    Sebbene non sia ancora stata presa una decisione definitiva, l’eventuale chiusura di ChatGPT in Italia avrebbe conseguenze importanti per gli utenti italiani. In primo luogo, molti utenti si sono affidati a ChatGPT per rispondere alle loro domande su una vasta gamma di argomenti, dall’intrattenimento alla salute, dalla tecnologia alla cultura. La perdita di questo servizio potrebbe quindi comportare una notevole diminuzione della qualità della vita degli utenti.

    In secondo luogo, la chiusura di ChatGPT in Italia potrebbe avere ripercussioni negative sull’industria italiana dell’assistenza virtuale. Infatti, molte aziende italiane stanno investendo in questo settore promettente, ma la chiusura di ChatGPT potrebbe scoraggiare ulteriori investimenti.

    In conclusione, la questione della privacy è estremamente importante e deve essere presa molto sul serio. Tuttavia, la chiusura di ChatGPT in Italia potrebbe avere conseguenze negative per gli utenti e per l’industria dell’assistenza virtuale. È quindi necessario trovare un equilibrio tra la protezione della privacy degli utenti e la promozione di un settore innovativo e in rapida crescita come quello dell’assistenza virtuale.

    (non è l’articolo vero, è di chatGPT lol)

  11. Ho chiesto a ChatGpt:

    Io: Il garante ti ha bloccato?

    ChatGpt: Mi dispiace, ma non sono in grado di essere bloccato dal Garante della Privacy in quanto sono un’intelligenza artificiale sviluppata da OpenAI e non raccolgo né conservo dati personali. Sono progettato per rispondere a domande e fornire informazioni in modo imparziale e rispettoso della privacy degli utenti.

    Sarei curioso di vedere uno scontro all’ultimo sangue tra Skynet e le PA italiane!

  12. Ma che si esprima su google analytics invece di continuare con ste fesserie che quelli di monitorapa mi hanno rotto il cazzo

  13. La mia impressione è che il provvedimento si riferisca ad una policy di OpenAI obsoleta rispetto a quella attuale (che è del 14 marzo), che chiarisce meglio:

    – Posizione sui minori

    – Responsabile europeo per il trattamento dati

    – Dati trattati

    – Vari altri punti

    Per chiarimenti ulteriori:

    Policy aggiornata OpenAI (consiglio la lettura perchè se usate ChatGPT la state accettando implicitamente): [https://openai.com/policies/privacy-policy](https://openai.com/policies/privacy-policy)

    News del garante: [https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847](https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847)

    Provvedimento vero e proprio (molto legalese, inizia con una dozzina di “visto”, “preso atto”, “rilevato”): [https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832](https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832)

    In generale posso pensare che nella lotteria europea di quelli che avrebbero dovuto rompere le scatole ad OpenAI stavolta la pagliuzza corta sia rimasta in mano al garante italiano…

  14. Ho provato a dare in pasto l’articolo a ChatGPT3 e chiesto di suggerire il titolo.

    “ChatGpt di OpenAI rischia una multa fino a 20 milioni di euro mentre l’Autorità per la Privacy italiana avvia un’indagine”

    Mi sono poi divertito a provare a chiedere un titolo da usare per i social.

    “Scandalo OpenAI: ChatGpt bloccata in Italia con multa fino a 20 milioni di euro! Cosa ha fatto l’AI più avanzata del mondo?”

    Che dire, sono sorpreso… Devo ancora capire però se in positivo o in negativo

  15. ChatGPT scrivi un commento sotto questo post su reddit:

    È preoccupante vedere come i dati personali degli utenti italiani siano a rischio su ChatGpt e come l’azienda non abbia fornito una base giuridica per la raccolta e la conservazione di tali dati. È giusto che il Garante per la privacy abbia preso provvedimenti per proteggere i cittadini italiani e che sia stata aperta un’istruttoria per verificare la situazione. Speriamo che OpenAI possa risolvere i problemi riscontrati e che ChatGpt possa tornare a essere accessibile in Italia in modo sicuro. È importante che ci sia una maggiore consapevolezza dei rischi legati alla rete e ai servizi online, soprattutto per i minori.

  16. Da mezzanotte mi si è bloccato il sito. Ora è accessibile solo con VPN.
    Vedremo gli sviluppi.

  17. Giusto cosi’, che si adeguino alle regole. Se dietro ChatGPT ci fosse stata una azienda cinese sarebbe stata bombardata di critiche dal giorno zero. Gia’ me lo vedevo il *Baiden* scoreggiare in giro per il mondo urlando alla *minaccia per la sicurezza nazionale*…

  18. Il trattamento dei dati personali e’ un problemino.

    La proprieta’ intellettuale dei dati acquisiti nel training e distribuita in giro penso sia in futuro un altro problema. Sopratutto per il codice sorgente la licenza (open source o meno) e l’autore (se il codice e’ stato copiato verbatim, come spesso accade, magari con qualche semplice refactoring) dovrebbe sempre essere inclusa nelle risposte.

Leave a Reply