Sono state riscontrate alcune criticità a causa delle quali ci sono problemi di sicurezza per gli utenti, cosa c’è da sapere

In un periodo, come quello che stiamo vivendo, in cui le truffe online dilagano sempre di più, era prevedibile che accadesse anche una cosa del genere. Ancora una volta la privacy degli utenti è a rischio, ma il canale utilizzato dai cybercriminali adesso è diverso.

Proprio per questo bisogna prestare la massima attenzione, i tentativi di frode si nascondono anche dietro canali insospettabili ed è questo il motivo per cui anche le vittime di truffe online – purtroppo – sono in aumento.

Privacy degli utenti in pericolo, cosa sta succedendo e come ci si può difendere

I cybercriminali hanno iniziato a usare anche ChatGPT, il chatbot di intelligenza artificiale che è utilizzato da milioni di persone quotidianamente. Era inevitabile che un “terreno così fertile” fosse preso di mira da chi compie truffe online, si tratta di una fonte preziosa di dati e informazioni, che possono essere sfruttate in molteplici modi.

allarme privacy cosa sta accadendoAllarme privacy, quali sono le criticità riscontrate – Macitynet.it

L’ultimo allarme riguarda i tentativi degli hacker di superare i sistemi di sicurezza OpenAI, per riuscire a ottenere informazioni importanti. Secondo l’allarme lanciato dall’azienda di sicurezza informatica Tenable, pare che ci stiano riuscendo e sarebbero – al momento – state riscontrate ben sette vulnerabilità all’interno di ChatGPT. Falle che sono state chiamate HackedGPT e potrebbero provocare una serie di danni agli utenti. Sembra, inoltre, che 4 criticità siano presenti anche nel modello più avanzato di OpenAI, GPT-5.

Sebbene per ora non ci siano informazioni dettagliate su quale sia l’uso che gli hacker fanno dei dati e delle informazioni che riescono ad ottenere da ChatGPT, è possibile ipotizzare che i rischi per chi utilizza il famoso chatbot siano alti. Tra le varie falle di sicurezza c’è il pericolo che quando si chiede all’AI la sintesi di un articolo, il cybercriminale riesca a cliccare su link pericolosi o a scaricare applicazioni dannose.

Tra i potenziali pericoli c’è anche l’attacco zero-click, forse uno di quelli più insidiosi, perché si attiverebbe con la domanda a ChatGPT di svolgere una ricerca online per dare una risposta, in questo modo tra i siti che compaiono potrebbe essercene uno con un codice dannoso, che attacca il device dell’utente senza bisogno che clicchi su qualche link. A questo si aggiunge una vulnerabilità quando gli utenti condividono il link di una domanda precompilata senza dove comporre il prompt, in questo modo l’hacker può sostituire il testo con istruzioni che celano un pericolo, se l’utente clicca su quel collegamento potrebbe attivare comandi nascosti nel proprio account ChatGPT.

Queste criticità possono essere molto pericolose, OpenAI già da tempo ha implementato i sistemi di sicurezza, integrando ulteriormente “url_safe”, protezione che serve a bloccare i link “malsani” che arrivano sullo schermo. Ma a quanto pare i cybercriminali hanno raggirato anche questo meccanismo.

Secondo gli esperti di Tenable al momento non ci sarebbe il modo per eliminare istruzioni dannose che si sono attivate su ChatGPT, un semplice riavvio non basterebbe poiché tutto resta nella memoria a lungo termine del chatbot. Il modo per proteggersi è evitare di condividere dati sensibili e informazioni personali, per evitare che siano sfruttati dai cybercriminali. Presumibilmente in breve tempo OpenAI potrebbe trovare il modo per bloccare questi tentativi di truffa, ma per ora bisogna prestare la massima attenzione.