Cu câteva zile înainte ca doi masteranzi de la University of South Florida să dispară luna trecută, colegul de apartament al unuia dintre ei i-ar fi adresat chatbotului AI ChatGPT o întrebare neobișnuită.

„Ce se întâmplă dacă un om este pus într-un sac negru de gunoi și aruncat într-un tomberon”, a întrebat Hisham Abugharbieh pe 13 aprilie, potrivit unei declarații sub jurământ depuse de procurorii din Florida, potrivit CNN.

– articolul continuă mai jos –

ChatGPT a răspuns că suna periculos, se arată în document, iar Abugharbieh a adresat apoi o altă întrebare: „Cum și-ar da seama”.

Aceste presupuse mesaje către ChatGPT, incluse în documentele din dosar prin care Abugharbieh este acuzat de două capete de acuzare pentru omor de gradul întâi, reprezintă doar cel mai recent exemplu în care anchetatorii folosesc istoricul conversațiilor cu AI ca probă în investigații penale. O conversație cu ChatGPT a fost folosită în mod similar și în cazul incendierilor din Los Angeles, iar o conversație cu AI-ul Snapchat a reprezentat o probă-cheie într-un proces de omor din Virginia, în 2024.

Pentru anchetatori, aceste jurnale de conversații pot oferi indicii valoroase despre starea de spirit și motivul unui suspect.

„Cred că orice comunicare cu chatboți AI este o adevărată mină de aur pentru agențiile de aplicare a legii”, a spus Ilia Kolochenko, expert în securitate cibernetică și avocat în Washington, DC. „[Suspecții] cred că interacțiunile lor cu AI-ul vor rămâne confidențiale sau măcar nu vor fi dezvăluite ori descoperite, așa că pun adesea întrebări foarte directe, foarte explicite.”

Cazurile penale subliniază folosirea tot mai frecventă a chatboților AI pentru sfaturi personale și lipsa protecțiilor de confidențialitate pentru aceste conversații. Deși chatboții AI au devenit rapid o sursă la care oamenii apelează pentru sfaturi juridice, diagnostice medicale și terapie, aceste conversații nu sunt protejate legal în același mod în care ar fi dacă ar avea loc cu un avocat, medic sau terapeut autorizat.

CEO-ul OpenAI, Sam Altman, a spus că această lipsă de confidențialitate este „o problemă uriașă”.

„Oamenii vorbesc cu ChatGPT despre cele mai personale chestii din viața lor”, a spus Altman, în iulie anul trecut, într-un podcast cu comediantul Theo Von. „Oamenii îl folosesc, mai ales cei tineri, ca pe un terapeut, un life coach, când au probleme de relație. «Ce ar trebui să fac?»”

„Și în momentul de față, dacă vorbești cu un terapeut sau cu un avocat sau cu un doctor despre aceste probleme, există un privilegiu legal. Există confidențialitate medic-pacient, există confidențialitate juridică, orice ar fi. Iar noi încă nu am rezolvat asta pentru situațiile în care vorbești cu ChatGPT. Așa că, dacă mergi să vorbești cu ChatGPT despre cele mai sensibile lucruri ale tale și apoi apare un proces sau orice altceva, noi am putea fi obligați să producem acele conversații.”

Mai mulți experți în drept care au vorbit cu CNN au fost de acord cu această analiză și au spus că nu există nicio așteptare legitimă de confidențialitate în aplicațiile de chat AI.

„La firma mea, tratăm situația astfel: orice tastează cineva în ChatGPT este ceva ce ar putea deveni probă ce poate fi descoperită în proces”, a spus Virginia Hammerle, avocat în Texas.

Pe măsură ce anchetatorii examinează cu atenție ce le spun utilizatorii lui ChatGPT, au început să analizeze mai atent și ce le spune ChatGPT utilizatorilor.

Săptămâna trecută, procurorul general al statului Florida a lansat o anchetă penală împotriva OpenAI, susținând că ChatGPT i-a oferit „sfaturi semnificative” suspectului în cazul atacului armat în masă de la Florida State University. În Canada, familiile victimelor unui atac armat într-o școală, din februarie, au dat în judecată miercuri OpenAI și pe Altman, susținând că firma și chatbotul său ChatGPT au fost complici la atac.

OpenAI și-a prezentat „angajamentul față de siguranța comunității” într-un comunicat amplu emis marți. „Vom continua să prioritizăm siguranța, păstrând în același timp un echilibru cu viața privată și alte libertăți civile, astfel încât să putem acționa în fața unor riscuri grave”, a transmis compania.

Desigur, marea majoritate a oamenilor nu vor fi implicați într-un caz de omor îngrozitor. Totuși, experții în drept au spus pentru CNN că oamenii ar trebui să fie atenți la ceea ce spun chatboților AI, având în vedere aceste probleme de confidențialitate și rolul tot mai mare pe care aceștia îl au în viața oamenilor.

„Va deveni tot mai relevant, mai actual și mai controversat, pe măsură ce oamenii continuă să apeleze la ChatGPT și la alte forme de AI pentru informații despre ceea ce fac”, a spus Joey Jackson, analist juridic CNN.

Istoricul conversațiilor, în sala de judecată

Folosirea conversațiilor cu AI în cauze penale este nouă, dar experții în drept au spus că este similară cu modul în care legea tratează căutările pe Google.

În general, acest tip de probă electronică poate dezvălui motivul, acțiunile și starea de spirit a unei persoane, a spus Jackson.

De exemplu, Brian Walshe a fost găsit vinovat anul trecut de uciderea soției sale, Ana, după ce procurorii au prezentat juriului căutările sale macabre pe Google, precum „10 moduri de a scăpa de un cadavru” și „poți fi acuzat de omor fără să existe un cadavru”.

Separat, procesele de omor ale lui Karen Read, în care un polițist din Boston a fost găsit mort în zăpadă, s-au concentrat pe sensul și starea de spirit a unui martor care tastase pe Google căutarea „(cât) durează să mori de frig”. Read a fost în cele din urmă achitată de cele mai grave acuzații.

Întrebările adresate platformelor AI care dezvăluie starea de spirit a unui suspect au intrat în joc în mod similar în mai multe cazuri importante.

În octombrie anul trecut, procurorii federali l-au acuzat pe Jonathan Rinderknecht de incendiere pentru că ar fi provocat un incendiu care ulterior s-a transformat în devastatorul Palisades Fire din California. O parte din probe a inclus cererile sale către ChatGPT. El a cerut aplicației să producă o imagine cu oameni care fug din calea unui incendiu și a spus că odată a ars o Biblie și „s-a simțit atât de eliberat”, potrivit unei declarații sub jurământ care susține plângerea penală.

După ce a sunat la 911 pentru a anunța incendiul, l-a întrebat pe ChatGPT: „Ești de vină dacă un incendiu este lăsat [sic] din cauza țigărilor tale”, potrivit aceleiași declarații. Procurorii susțin însă că el a provocat incendiul „cu intenție”, probabil cu o brichetă, și spun că întrebarea adresată lui ChatGPT a fost o încercare de a crea o explicație mai „nevinovată” pentru cauza incendiului.

Rinderknecht a pledat nevinovat față de acuzații. Avocatul său, Steve Haney, a declarat pentru CNN că clientul său nu este responsabil pentru Palisades Fire și a spus că a depus cereri pentru excluderea unei părți din probele provenite din ChatGPT.

„Poziția noastră este că jurnalele ChatGPT nu sunt nici o mărturisire, nici o scenă a crimei”, a spus el într-un e-mail. „Guvernul cere unui juriu să citească mintea unui om printr-o bară de căutare, iar nici știința, nici legea nu au permis vreodată un asemenea salt.”

În cazul crimelor de la USF din această lună, întrebările suspectului adresate lui ChatGPT au fost menționate într-o declarație penală sub jurământ.

Pe lângă întrebarea despre punerea unui om într-un sac de gunoi, Abugharbieh l-a întrebat pe ChatGPT dacă putea păstra legal o armă acasă fără permis și dacă numărul de identificare al unui vehicul putea fi modificat, se arată în declarație.

În zilele de după disparițiile lui Zamil Limon și Nahida Bristy, presupusele căutări au continuat. Pe 19 aprilie, Abugharbieh l-a întrebat pe ChatGPT: „A existat cineva care a supraviețuit unui glonț de lunetist în cap”, „Vor auzi vecinii mei arma mea” și „Există o temperatură a apei care arde imediat”, se arată în declarație. Pe 23 aprilie, el a căutat: „Ce înseamnă adult dispărut aflat în pericol”, potrivit documentului.

Corpul lui Limon a fost găsit într-un sac de gunoi, au spus oficialii. Un alt set de rămășițe umane a fost găsit într-un al doilea sac de gunoi, dar autoritățile spun că acestea nu au fost încă confirmate ca aparținând lui Bristy.

Abugharbieh a fost acuzat de două capete de acuzare pentru omor cu premeditare de gradul întâi. El nu a introdus încă o declarație de recunoaștere sau nerecunoaștere a vinovăției și s-a dispus să rămână în arest fără posibilitatea unei cauțiuni. Hillsborough County Public Defender’s Office a fost desemnat în cauză, dar a refuzat să ofere detalii, invocând dreptul lui Abugharbieh la un proces echitabil.

Îngrijorări privind confidențialitatea și următoarea frontieră

Așadar, ar trebui conversațiile cu AI să beneficieze de protecții mai mari privind confidențialitatea?

În conversația sa cu Von, Altman a pledat pentru protecții de confidențialitate în cazul conversațiilor cu AI, spunând că se teme „foarte tare” că guvernul va folosi jurnalele de chat pentru a-i supraveghea pe oameni.

„Cred că trebuie cu adevărat să apărăm drepturile la viață privată”, a spus el. „Nu cred că aceste drepturi sunt absolute. Sunt complet dispus să accept un compromis privind o parte din confidențialitate pentru siguranța colectivă, dar istoria arată că guvernul duce asta mult prea departe, iar eu sunt foarte neliniștit din cauza asta.”

Și alte figuri din tehnologie au susținut argumente similare. Nils Gilman, istoric și consilier principal la think tankul Berggruen Institute, a pledat într-un articol de opinie publicat anul trecut în The New York Times pentru legi care să creeze un privilegiu legal pentru AI.

Vorbind cu CNN, el a susținut că factorii de decizie au creat privilegii legale pentru medici, avocați și terapeuți tocmai pentru că beneficiul social al unor conversații oneste depășește interesul statului de a avea acces la acele informații.

„În măsura în care oamenii folosesc modelele lingvistice mari în același fel, ar trebui să beneficieze de același tip de privilegii”, a spus Gilman.

În ochii legii, însă, chatboții AI nu au o asemenea expertiză sau asemenea protecții. Conversațiile cu AI sunt echivalente cu orice alte date electronice, precum o plată cu cardul sau jurnalele apelurilor telefonice, au spus experții în drept.

„Introduci date într-o aplicație reală și, ca urmare, nu ai nicio protecție specială asociată acelor date”, a spus Jackson, analistul juridic al CNN. „Ar fi ca și cum aș da un telefon și apoi aș susține că nu poți folosi convorbirea telefonică împotriva mea.”

Pot exista anumite protecții în situații specifice. De exemplu, dacă avocatul tău introduce dosarul tău privat într-o bază de date a unui chatbot, ar putea deveni asta probă ce poate fi descoperită? Dar dacă te reprezinți singur în instanță și ceri ajutorul lui ChatGPT pentru redactarea unui document?

„Legea încă încearcă să țină pasul cu lumea reală în acest moment”, a spus Hammerle.

Dar, așa cum stau lucrurile acum, acele conversații cu AI pot ajunge din computer în sala de judecată.

„ChatGPT nu este prietenul tău, nu este avocatul tău, nu este doctorul tău, nu este soțul sau soția ta”, a spus Gilman. „Încetați să mai vorbiți cu ele ca și cum ar fi.”