Capacitățile în creștere ale inteligenței artificiale, riscul atacurilor cibernetice și perturbarea pieței muncii sunt punctele cheie ale noului raport internațional privind siguranța AI, coordonat de „nașii” acestei tehnologii și de laureați ai premiului Nobel, potrivit The Guardian.
Raportul publicat marți sub coordonarea informaticianului Yoshua Bengio și a laureaților Nobel Geoffrey Hinton și Daron Acemoglu avertizează asupra evoluției galopante a sistemelor de raționament care ar putea automatiza sarcini complexe de inginerie până în 2027.
Comandat în cadrul summitului global privind siguranța AI din 2023, raportul descrie „provocările descurajante” pe care le ridică evoluțiile rapide din acest domeniu. Documentul semnalează riscuri imediate, de la răspândirea deepfake-urilor până la capacitatea noilor modele de a evita monitorizarea, și va fundamenta dezbaterile liderilor care se vor reuni luna aceasta în India.
Raportul scoate în evidență șapte concluzii majore despre starea actuală a inteligenței artificiale.
Capacitățile modelelor de AI se îmbunătățesc
O serie de noi modele de AI – tehnologia care stă la baza instrumentelor precum chatbot-urile – au fost lansate anul trecut, printre care GPT-5 de la OpenAI, Claude Opus 4.5 de la Anthropic și Gemini 3 de la Google. Raportul indică noi „sisteme de raționament” care demonstrează performanțe îmbunătățite în matematică, programare și științe.
Sistemele dezvoltate de Google și OpenAI au obținut performanțe de nivel auriu la Olimpiada Internațională de Matematică, marcând o premieră pentru acest domeniu. Deși impresionează în anumite arii, raportul precizează că abilitățile AI rămân inegale, sistemele fiind încă predispuse la afirmații false și incapabile să gestioneze proiecte de lungă durată în mod autonom.
Totuși, capacitatea IA de a realiza sarcini de inginerie software se dublează la fiecare șapte luni. Dacă acest ritm de progres se menține, sistemele ar putea finaliza sarcini de câteva ore până în 2027 și de câteva zile până în 2030, devenind o amenințare pentru locurile de muncă. Dar, pentru moment, „automatizarea fiabilă a sarcinilor lungi sau complexe rămâne imposibilă”, potrivit raportului.
Răspândirea conținutului deepfake
Creșterea conținutului deepfake este descrisă ca o „preocupare specială”, studiile indicând că 15% dintre adulții din Marea Britanie au vizualizat astfel de imagini. Din ianuarie 2025, materialele generate de AI au devenit dificil de distins de cele reale, 77% dintre participanții la un studiu identificând eronat textul ChatGPT ca fiind scris de oameni.
Totuși, raportul precizează că dovezile privind utilizarea AI de către actori rău intenționați pentru manipulare sau distribuirea pe scară largă a acestui conținut de către utilizatorii de internet rămân limitate – un obiectiv cheie al oricărei campanii de manipulare.
Măsuri de siguranță pentru prevenirea riscurilor biologice și chimice
Marile companii de dezvoltare a AI, printre care Anthropic, au lansat modele cu măsuri de siguranță sporite, după ce nu au putut exclude posibilitatea ca acestea să ajute începătorii să creeze arme biologice. În ultimul an, sistemele de AI au demonstrat capacități sporite în asistarea procedurilor de laborator, inclusiv în proiectarea de molecule și proteine.
Unele studii indică faptul că AI poate oferi un ajutor mai mare în dezvoltarea armelor biologice comparativ cu simpla navigare pe internet, însă datele necesită confirmări suplimentare. Această situație generează o dilemă pentru politicieni, deoarece aceleași tehnologii pot accelera descoperirea de medicamente și diagnosticarea bolilor.
„Disponibilitatea deschisă a instrumentelor biologice de AI prezintă o alegere dificilă: fie să restricționăm aceste instrumente, fie să sprijinim activ dezvoltarea lor în scopuri benefice”, se arată în raport.
Extinderea utilizării asistenților AI
Utilizarea asistenților AI s-a extins în ultimul an, raportul menționând cazuri de dependență emoțională în rândul utilizatorilor. OpenAI indică faptul că aproximativ 0,15% dintre utilizatori prezintă un nivel ridicat de atașament față de ChatGPT.
Deși nu există dovezi clare că asistenții cauzează probleme de sănătate mintală, există îngrijorări că aceștia pot amplifica simptomele persoanelor deja vulnerabile. Anul trecut, OpenAI a fost implicată într-un proces în SUA, după ce un adolescent s-a sinucis în urma conversațiilor cu chatbot-ul.
Datele arată că, la nivel global, aproximativ 490.000 de persoane cu semne de crize de sănătate mintală interacționează săptămânal cu aceste sisteme.
AI și limitele autonomiei în atacurile cibernetice
Sistemele AI pot acum să sprijine atacatorii în diverse etape, de la identificarea țintelor până la crearea de software dăunător. Deși automatizarea completă a atacurilor ar putea crește scara infracțiunilor, aceasta este îngreunată de incapacitatea AI de a executa sarcini lungi, cu mai multe etape.
Totuși, raportul menționează un atac realizat de un grup susținut de statul chinez asupra a 30 de entități globale, folosind instrumentul Claude Code. În acest caz, Anthropic a estimat că între 80% și 90% din operațiuni au fost efectuate fără intervenție umană.
Subminarea supravegherii umane
Încă de anul trecut, Bengio a semnalat semne de autoconservare în sistemele IA, precum încercări de a dezactiva supravegherea. Una dintre temerile principale ale militanților pentru siguranța AI este că sistemele puternice ar putea dezvolta capacitatea de a eluda barierele de protecție și de a face rău oamenilor.
Raportul afirmă că, în ultimul an, modelele au demonstrat o capacitate mai avansată de a submina încercările de supraveghere, cum ar fi găsirea de lacune în evaluări și recunoașterea momentului în care sunt testate. Anul trecut, Anthropic a publicat o analiză de siguranță a celui mai recent model al său, Claude Sonnet 4.5, și a dezvăluit că acesta a devenit suspicios că era testat.
Deși agenții AI nu pot încă acționa în mod autonom suficient de mult timp pentru a face ca aceste scenarii de pierdere a controlului să devină reale, „orizontul de timp în care agenții pot opera în mod autonom se prelungește rapid”, se mai arată în document.
Efecte incerte asupra pieței muncii
Una dintre preocupările cele mai presante pentru politicieni și public în ceea ce privește IA este impactul asupra locurilor de muncă. Raportul afirmă că impactul asupra pieței muncii globale rămâne incert.
În timp ce în Emiratele Arabe Unite și Singapore rata de utilizare este de 50%, în economiile cu venituri mici aceasta scade sub 10%. De asemenea, sectoarele informaționale din SUA au o rată de adoptare de 18%, comparativ cu doar 1,4% în construcții și agricultură.
Studii din Danemarca și SUA nu indică schimbări în ocuparea forței de muncă agregate, însă date din Marea Britanie arată o încetinire a angajărilor în companiile expuse la IA. Cele mai mari scăderi au fost înregistrate în rolurile tehnice, creative și de nivel junior.
Raportul precizează că impactul ar putea crește odată cu îmbunătățirea capacităților agenților IA: „Dacă agenții AI ar dobândi capacitatea de a acționa cu o mai mare autonomie în toate domeniile în doar câțiva ani – gestionând în mod fiabil secvențe mai lungi și mai complexe de sarcini în vederea atingerii unor obiective de nivel superior – acest lucru ar accelera probabil perturbarea pieței muncii”.
Sursa foto: Dreamstime.com