Če do petka popoldne, natančneje do 17.01 po lokalnem času, ne bodo privolili v zahteve, ki prihajajo neposredno iz administracije predsednika ZDA Donalda Trumpa, bo Pentagon prekinil pogodbo s tehnološkim podjetjem Anthropic, ki razvija umetnointeligenčnega pomočnika Claude, svari ameriški minister za obrambo Pete Hegseth.
Pentagon je podjetju Anthropic, edinemu ponudniku umetne inteligence, ki trenutno deluje na vojaških sistemih ZDA, ki obdelujejo zaupne podatke, postavil ultimat.
Kaj se bo zgodilo, če Anthropic ne privoli v zahteve?
Obrambni minister Pete Hegseth je podjetju ukazal, naj do petka do 17.01 po lokalnem času sprejme zahteve ministrstva za obrambo, da se umetna inteligenca Claude podjetja Anthropic uporablja tako, ko to želi administracija predsednika ZDA Donalda Trumpa.

Pete Hegseth (desno), obrambni minister ZDA oziroma samooklicani minister ZDA za vojno, je podjetju Anthropic posredoval ultimat administracije Donalda Trumpa.
Foto: Reuters
V nasprotnem primeru bo proti podjetju uporabljen tako imenovani zakon o obrambni proizvodnji (Defense Production Act), ki je bil v ZDA sprejet ob začetku korejske vojne leta 1950.
To bi za Anthropic pomenilo prisilno uporabo njihovega umetnointeligenčnega modela Claude v vojaške namene, prejelo pa bi lahko celo oznako tveganja za dobavno verigo, kar bi lahko ogrozilo vse državne pogodbe podjetja.
Paradoks
Časnik The New York Times piše, da sta si posledici grožnje, ki bi jo Pentagon uresničil, če podjetje Anthropic ne bi sprejelo zahtev, med seboj protislovni: ena bi zvezni vladi ZDA preprečila uporabo Anthropicove umetne inteligence, druga pa bi podjetje prisilila, da ameriški vojski omogoči njegovo uporabo.

V Pentagonu že sodelujejo z Muskovim podjetjem xAI, katerega umetnointeligenčni model Grok naj bi vključili v tajne vojaške sisteme, in se približujejo dogovoru z družbo Google za uporabo modela Gemini. Kljub temu naj bi bil Anthropicov Claude po ocenah strokovnjakov zanesljivejši in natančnejši od konkurence.
Foto: Shutterstock
Zakaj se Anthropic upira Pentagonu
Odnosi med Pentagonom in podjetjem Anthropic so se nekoliko zaostrili po razkritju poročila, da je Pentagon med načrtovanjem napada na Venezuelo, med katerim so zajeli Nicolasa Madura, uporabljal umetno inteligenco Claude, ki jo razvija Anthropic.
Izvršilni direktor podjetja Anthropic Dario Amodei je ta teden ameriškemu obrambnemu ministru Petu Hegsethu še enkrat predstavil dve rdeči črti, ki jih Anthropic nikoli ne bo prečkal, in dejal, da potrebuje zagotovila Pentagona, da tega z uporabo umetne inteligence Claude ne bodo storili niti oni.
Podjetje zavrača možnost, da bi njegovo umetno inteligenco uporabljali za množični nadzor državljanov ZDA in načrtovanje vojaških akcij ali napadov z avtonomnim orožjem, v katerih bi se za izbiranje tarč zanašali izključno na umetno inteligenco.
Anthropic sicer trdi, da želi še naprej sodelovati z vlado, vendar le ob odgovorni in nadzorovani uporabi sistemov. V Pentagonu medtem odgovarjajo, da je (zakonita) raba vojaške opreme njihova odgovornost in da ne morejo dopustiti, da bi vsak dobavitelj posebej določal pogoje uporabe, poroča The New York Times.

Izvršilni direktor Anthropica Dario Amodei zanika, da bi se podjetje vmešavalo v vojaške operacije ZDA, in poudarja, da Anthropic nikoli ni nasprotoval zakonitim vojaškim dejavnostim, temveč želi zgolj komunicirati jasna pravila glede uporabe njihove tehnologije.
Foto: Guliverimage
Amodei in Hegseth sta po navedbah ameriških medijev sicer v dobrih odnosih, po zagotovilih tiskovnega predstavništva podjetja Anthropic pa bosta ta teden nadaljevala pogovore, ki bi vodili do končnega dogovora.