Umelá inteligencia sa stala dôležitým nástrojom nielen v technologickom sektore, ale aj v štátnej správe a armáde. Americké ministerstvá ju využívajú na analýzu dát, logistiku alebo plánovanie operácií. Jedným z dodávateľov technológií bola aj spoločnosť Anthropic, ktorá vyvinula jazykový model Claude.
Teraz sa však spolupráca medzi firmou a vládou zmenila na právny spor, informuje portál Defense One.

Odoberaj Vosveteit.sk cez Telegram a prihlás sa k odberu správ
Anthropic podala žalobu proti viac než desiatke federálnych agentúr a predstaviteľov americkej vlády vrátane ministra obrany Petea Hegsetha. Firma tvrdí, že vláda ju neprávom zaradila na zoznam bezpečnostných rizík v dodávateľskom reťazci.
Podľa spoločnosti ide o odvetu za spor s Pentagonom o tom, ako presne by sa mala umelá inteligencia používať.
Citlivým bodom je používanie umelej inteligencie v armáde
Jadrom konfliktu je jazykový model Claude, ktorý Anthropic vyvinula ako konkurenciu pre iné veľké jazykové modely. Claude sa používal aj v niektorých vládnych projektoch, najmä v spolupráci s americkým ministerstvom obrany.
Populárna spravodajská aplikácia pre iOS a Android dostala veľkú aktualizáciu. Pribudlo množstvo nových funkcií, ktoré musíš vyskúšať
Podľa súdnych dokumentov vznikol spor počas diskusie o tom, ako môže armáda tento systém využívať. Konflikt sa sústredil najmä na dve citlivé oblasti, využitie umelej inteligencie na sledovanie amerických občanov a použitie AI pri autonómnych zbraňových systémoch.
Anthropic tvrdí, že po tomto konflikte vláda podnikla kroky, ktoré mali firmu odstrániť z federálnych projektov.
Americká vláda údajne uštedrila spoločnosti Anthropic silnú ranu
Podľa žaloby označila vláda spoločnosť Anthropic za riziko v dodávateľskom reťazci. V systéme federálnych zákaziek ide o mimoriadne vážne označenie.
Takéto rozhodnutie môže firme prakticky znemožniť spoluprácu s vládou aj s ďalšími štátnymi inštitúciami.
Zdroj: Unsplash (Possessed Photography), Pixabay (OpenClipart-Vectors)
Anthropic tvrdí, že tento krok nemal bezpečnostné dôvody, ale politické pozadie.
„Tieto kroky sú bezprecedentné a nezákonné,“ uvádza žaloba firmy.
Spoločnosť zároveň tvrdí, že vláda porušila základné procesné pravidlá.
„Ústava nedovoľuje vláde používať svoju obrovskú moc na potrestanie firmy za jej chránený prejav,“ píše sa v dokumente.
Status „riziko v dodávateľskom reťazci“ má v praxi veľkú váhu. Nejde len o zákaz spolupráce s Pentagonom.
Takéto označenie automaticky vyvoláva podozrenie aj u ďalších vládnych partnerov Spojených štátov. Ak americká vláda označí firmu za bezpečnostné riziko, mnohé štáty NATO alebo spojenci USA sa jej technológii radšej vyhnú.
V praxi to môže znamenať takmer úplnú stratu vládnych kontraktov.
Pre technologickú firmu, ktorá spolupracuje s verejným sektorom, môže mať takéto rozhodnutie podobný efekt ako ekonomický rozsudok.
Súdny spor sa netýka len jednej firmy. Výsledok môže ovplyvniť aj ďalšie technologické spoločnosti, ktoré vyvíjajú umelú inteligenciu.
Ak súd rozhodne v prospech vlády, vznikne precedens. Štát by v takom prípade získal silný nástroj na označenie technologických dodávateľov za bezpečnostné riziko, ak by sa ich etické pravidlá dostali do konfliktu s vojenskými cieľmi.
To by mohlo oslabiť kontrolu technologických firiem nad tým, ako sa ich systémy používajú.
Na druhej strane vláda tvrdí, že armáda musí mať plnú kontrolu nad technológiami, ktoré využíva.
Technologickú suverenitu štátu brzdia etické pravidlá
Konflikt medzi Anthropic a vládou sa dotýka aj širšej otázky, kto má posledné slovo pri použití umelej inteligencie v armáde.
Anthropic presadzuje koncept takzvanej bezpečnej AI, ktorá obsahuje ochranné mechanizmy proti zneužitiu.
Administratíva prezidenta Donalda Trumpa však tvrdí, že armáda nemôže fungovať podľa pravidiel súkromných spoločností.
Hovorkyňa Bieleho domu Liz Huston reagovala na žalobu ostrým vyhlásením.
„Prezident Trump nikdy nedovolí, aby radikálna „woke“ technologická firma ohrozila našu národnú bezpečnosť tým, že bude diktovať, ako má fungovať americká armáda,“ uviedla Huston.
Zdroj: Flickt.com (Gage Skidmore) (CC BY-SA 2.0)
Podľa vlády musí mať armáda kontrolu nad technológiami, ktoré využíva, bez ohľadu na interné pravidlá technologických spoločností.
Rozhodnutie vlády môže ovplyvniť to, kde odídu talentovaní ľudia
Niektorí analytici upozorňujú aj na ďalší možný dôsledok sporu. Ak by sa konflikt medzi americkou vládou a technologickými firmami prehĺbil, časť špičkových vývojárov by mohla začať hľadať prácu v iných regiónoch.
Európske technologické spoločnosti alebo výskumné centrá by mohli prilákať odborníkov, ktorí nechcú pracovať na systémoch bez etických obmedzení.
Takýto odchod talentov by mohol oslabiť technologickú základňu, na ktorej stojí aj americký obranný sektor.
Zdroj: Microsoft Bing Image Creator, Vosveteit.sk
Používanie AI modelov v armáde je momentálne horúcou témou
Spor medzi Anthropic a americkou vládou ukazuje, aké napäté sú vzťahy medzi technologickými firmami a štátnymi inštitúciami v oblasti umelej inteligencie.
AI sa postupne stáva strategickou technológiou podobne ako jadrové zbrane alebo satelitné systémy. Vlády preto chcú mať nad jej využitím plnú kontrolu.
Technologické firmy však zároveň nechcú, aby ich systémy slúžili na účely, ktoré považujú za neetické.
Súdny proces môže ukázať, kde presne sa nachádza hranica medzi technologickou etikou, obchodnými pravidlami a národnou bezpečnosťou.
Páčil sa vám článok? Sledujte nás na Facebooku