Spoločnosť Anthropic ešte nedávno predstavila model Claude Opus 4.7 ako bezpečnejšiu verziu svojich najpokročilejších systémov. Lenže krátko nato sa objavila správa, ktorá vyvolala otázniky. Podľa viacerých informácií sa neautorizovaná skupina dostala k modelu Claude Mythos, nástroju, ktorý firma považovala za príliš citlivý na verejné nasadenie.

Claude Mythos nevznikol ako obyčajný chatbot. Vývojári ho nastavili na analýzu kybernetickej bezpečnosti, konkrétne na vyhľadávanie slabín v systémoch a ich potenciálne zneužitie. Prístup k nemu mali len vybraní partneri v rámci uzavretého programu. Práve preto pôsobí informácia o možnom úniku tak problematicky, informuje portál Tom’s Guide.

Odoberaj Vosveteit.sk cez Telegram a prihlás sa k odberu správ

Informácie o útoku znejú problematicky, no útočníci vraj neprenikli do jadra systémov

Podľa dostupných správ sa útočníci nedostali priamo do jadra systémov Anthropic. Využili slabšie miesto, prostredie tretej strany. A tu sa dostávame k jednému z najväčších problémov dneška, ktorý sa často prehliada. Firmy sa dnes predbiehajú v nasadzovaní AI. Rýchlosť dostala prednosť pred kontrolou. To začalo znamenať, že mnohí dodávatelia a partneri používajú rôzne nástroje umelej inteligencie bez toho, aby prešli schvaľovaním.

umela inteligencia zly AI rorobtumela inteligencia zly AI rorobtZdroj: Lightspring / Shutterstock.com

Tento jav sa označuje ako „tieňová AI“. Ide o nástroje, ktoré síce pomáhajú s prácou, ale obchádzajú bezpečnostné pravidlá.

Práve takýto scenár mohol zohrať úlohu aj tu. Stačí jedna zle zabezpečená API brána alebo nedostatočne chránený prístup u menšieho subdodávateľa a problém sa prenesie ďalej. V ére prepojených systémov už neplatí, že bezpečnosť končí na hranici jednej firmy. Výsledok pôsobí paradoxne. Najväčší problém nevznikol kvôli samotnej AI, ale kvôli ľudskému faktoru. 

Neprehliadni

Tvoje spravy spravodajska aplikacia_2Tvoje spravy spravodajska aplikacia_2

Populárna spravodajská aplikácia pre iOS a Android dostala veľkú aktualizáciu. Pribudlo množstvo nových funkcií, ktoré musíš vyskúšať

Tu sa však priam ponúka otázka, čo by vlastne niekto s takýmto modelom robil? Odborníci dokážu hneď z prvej vymenovať niekoľko možných rizík.

Ako sa dá teoreticky zneužiť AI model bez akýchkoľvek mantinelov?

Predstav si napríklad automatizované hľadanie tzv. zero-day zraniteľností. Ide o chyby v softvéri, o ktorých zatiaľ nikto nevie. Model ako Claude Mythos by mohol analyzovať obrovské množstvo kódu a takéto slabiny identifikovať výrazne rýchlejšie než človek. Útočník by tak získal náskok ešte predtým, než by sa chyba opravila.

Ďalší scenár posúva veci ešte ďalej. AI vs. AI konflikt. Útočníci by mohli podobný model použiť na oklamanie obranných systémov, ktoré už dnes využívajú veľké technologické firmy. Nešlo by o klasický súboj hacker vs. správca systému, ale o stret dvoch algoritmov, ktoré by sa neustále prispôsobovali a reagovali jeden na druhého.

To všetko ukazuje, prečo majú takéto modely takú vysokú hodnotu a prečo priťahujú pozornosť. Čím výkonnejší nástroj vznikne, tým väčšia snaha o jeho získanie. Celý incident zároveň otvoril ešte jednu dôležitú tému. Otázku otvorenosti versus bezpečnosti. Dlhodobo sa vedie diskusia, či by mali byť pokročilé AI modely dostupné verejne ako open-source, alebo uzavreté.

Prípad okolo Claude Mythos môže túto debatu výrazne ovplyvniť.

„Ak firma nedokáže udržať citlivý model pod kontrolou vo vlastnom ekosystéme, predstava jeho voľného zverejnenia začína byť pre regulátorov neprijateľná,“ hovoria analytici.

Zla umela inteligenciaZla umela inteligenciaZdroj: OpenClipart-Vectors z Pixabay

To môže viesť k prísnejším pravidlám a väčšiemu dohľadu zo strany štátov.

Umelá inteligencia už zasahuje do citlivých oblastí

Do popredia sa tak dostáva širší trend. AI firmy už nepôsobia len ako technologické startupy. Ich systémy zasahujú do oblastí ako bezpečnosť, financie či infraštruktúra. S tým rastú aj očakávania na ich ochranu. To znamená prísnejšiu kontrolu partnerov, lepšie riadenie prístupov a dôsledné oddelenie systémov. Nestačí vytvoriť výkonný model. Treba ho aj udržať pod kontrolou.

Celý prípad pritom nepôsobí ako technologická katastrofa v štýle sci-fi. Skôr pripomína starý známy problém, slabé zabezpečenie na nesprávnom mieste. Rozdiel spočíva len v tom, že tentoraz ide o nástroje, ktoré majú oveľa väčší dosah. Na konci tak zostáva jednoduché konštatovanie, ktoré sa opakuje čoraz častejšie, a to že ľudia vytvoria mimoriadne nástroje rýchlejšie, než ich dokážu zabezpečiť.







Páčil sa vám článok? Sledujte nás na Facebooku