W opinii MFW, sztuczna inteligencja zmienia sposób, w jaki system finansowy radzi sobie z lukami w zabezpieczeniach i reaguje na incydenty. „Jednocześnie wzmacnia cyberzagrożenia, które mogą podważyć stabilność finansową, gdy ofensywne możliwości intruzów przewyższają możliwości obrony” – ostrzega fundusz.
MFW O AI. To niebezpieczne narzędzie
W opinii jego ekspertów, modele AI opracowane przez amerykańskie firmy technologiczne, mogą zagrozić globalnemu systemowi bankowemu poprzez ujawnienie luk w zabezpieczeniach cyberbezpieczeństwa instytucji finansowych. „Zaawansowane modele AI mogą radykalnie skrócić czas i obniżyć koszty wykrywania i wykorzystywania luk w zabezpieczeniach, zwiększają jednak prawdopodobieństwo jednoczesnego wykrywania i atakowania tych luk” – ostrzegają eksperci MFW w analizie na blogu funduszu.
Za przykład podają Claude Mythos firmy Anthropic – największego rywala ChataGPT. Przypominają, że w kwietniu wykrył on tysiące luk w zabezpieczeniach. „Mythos potrafił znaleźć i wykorzystać luki w każdym popularnym systemie operacyjnym i przeglądarkach internetowych – nawet jeśli korzystali z nich użytkownicy niebędący ekspertami” – zwraca uwagę MFW. Wyraża też opinię, że „szybko zmieniające się, napędzane sztuczną inteligencją zagrożenia cybernetyczne mogą zdestabilizować system finansowy, jeśli nie będą odpowiednio zarządzane”.
MFW twierdzi, że organy nadzoru bankowego muszą skupić się na budowaniu odporności, „zamiast traktować te zmiany jako kwestie czysto techniczne lub operacyjne”. Istotę wyzwania ilustrują modele takie jak Mythos. „Wzmacniają istniejące techniki cyberataków, działając z prędkością maszynową. Atakujący mają przewagę nad obrońcami, ponieważ odkrycie i wykorzystanie luk w zabezpieczeniach może nastąpić szybciej niż łatanie i usuwanie ich skutków” – argumentuje MFW.
Zabezpieczenia systemowe. Nie tylko banki
Anthropic planuje stopniowo wdrażać Mythos w grupie 40 organizacji, m.in. Amazon, Microsoft i w dużych bankach, takich jak JPMorgan. „Jednak wiele banków i grup finansowych spoza Stanów Zjednoczonych pozostało bez dostępu do nowego modelu sztucznej inteligencji, co budzi obawy o nierówny poziom ochrony” – podkreślają eksperci MFW.
Zwracają też uwagę, że na razie istnieją czynniki łagodzące. „Zaawansowane możliwości cybernetyczne AI nie są jeszcze powszechnie dostępne, a zamknięte, branżowe oprogramowanie finansowe jest trudniejsze do zaatakowania niż infrastruktura open source” – argumentują. Jednak te bufory – prognozuje MFW – prawdopodobnie szybko ulegną erozji wraz z rozwojem uczenia modeli, upowszechnianiem się możliwości i pojawianiem się wycieków.
Autorzy bloga zauważyli, że modele sztucznej inteligencji mogą „doprowadzić do równoczesnych luk w zabezpieczeniach w wielu instytucjach”. Ich zdaniem, ryzyko ataku ma charakter systemowy i wykracza poza sektory. „Sektor finansowy dzieli cyfrowe podstawy z energetyką, telekomunikacją i usługami publicznymi. Oznacza to, że ataki wspomagane sztuczną inteligencją mogą rozprzestrzeniać się między sektorami korzystającymi z tej samej infrastruktury” – prognozuje MFW.
Co dalej z programem „CPN”? Domański w „Graffiti”: Jesteśmy elastyczniPolsat News