Keinot vaaran tunnistamiseksi ovat käymässä vähiin.
Videoihinkaan ei ole enää luottamista.
Tietojen kalastelu viestien, puhelujen ja videoiden avulla muuttuu entistä uhkaavammaksi, tietoturvayritys Check Point ennustaa. Syynä ovat tekoälyllä tuotetut huijausviestit, äänikloonit ja syväväärennökset (deepfaket).
Yhtiö havaitsi vuoden aikana yli 50 prosentin kasvun tekoälyavusteisissa tietojenkalasteluhyökkäyksissä. Tällaista hyökkäystä voi olla hyvin vaikea tunnistaa.
– Tekoälyllä tuotettu viesti voi näyttää siltä, että esimies pyytää maksamaan laskun tai toimitusjohtaja ilmoittaa videolla yritysjärjestelystä, Check Pointin uhkatiedustelujohtaja Sergei Shykevich sanoo tiedotteessa.
Shykevich listaa 3 asiaa, jotka tekevät huijauksista uskottavia:
-
Viestit perustuvat todellisiin nimiin.
-
Viesteissä viitataan todellisiin projekteihin.
-
Viestit käsittelevät oikeita asiayhteyksiä.
Check Pointin mukaan generatiivinen tekoäly ja tekoälyagentit ovat mahdollistaneet huijausviestit, jotka ovat kieliopillisesti moitteettomia, henkilökohtaisesti kohdennettuja ja usein suoraan sidottuja uhrin työtehtäviin tai organisaation sisäisiin projekteihin.
Aiemmin toimineet varoitusmerkit – huono kieli, väärät verkko-osoitteet tai outo lähettäjäosoite – eivät enää päde.
Deepfake eli syväväärennös
-
Syväväärennös (deepfake) on aidolta vaikuttavaa kuva-, video- tai äänimateriaalia, joka on tuotettu yhdistelemällä tai muuntamalla olevassa olevaa materiaalia koneoppivan tekoälyn avulla.
-
Kyberhuijauksia toteutetaan useilla eri tekniikoilla ja deepfake-tekniikan käytöstä osana kyberrikoksia on puhuttu kansainvälisessä uutisoinnissa jo jonkin aikaa.
-
Syväväärennöksellä saadaan muun muassa julkisuuden henkilö sanomaan tai tekemään jotain, mitä hän ei oikeasti ole sanonut tai tehnyt.
-
Myös sosiaalisesta mediasta tutut ”face-swapit”, joissa vaihdetaan puhuvan henkilön kasvot toisiksi, hyödyntävät deepfake-tekniikkaa.
-
Syväväärennösten tekeminen on rikollisille houkutteleva tapa huijata organisaation työntekijöitä, aiheuttaa mainehaittaa ja tuottaa vääriä mielikuvia.
-
Syväväärennöksiä on käytetty myös osana informaatiovaikuttamista esimerkiksi yhteiskunnalliseen keskusteluun, poliittisiin päätöksiin tai vaaleihin liittyen.
-
Ääntä, kuvaa ja videota syväväärennöksiä varten kerätään usein sosiaalisesta mediasta.
Lähde: Kyberturvallisuuskeskus ja IS
Tekoälyä hyödyntävät huijaukset voivat iskeä yhtä aikaa sähköpostin, tekstiviestin, LinkedInin, WhatsAppin tai puhelun kautta. Puheluissa voidaan käyttää kloonattua ääntä tai syväväärennettyä videota.
Huijarit käyttävät tekoälyä paitsi sisältönsä tuotantoon, myös koko huijauskampanjan hallintaan ja mukauttamiseen vastaanottajan reaktioiden perusteella. Jos sähköposti ei tuota tulosta, viesti saapuu seuraavaksi tekstinä tai puheluna.
Tekoäly mahdollistaa tuhansien personoitujen huijausten lähettämisen sekunneissa. Huijausviestejä voidaan räätälöidä esimerkiksi LinkedIn-profiilien ja vuotaneiden henkilötietojen avulla. Ääninäytteitä ja videoita puolestaan on sosiaalinen media pullollaan.
Uhka tällaisiin hyökkäyksiin ulottuu myös yritysten ulkopuolelle. Esimerkiksi Hei äiti/isä -huijaus saattaa jatkossa käyttää vastaanottajan lapsen ääntä, jotta pyyntö suuresta rahasummasta menisi helpommin läpi.
Check Point korostaa, että tietojenkalastelua tehdään nyt sujuvasti myös suomeksi. Tämä pätee ainakin tekstillä toteutettuihin huijauksiin, mutta tekniikan kehittyessä yhä enemmän myös ääntä käyttäviin huijauksiin.