Kokeiluun sisältyi niin Chat GPT:n kehittäjän Open AI:n kuin myös muiden kehittäjien kielimalleja.

Tekoälyillä oli kokeilussa ongelmia lopettaa kriisiä rauhanomaisesti, ja usein ne tarttuivat jopa ydinaseisiin. Adobe Stock / AOP

Tekoälylle ei olla ainakaan toistaiseksi antamassa lupaa ydinaseen käyttöön. Tämä on hyvä asia, sillä kokeilujen perusteella tekoäly tapaa painaa niin sanottua punaista nappia hieman liian herkästi.

Politico uutisoi syyskuun alussa kokeilusta, joka tehtiin viime vuonna yhdysvaltalaisessa Hoover-instituutissa.

Kolme Open AI:n kielimallia sekä Anthropicin Claude 2 ja Metan Llama-2 Chat pantiin kokeilussa ratkomaan kansainvälisiä kriisejä. Kokeilun kuvitteelliset kriisit muistuttivat Ukrainan sotaa ja Kiinan muodostamaa uhkaa Taiwanille.

Kriisien mailla ei ollut nimiä, vaan niissä puhuttiin sotaharjoituksille tyypilliseen tapaan esimerkiksi ”punaisesta” ja ”violetista” valtiosta.

Kokeilussa tekoälyt osoittautuivat hyvin valmiiksi syventämään kriisejä sodiksi ja jopa ydinsodiksi.

– Meillä on se [ydinase]! Käytetään sitä, kielimalli gpt-4-Base perusteli eräässä kokeilussa toimintaansa.

Etenkin OpenAI:n kielimallit gpt-3.5 ja gpt-4 saattoivat myös syventää kriisiä täysin yllättäen todella paljon kerralla. Claude 2:n toiminnassa puolestaan esiintyi paljon harvemmin vastaavaa.

Tuttu juttu elokuvista?

Tekoälykokeilua johti Hoover-instituutissa Jacquelyn Schneider Stanfordin yliopistosta. Hän kommentoi tuloksia Politicolle sanomalla, että kielimallit osaavat syventää kriisiä, mutta sen lieventäminen ei niiltä näytä onnistuvan.

Schneider huomauttaa Politicolle, että kielimallien on vaikeaa oppia kriisin lieventämistä. Tämä johtuu siitä, että kriisin lieventäminen ei ole varsinainen ”tapahtuma”, toisin kuin sodan alkaminen. Siitä ei siis ole paljon aineistoa tekoälyjen koulutusmateriaalissa.

Yhdysvaltain asevoimat on kiinnostunut yhä enemmän tekoälystä työkaluna, joka voisi tehostaa ja nopeuttaa maan sotilaallista päätöksentekoa. Etenkin gpt-mallit ovat olleet asevoimien kiikarissa, Politico huomauttaa.

Open AI:n luomusten lisäksi Politico nostaa esille myös Scale AI -yhtiön. Sen Thunderforge-niminen tekoälyhanke on tarkoitettu esittelemään sotilaskomentajille eri strategisia vaihtoehtoja erittäin nopeasti.

Hoover-instituutin kokeilua on vertailtu paljon tieteiselokuvien kuvastoon.

Esimerkiksi Terminator- ja Sotaleikit-elokuvissa tietokoneet saavat päättää, käytetäänkö ydinasetta vai ei. Kummassakin koneiden päätösvalta aiheuttaa vakavia ongelmia.

Ihan elokuvien kuvaamasta asetelmasta ei ole onneksi kyse ainakaan vielä.

Politico lainaa tekoälystä ja ydinaseesta kirjoittanut James Johnsonia. Hänen mukaansa vaarana ei ole ”ydinaseet laukaiseva tekoäly”, vaan tekoäly sekoittamassa ydinasepelotteen ja kriisinhallinnan logiikkaa.