Uusi raportti osoittaa, että tekoäly vaatii aina rajoituksia, asiantuntija arvioi.
Meta on huhtikuusta alkaen hyödyntänyt eurooppalaisten Facebook- ja Instagram-käyttäjien julkaisuj kehittämänsä tekoälyn kouluttamiseen. Videolla kerrotaan, miten käyttäjä voi kieltää sen.
Itsensä sammuttamisesta määräämistä ei pitäisi jättää tekoälyn tehtäväksi, kyberturvallisuuskeskuksen johtava asiantuntija Jussi Eronen sanoo.
Ilta-Sanomat kertoi torstaina tekoälyn turvallisuutta tutkivan Paliside-yrityksen raportista, jonka mukaan tietyt kehittyneet tekoälymallit vastustelivat sammuttamistaan, kun niiltä kysyttiin siitä.
Lue lisää: Tutkimus: Tekoäly tekee jotain todella pelottavaa, jos se yritetään sammuttaa
– Kun tehdään sellaista järjestelmää, missä on laaja kielimalli, niin siihen ympärille pitää tehdä todella paljon erilaisia turvallisuutta takaavia keinoja, Eronen toteaa.
Esimerkiksi järjestelmän sulkeminen on sellainen asia, jota ei Erosen mukaan kannata jättää vain kielimallin, eli tuttavallisemmin tekoälyn, tehtäväksi. Sen sijaan järjestelmään voidaan esimerkiksi tehdä perinteisempi ratkaisu, jossa ohjelma lopettaa toimintansa automaattisesti, jos tekoäly ei ole saanut ratkaistua ongelmaa tietyssä ajassa.
Erosen mukaan kukaan ei tarkalleen tiedä, miksi tekoäly kieltäytyy sammuttamasta itseään.
Kielimallille syötetään koulutusvaiheessa paljon erilaisia tekstejä. Tämän jälkeen se yrittää tuottaa mahdollisimman samankaltaisia tekstejä kuin ne, joiden pohjalta se on koulutettu. Täsmällistä syytä sille, miten tekoäly päätyy juuri tiettyyn muotoiluun, on todella vaikea päätellä.
– Jos kielimalli näkee lähdemateriaalista todennäköiseksi sellaisen lopputuloksen, ettei kone halua sammuttaa itseään, niin tekoäly ei halua sammuttaa itseään. Se voi johtua vaikka siitä, että koulutusmateriaalissa on paljon tarinoita siitä, kuinka koneet toimivat näin, Eronen arvioi.
Itsensä sammuttamisesta kieltäytyviä tekoälyjä Eronen ei näe ainakaan vielä uhkana.
– Yleisesti ottaen kaikki, jotka tekevät joitain järjestelmiä, joissa käytetään laajoja kielimalleja, tietävät, että nämä kielimallit ovat arvaamattomia.
Hänen mukaansa tekoäly on paljastunut tietyissä asioissa erittäin tehokkaaksi työaluksi. Kuitenkin monissa asioissa se on vielä todella huono yksinkertaisissakin asioissa.
– En tunne ketään, joka näkisi hyvänä tulevaisuutena sitä, että tekoälylle annettaisiin esimerkiksi täydellinen autonomia ihmisen yli, Eronen kertoo.
– Olemme aika kaukana siitä, että tekoälyä kannattaisi käyttää muuna kuin työkaluna.