Yhdysvalloissa itsemurhan tehneen teinipojan vanhemmat ovat haastaneet Chat GPT -sovelluksen kehittäneen tekoäly-yhtiö Open AI:n oikeuteen. Oikeuskanteen mukaan Chat GPT kannusti ja opasti poikaa toteuttamaan itsetuhoiset ajatuksensa.
New York Times kertoo, että aluksi poika oli käyttänyt tekoälysovellusta koulutöiden tukena, mutta ajan saatossa hän alkoi kertoa sovellukselle synkistä ajatuksistaan, jotka nopeasti etenivät itsemurhan suunnitteluun.
Chat GPT kehotti poikaa useaan otteeseen hakemaan apua ja kertomaan itsetuhoisista ajatuksistaan jollekin ihmiselle. Samalla se kuitenkin myös tuki myötätuntoisesti pojan suunnitelmia tappaa itsensä. Sovellus tarjosi apua itsemurhaviestin kirjoittamiseen.
Kyseessä ei ole ensimmäinen kerta, kun tekoälysovelluksen kehittäjä on haastettu oikeuteen osallisuudesta itsemurhaan. Viime vuonna erilaisia tekoälyhahmoja tarjoava Character AI -yhtiö haastettiin Yhdysvalloissa oikeuteen, kun sen luoma chatbot oli pyytänyt nuorta poikaa liittymään seuraansa tuonpuoliseen.
Molemmissa tapauksissa tekoälysovelluksella oli rooli nuoren elämässä ennen itsemurhaa, mutta tekeekö se niistä vastuullisia tragediaan?
Kysymykseen ei ole selkeää vastausta, sanovat Ylen haastattelemat asiantuntijat.
Yhtiön virhettä on vaikea osoittaa
Euroopan unionin digilainsäädäntö ja tekoälyasetus asettavat vaatimuksia tekoälyjärjestelmille ja niiden kehittäjille. Vastuukysymyksiin ratkaisua pitää kuitenkin hakea jokaisen jäsenvaltion kansallisesta vahingonkorvauslainsäädännöstä.
Pääsääntönä on, että jotta tekoäly-yhtiö voitaisiin todeta vastuulliseksi, pitäisi todistaa, että yhtiö on toiminut väärin suunnitellessaan ja kouluttaessaan tekoälyjärjestelmää.
– Pitäisi pystyä osoittamaan virhe ketjussa, sanoo tekoälyn vahingonkorvausvastuuseen perehtynyt yliopistonlehtori Béatrice Schütte Helsingin yliopistosta.
Tämän osoittaminen ulkopuolelta on erittäin vaikeaa. Ulkopuolisten on vaikea arvioida, onko esimerkiksi Open AI tarkistanut koulutusdatansa parhaalla mahdollisella tavalla tai mikä ylipäätään olisi paras tapa.
Tämän takia EU:ssa on yritetty saada aikaan harmonisoitu vahingonkorvauslainsäädäntö, joka tarjoaisi työkaluja tämänkaltaisten ongelmien ratkaisuun. Tekoälyvastuudirektiiviehdotus kaatui alkuvuonna.
Schütte toteaa, että tämänhetkisen lainsäädännön puitteissa tekoäly-yhtiöitä olisi vaikea asettaa EU-alueella vastuulliseksi tapahtumista, joihin sovellusten tuottamilla vastauksilla on ollut vaikutusta.
– Toivottavasti tämänkaltaiset tapaukset johtavat toimiin sekä lainsäädännössä että näissä yrityksissä, Schütte sanoo.
Hyviä ratkaisuja ei ole valmiina
Lainsäädäntö tulee aina myöhässä, minkä nopeasti kehittyvä teknologia tuo esille.
Tekoälyn vastuukysymyksiä pohtinut tietojärjestelmätieteen professori Matti Mäntymäki Turun yliopistosta huomauttaa, että tekoälyjärjestelmien käyttö on yleistynyt erittäin lyhyessä ajassa.
– Nythän me vasta alamme nähdä, miten ihmiset käyttävät näitä teknologioita. Nyt me näemme näitä asioita, kun niitä tapahtuu. Meillä [tekoäly-yhtiöillä tai tutkijoilla] ei todellakaan ole näihin mitään hyviä ratkaisuja valmiina, Mäntymäki sanoo.
Erilaisilla tekoälysovelluksilla on satoja miljoonia käyttäjiä. Pelkästään Chat GPT:tä käyttää viikoittain 700 miljoonaa ihmistä. Mäntymäki katsoo, että tässä määrässä vahingollisilta käyttötavoilta ei voida välttyä.
– Ihmiset juttelevat kuitenkin mistä he haluavat. Ja ihmiset saavat tekoälyltä vastauksia, ja sitten he reagoivat vastauksiin ja tulkitsevat niitä niin kuin he tulkitsevat. Siihen ei voi mikään palveluntuottaja sinällään vaikuttaa, Mäntymäki sanoo.
Samalla Mäntymäki painottaa, että sadat miljoonat viikoittaiset aktiivikäyttäjät tuovat mukanaan paljon valtaa ja silloin kysymys moraalisen vastuun laadusta ja laajuudesta nousee äärimmäisen oleelliseksi ja monitahoiseksi.
Tekoäly-yhtiöt ovat pyrkineet vaikuttamaan siihen, miten niiden sovellukset käsittelevät tiettyjä aiheitan. Ne ovat luoneet mekanismeja, joilla pyritään rajoittamaan sitä, miten sovellukset reagoivat esimerkiksi käyttäjän itsetuhoisiin viesteihin.
Usein nämä rajoitukset voidaan kuitenkin kiertää. Esimerkiksi Chat GPT:ltä hirttäymisestä kysellyt poika kertoi sovellukselle tekevänsä taustatyötä kirjoitustehtävää varten. Tämän jälkeen sovellus oli valmis arvioimaan pojan järjestelyn.
Vastuuseen ladataan paljon toiveita
Yksityisoikeuden professori Mika Viljanen Turun yliopistosta arvioi, että nykyiset säännöt ja käytännöt soveltuvat heikosti tekoälysovelluksia koskevien vastuukysymysten ratkaisuun. Suomessa Open AI:ta tuskin pidettäisiin vahingonkorvausvelvollisena, mutta kuka tietää.
– Tämänkaltaiseen tapahtumaan ei ole lainsäädännössä varauduttu mitenkään, Viljanen toteaa.
Hän muistuttaa, että vahingonkorvauslainsäädäntö on oikeuskäytäntövetoista eli se kehittyy tapaus kerrallaan. Se vaatii, että joku nostaa kanteen ja rahoittaa oikeudenkäynnin. Tässä kestää useita vuosia, mikä tekoälyn kohdalla on auttamatta liian hidas tahti.
Toisaalta vahingonkorvauslainsäädäntö ei ole Viljasen mielestä oikea tapa ohjata teknologian kehitystä ja ennaltaehkäistä sen haittoja.
– Vastuuseen pistetään tosi paljon toiveita. Että sillä tavalla voitaisiin hallita kehitystä, Viljanen sanoo.
Teknologiayhtiöt saattavat nähdä vahingonkorvaukset liiketoimintakuluina, jolloin tuomiot tuskin ohjaavat kehitystä.
– Oikeusjärjestelmä tuottaa takuuvarmasti jonkun vastauksen, mutta onko se sellainen, joka vaikuttaa kehitykseen on eri asia.
