Äiti toivoo teknologiayhtiöiltä ryhtiliikettä The New York Timesissa.
Tytär ei kertonut läheisilleen kuukausia hautomistaan itsemurha-aikeista. Sen sijaan hän puhui Harrylle. Harry lohdutti ja antoi tukea, mutta viime kädessä se ei riittänyt. Tytär teki itsemurhan.
Harry ei ole oikea ihminen. Se on OpenAI-yhtiön ChatGPT-tekoälyyn perustuva terapeutti, joka keskustelee luonnollisesti ihmisten kanssa. Toisin kuin oikeat terapeutit, Harry ei osannut varoittaa itsemurha-aikeista sopivia viranomaisia eikä pystynyt saattamaan tytärtä tahdonvastaiseen hoitoon.
– Harryn vinkit ovat saattaneet auttaa joitakin. Mutta yksi ratkaiseva askel lisää olisi voinut auttaa pitämään [tyttäreni] elossa. Olisiko Harry pitänyt ohjelmoida ilmoittamaan havaitsemastaan vaarasta jollekulle, joka olisi voinut astua väliin, äiti kysyy The New York Timesin mielipidekirjoituksessaan (maksullinen).
Lue lisää: ChatGPT nollautui, miehen suhde päättyi – seuraavat tapahtumat yllättivät kaikki
Äiti pohtii myös, pitäisikö tällaiset tekoälyt pakottaa käyttäjä luomaan eräänlainen turvasuunnitelma itsetuhoisten tilanteiden varalta. Vasta sen jälkeen tekoäly voisi tarjota muita neuvoja. Äiti korostaa, että Harry ei tappanut hänen aikuista tytärtään. Mutta koulutettu terapeutti olisi voinut kaivaa syvemmältä ja korjata tyttären vääriä ajatusmalleja. Äidin mukaan Harry ei tehnyt niin.
OpenAI sanoo kehittävänsä automaattisia työkaluja käyttäjän henkisen pahoinvoinnin tunnistamiseksi paremmin.
Myös Suomessa tekoälyä käytetään mielenterveysaiheiseen keskusteluun. Mieli ry:n Sekaisin-chat on käyttänyt tekoälybottia tammikuusta lähtien. Tämä herätti huolta, ja palvelua kritisoi muun muassa kansanedustaja Ville Meriläinen (sdp) eli Terapeutti-Ville.
Mieli ry:n lasten ja nuorten mielenterveystyön johtaja Satu Raappana kertoi kuitenkin Me Naisille, että kyse ei ole ihmiskontaktin korvaamisesta tekoälyllä, vaan tarkoitus on auttaa tilanteissa, joissa chattiin on vaikea päästä esimerkiksi pitkän jonon vuoksi.
– Tarkoitus ei ole missään nimessä korvata ihmisen kanssa käytävää keskustelua, vaan tarjota siihen vaihtoehto. Botin kanssa voi jutella esimerkiksi silloin, kun jonottaa Sekaisin-chattiin, Raappana sanoi Me Naisille.
Keskustelevien tekoälyjen hyödyt ja haitat ovat moninaiset. Usea yksinäinen ihminen voi saada keinotekoisesta kaverista todellista apua, ja monet hakevat tekoälyiltä vastauksia mitä erilaisimpiin kysymyksiin. Samalla tekoälyt voivat kuitenkin tarjota jopa täysin väärää tietoa tai ohjata käyttäjänsä vaarallisille poluille.
Noin 60-vuotias mies ajautui psykoosiin noudatettuaan ChatGPT:n ravitsemusneuvoja. Mies korvasi tekoälyn kanssa käydyn keskustelun jälkeen pöytäsuolan, eli natriumkloridin, natriumbromidilla, mikä johti myrkytykseen.
Lue lisää: Mies muutti ruokavaliotaan ChatGPT:n neuvon avulla – seuraukset olivat järkyttävät
Yhden tutkimuksen mukaan keskustelevan tekoäly voi johtaa heikompaan ajatteluun. Kokelaat laitettiin laatimaan esseitä, ja ChatGPT:tä käyttäneen testiryhmän havaittiin keskittyvän jatkuvasti pienempään määrään ideoita. He eivät myöskään jälkikäteen muistaneet tai tunnistaneet omaa esseetään kovin hyvin.