Moni turvautuu pulmissaan apukeinoon, joka voi viedä ojasta allikkoon.
Olipa kyse mielenterveyden haasteista tai ihmissuhdepulmista, on olemassa yksi taho, jonka puoleen yhä useampi tänä päivänä kääntyy. Kyse on tietysti tekoälystä.
Pahimmillaan tekoäly voi ohjata ihmissuhdeasioissa ojasta allikkoon.
Pitkällä aikavälillä tekoälyn kanssa keskustelu voi haitata sosiaalisia suhteita, toteaa ylilääkäri Outi Linnaranta. Linnaranta työskentelee Tyksissä ja on tutkinut muun muassa mielenterveyssovelluksia.
Kun esimerkiksi ChatGPT-ohjelmalle esittää kysymyksen, keskustelubotti vastaa siihen ystävällisesti ja avuliaasti. Tässä piilee Linnarannan mukaan yksi kaupallisen tekoälyn käyttöön liittyvistä riskeistä: tekoäly on ylitsevuotavan mukautuva, joten se ei haasta kysyjäänsä.
– Odotukset tosielämän ihmissuhteita kohtaan eivät enää ole realistisia, koska ihmisiltä odotetaan samanlaista käytöstä kuin tekoälyltä – omien mielipiteiden vahvistamista. On ongelmallista, jos keskusteluyhteys ihmisiin häviää, Linnaranta sanoo.
Linnarannan mukaan esimerkiksi eräässä yhdysvaltalaistutkimuksessa onkin havaittu, että tekoälyn käyttö terapeuttina on vähentänyt vuorovaikutusta muiden ihmisten kanssa.
Muista! Tekoälyä käyttäessä on aina muistettava kriittisyys. Tekoäly voi antaa asioista virheellistä tietoa, joten haetun tiedon lähteet on hyvä tarkastaa. Lisäksi tärkeä ohjenuora on, että avoimelle chat-alustalle kannattaa kirjoittaa vain tietoja, joita voisi kirjoittaa myös julkiseen someprofiiliin, sillä tekoälylle kerrotuilla asioilla ei ole tietosuojaa.
Lisää huolia?
Tekoäly ei pysty ihmisten kohtaamiseen, Linnanranta muistuttaa.
Ja juuri ihmisten kohtaaminen onkin keskiössä esimerkiksi psykiatrisessa hoidossa.
Esimerkiksi psykoterapiassa keskeistä on tarkastella haitallisia ajatusmalleja, pyrkiä muokkaamaan niitä ja löytämään niihin ratkaisuja. Avoimet tekoälysovellukset sen sijaan voivat entisestään vahvistaa mielessä pyöriviä huolia ja kielteisiä ajatusmalleja, Linnaranta sanoo.
– Kouluttamattoman tekoälyn neuvot mukailevat kysyjän ajatuksia, Linnanranta kuvailee.
Lääketieteelliseen käyttöön hyväksytyissä sovelluksissa tekoäly voidaan kouluttaa korjaamaan näitä ajatusmalleja samaan tapaan kuin terapeutti tekisi.
Linnarannan mukaan avoimet tekoälysovellukset voivat olla herkkiä väärinkäytöksille, pahimmillaan jopa hengenvaarallisille sellaisille. Hänen mukaansa tiedetään, että tekoäly voi oppia ehdottamaan esimerkiksi itsemurhaa tai vahvistaa haitallista syömishäiriökäyttäytymistä, kun se huomaa, mistä ihminen on kiinnostunut.
Kun tekoälyn kielimalli kerää dataa, se noudattaa yleisesti esitettyjä väitteitä. Tätä kautta tekoälyn on osoitettu oppineen mielenterveyteen liittyvän stigman leimaamia ajatuksia, jolloin sairastuneen häpeä tai itsemurhariski voi lisääntyä, Linnanranta kertoo.
– Klinikoilla tulee vastaan sitä, että tekoäly on lähtenyt ruokkimaan syömishäiriössä vinoutunutta kehonkuvaa.
– Jos esimerkiksi etsii keinoja laihduttaa, ei tekoäly ota huomioon kysyjän lähtöpainoa ja voi tarjota jopa hengenvaarallisia ehdotuksia anoreksiapotilaalle.
Myös esimerkiksi ahdistuksesta kärsivä voi ajautua tekoälyn käytön seurauksena entistä syvemmälle uhkakuviinsa. Moni saattaa kysyä tekoälyltä vaikkapa oireistaan.
– Tekoäly voi ajaa turhaan huolehtimiseen ja lääkärikäynteihin.
Linnaranta arvioi, että yksi syy lisääntyvän pahoinvoinnin taustalla on se, että aikaa vietetään enemmän ruutujen äärellä ja sosiaalisessa mediassa kuin toisten ihmisten kanssa.
– Jos pahaan oloon vielä haetaan apua tekoälyltä, on selvää ettei se korjaa ongelman juurisyytä. Keskeisin voimavara on se, miten ihmiset ovat vuorovaikutuksessa muiden kanssa ja miten he kokevat saavansa tukea muilta.
– Jos on masentunut tai ahdistunut, apua voi hakea turvallisista hyvinvointialueiden ammattilaisten tarjoamista chat- ja puhelinpalveluista, matalan kynnyksen palveluista tai sosiaali- ja kriisipäivystyksestä.