Suomi
  • Eurooppa
  • Otsikot
  • Suomi
  • Ulkomaat
  • Talous
  • Teknologia
  • Tiede
  • Viihde
  • Urheilu
  • Terveys

Categories

  • Avaruus
  • Elokuvat
  • Fysiikka
  • Internet
  • Julkkikset
  • Kirjat
  • Laitteet
  • Luonto
  • Mobiili
  • Musiikki
  • Otsikot
  • Perinnöllisyystiede
  • Suomi
  • Taiteet ja suunnittelu
  • Talous
  • Teknologia
  • Tekoäly
  • Televisiot
  • Terveys
  • Tiede
  • Tieteellinen laskenta
  • Ulkomaat
  • Urheilu
  • Viihde
  • Virtuaalitodellisuus
  • Ympäristö
Suomi
  • Eurooppa
  • Otsikot
  • Suomi
  • Ulkomaat
  • Talous
  • Teknologia
  • Tiede
  • Viihde
  • Urheilu
  • Terveys
Karhu hyökkäsi koululaisten kimppuun, yli kymmenen loukkaantui
UUlkomaat

Tekoälyn käyttö sosiaaliturvan valvonnassa voi vaarantaa ihmisoikeudet

  • 19.12.2025

Vieraskynä|Sosiaaliturvan digitalisointi voi johtaa lisätä joihinkin ihmisryhmiin kohdistuvaa syrjintää. Kelan pitäisi varoa sitä tekoälyhankkeessaan.

18.12. 19:15

Kirjoitus on vierailevien asiantuntijoiden näkemys.

Sosiaaliturvan digitalisointi ja hallinnointi tekoälyn avulla yleistyy monissa Euroopan maissa. Algoritmeja eli koneoppimismalleja hyödynnetään muun muassa sosiaaliturvan väärinkäytösten etsimisessä.

Amnesty International on tutkinut algoritmeja, joita viranomaiset käyttävät sosiaalietuuksien väärinkäytösten havaitsemiseksi Tanskassa, Alankomaissa, Ruotsissa ja Ranskassa. Missään näistä maista sosiaalietuuksien hallinnointiin käytettävät tekoälyjärjestelmät eivät toimi ihmisoikeusnormien edellyttämällä tavalla. Ne kohdistavat marginalisoituihin ihmisryhmiin valvontaa, kiihdyttävät syrjintää ja syventävät eriarvoisuutta.

Tanskassa viranomaiset ovat käyttäneet kymmeniä erilaisia algoritmeja sosiaaliturvan hallinnointiin ja väärinkäytösten havaitsemiseen. Malleilla yritetään esimerkiksi kotitalouden koon tai koostumuksen perusteella tunnistaa epätyypillisiä ihmissuhteita ja asuinjärjestelyjä, jotka voisivat johtaa sosiaaliturvapetosten jäljille.

Mallit eivät kuitenkaan huomioi tilastollisesta normista poikkeavia eroja, joiden takana ovat kulttuuriset syyt. Maahanmuuttajataustaiset ihmiset asuvat esimerkiksi keskimääräistä useammin monen sukupolven yhteisessä kotitaloudessa. Pienituloiset taas saattavat elää tavanomaista suuremmissa kotitalouksissa, koska heillä ole varaa asua omillaan. Myös vammaisten ihmisten asuinolot voivat poiketa kapeasta normista. Ja kun algoritmeilla pyritään tunnistamaan edunsaajien sidonnaisuuksia ulkomaille, käytetyt mallit kiinnittävät huomiota etenkin sellaisiin edunsaajiin, joilla on sidonnaisuuksia EU- ja Eta-alueen ulkopuolisiin maihin.

Tekoälyä käyttävät järjestelmät perustuvat laaja-alaiseen henkilökohtaisen datan hyödyntämiseen. EU-sääntely kieltää kuitenkin sellaiset tekoälysovellukset, jotka jakavat ihmisiä ryhmiin sosioekonomisen aseman, käyttäytymisen tai henkilökohtaisten ominaisuuksien perusteella ja altistavat heidät jaottelun perusteella syrjivälle kohtelulle.

Sosiaaliturvan digitalisointi voi olla joiltain osin hyödyllistä ja parantaa sosiaaliturvan saatavuutta. Jos teknologiaa kuitenkin käytetään ensisijaisesti ihmisten valvontaan, siitä on enemmän haittaa kuin hyötyä.

Suomessakin edistetään sosiaaliturvan digitalisaatiota. Kela on aloittanut lähes 600 miljoonan euron hankkeen, jonka tavoitteena on lisätä tehokkuutta ja tietoturvaa. Hankkeeseen kuuluu tekoälyn integroiminen sosiaalietuuksien hallintaan, ja yhtenä tavoitteena on havaita sosiaaliturvaetuuksien väärinkäyttöä algoritmien avulla.

Kelan oikeuskanslerille toimittaman selvityksen mukaan kehitteillä oleva tekoälypohjainen malli tunnistaa sosiaaliturvan väärinkäytösepäilyjä ja merkitsee ne jatkoselvityksiä varten. Kela kertoo, että riskitekijöitä ei haeta profiloimalla henkilön henkilökohtaisia ominaisuuksia.

Kelan hanke ei saa muuttua mustaksi laatikoksi.

Sosiaaliturvan automatisoinnin ja digitalisoinnin ihmisoikeusriskit on otettava vakavasti, ja Kelan pitää tunnistaa ja ennaltaehkäistä näitä riskejä. Kehitystyö ei saa johtaa sosiaaliturvaa saavien ihmisten syrjivään kohteluun.

Kelan on varmistettava, ettei monikansallisen yrityskumppanin kanssa kehitettävä hanke muutu läpinäkymättömäksi mustaksi laatikoksi. Ihmisoikeuksien noudattamista digitalisoidussa sosiaaliturvajärjestelmässä voidaan arvioida vain, jos se on avoin ja riippumattomien Kelan ulkopuolisten toimijoiden arvioitavissa.

Vuonna 2024 Kelan kirjaamat etuuksien väärinkäytösepäilyt olivat vain 0,43 promillea kaikista maksetuista etuuksista. Kelassa on arvioitu, että etuuksien alikäyttö on niiden väärinkäyttöä yleisempää.

Suomi voisi edelläkävijänä kehittää ihmisoikeusperustaista sosiaaliturvahallintoa, joka ei johda syrjiviin tuloksiin ja yksilöitä rankaisevaan joukkovalvontaan. Se edellyttää laajaa avoimuutta sosiaaliturvan digitalisoinnin joka vaiheessa, aina kehitystyöstä käyttöönottoon.

Likhita Banerji on algoritmien ihmisoikeusvaikutuksia tutkivan yksikön johtaja Amnesty Internationalissa. Mariko Sato on taloudellisten ja sosiaalisten oikeuksien asiantuntija Amnestyn Suomen osastossa.

Vieraskynien kirjoitusohjeet: www.hs.fi/vieraskyna/

  • Tags:
  • Breaking news
  • BreakingNews
  • Featured news
  • FeaturedNews
  • FI
  • Finland
  • Finnish
  • Headlines
  • Helsingin Sanomat
  • Latest news
  • LatestNews
  • Main news
  • MainNews
  • News
  • Otsikot
  • Pääuutiset
  • Suomi
  • Top stories
  • TopStories
  • Ulkomaat
  • Uutiset
  • World
  • World news
  • WorldNews
Suomi
www.europesays.com