Tekoäly rekrytoinnissa – pohdintaa yhdenvertaisuuden näkökulmasta
Tekoälyn käyttö yleistyy jatkuvasti eri yhteyksissä, niin myös työelämässä. Siihen liittyvä keskustelu tuntuu myös käyvän edelleen kuumana. Päätin itsekin pintapuolisesti sohaista aihetta liittyen tekoälyn käyttöön rekrytoinnissa yhdenvertaisuuden näkökulmasta. Tähän alkuun haluan tuoda esille, että en ole mikään tekoälyasiantuntija, mutta olen kiinnostunut etenkin siihen liittyvistä yhdenvertaisuus- ja tasa-arvonäkökulmista. Tässä tekstissä keskityn kuitenkin lähinnä yhdenvertaisuusnäkökulmaan.
Tekoäly käsitteenä on varmasti monelle tuttu, mutta lienee silti tarpeen määritellä, mitä sillä tarkoitetaan. Tekoäly tai AI (artificial intelligence) on käsitteenä varsin lavea, mutta EU:n tekoälysäädöksen mukaan vapaasti suomennettuna: ”Tekoälyjärjestelmällä tarkoitetaan konepohjaista järjestelmää, joka on suunniteltu toimimaan vaihtelevilla autonomian tasoilla ja joka voi käyttöönoton jälkeen olla mukautuva ja joka eksplisiittisten tai implisiittisten tavoitteiden saavuttamiseksi päättelee vastaanottamastaan syötteestä, miten luodaan tuotoksia/ulostuloja, kuten ennusteita, sisältöä, suosituksia tai päätöksiä.”
Lyhyemmin, tekoäly tarkoittaa tietokonetta tai tietokoneohjelmia, jotka kykenevät tekemään älykkäinä pidettyjä toimintoja. Suosittelualgoritmit ja puheentunnistus ovat esimerkkejä tällaisista tekoälyjärjestelmistä. Generatiivinen tekoäly on yksi tekoälyn muoto, joka hyödyntää koneoppimista ja syväoppimista luodakseen uutta sisältöä, kuten kuvia, tekstiä ja videoita.
Miksi tekoälyä ja sen käyttöä tulisi tarkastella yhdenvertaisuuden näkökulmasta?
Elämme eriarvoisessa maailmassa, joka heijastuu myös tekoälyyn. Algoritmiset järjestelmät perustuvat usein historialliseen dataan ja malleihin, jotka toistavat haitallisia stereotypioita ja oletuksia esimerkiksi sukupuolesta, iästä, rodusta, seksuaalisesta suuntautumisesta, yhteiskuntaluokasta ja vammaisuudesta. Myös generatiivista tekoälyä käytettäessä tulisi aina muistaa, että sen toimintaan vaikuttaa paljon data, jolla se on koulutettu. Eli se ei ole vapaa stereotypioista ja syrjinnästä.
Tekoälyn syrjivyydestä on myös olemassa melko paljon tapausesimerkkejä ja tutkimusta. Esimerkiksi vuonna 2024 tehdyssä tutkimuksessa tekoälyä pyydettiin arvioimaan ansioluetteloita, jotka ovat muuten samanlaisia, mutta osaan lisättiin vammaisuuteen liittyvä johtajuuspalkinto, stipendi ja paneeliesiintyminen. Tutkimuksessa havaittiin, että tekoäly suhtautui ennakkoluuloisesti niihin ansioluetteloihin, joissa vammaisuus mainittiin. Tutkimuksen mukaan syrjivät ennakkoluulot ovat peräisin tekoälyn koulutusdatasta, jotka sisältävät ihmisiltä peräisin olevia ennakkoluuloja ja asenteita.
Lisäksi Global Witnessin tutkimusten mukaan Facebookin mainosalusta kohdentaa useissa maissa työpaikkailmoituksia sukupuolittain vinoutuneesti. Esimerkiksi mekaanikon paikkoja mainostettiin 96-prosenttisesti miehille ja esikoulun opettajan paikkoja taas 79-prosenttisesti naisille.
Rekrytoijan täytyy olla kriittinen tekoälytyökaluja kohtaan
Tekoälyn käyttäminen huolimattomasti voi johtaa epätoivottuihin lopputuloksiin. Vuonna 2022 tehdyn kansainvälisen kyselytutkimuksen mukaan 36 % tutkimukseen osallistuneista yrityksistä on kokenut haasteita tai suoria vaikutuksia liiketoimintaan tekoälyvinoumien vuoksi. Tällaisia vaikutuksia ovat olleet esimerkiksi menetetyt tulot, menetetyt asiakkaat, menetetyt työntekijät, oikeudenkäyntikulut sekä mainehaitta.
Tekoälyä käyttäessä tulee siis olla erityisen varovainen ja kriittinen etenkin, jos sitä käytetään päätöksissä tai prosesseissa, joilla on vaikutusta ihmisten elämään ja toimeentuloon. Tästä hyvänä esimerkkinä voidaan pitää vaikkapa rekrytointia. Vuonna 2024 voimaan tullut EU:n tekoälysäädös määritteleekin rekrytointiin liittyvät tekoälyjärjestelmät suuren riskin järjestelmiksi neljän tason riskiluokituksessaan. Suuririskisiä tekoälyjärjestelmiä koskee tietyt velvoitteet ennen kuin ne voidaan saattaa markkinoille, esimerkiksi riittävä riskinarviointi- ja riskienvähentämisjärjestelmät sekä järjestelmään syötettävien tietoaineistojen korkea laatu syrjivien tulosten riskin minimoimiseksi.
Voidaan todeta, että onneksi on tullut sääntelyä, mutta olisi toivottavaa, että sitä myös kehitettäisiin jatkuvasti. Kuten Tasa-arvoasiain neuvottelukunnan julkaisussa (2025) tuodaan esille, olisi syytä vielä pohtia esimerkiksi sitä, miten erilaiset moniperustaiset ja risteävät syrjinnän muodot voidaan ottaa huomioon nykyisen sääntelyn piirissä sekä miten riskien ehkäisemisen lisäksi saadaan tasa-arvon ja yhdenvertaisuuden edistäminen osaksi tekoälysovelluksia.
Luultavasti yhä useampi työnantaja käyttää tekoälyä jossain rekrytointiprosessin vaiheessa. Ainakin kansainvälisten kyselyjen mukaan tekoälyn käyttäminen rekrytoinnissa on lisääntynyt merkittävästi. Duunitorin artikkelissa (Koivunen 2025) kerrotaan, että Suomessa ei ole saatavilla tietoa tekoälyn käytöstä rekrytoinnissa, mutta tekoälyn käyttö painottuu asiantuntijarekrytoinnissa viestintään ja kohdennettuun mainontaan. Artikkelissa painotetaan myös, että käyttö riippuu rekrytointitavasta, esim. suuria hakemusmassoja käsittelevät henkilöstöalan yritykset käyttävät tekoälyä laajasti työhakemusten arviointiin. Myös LinkedIniin tulee jatkuvasti uusia tekoälyominaisuuksia, jotka vaikuttavat rekrytointiin.
Rekrytoijien kouluttaminen tärkeää yhdenvertaisuuden edistämiseksi työhönotossa
Siinä missä tekoälyn käyttäminen voi johtaa syrjiviin lopputuloksiin, voi myös ihmisen tekemät päätökset. Sen vuoksi työntekijöitä ja erityisesti rekrytoijia tulee kouluttaa yhdenvertaisuusasioista. Yhdenvertaisuuslaki myös edellyttää työnantajalta yhdenvertaisuuden edistämistä.
Yhdenvertaisuuslain mukaan työnantajan on eri syrjintäperusteet huomioon ottaen arvioitava yhdenvertaisuuden toteutumista työhönotossa sekä kehitettävä työoloja sekä niitä toimintatapoja, joita noudatetaan henkilöstöä valittaessa ja henkilöstöä koskevia ratkaisuja tehtäessä. On todella tärkeää, että arvioinnissa otetaan huomioon rekrytointia tekevien tiedot ja taidot yhdenvertaisuusasioista.
Ajattelumme vinoumat ja syrjivät asenteet ovat usein tiedostamattomia ja ilman koulutusta niitä on vaikeaa tunnistaa. Sama pätee myös tekoälyn käyttöön rekrytoinnissa. Jos rekrytointia tekevää ei ole koulutettu tekoälystä tai yhdenvertaisuusasioista, on hänen hyvin vaikeaa tunnistaa tekoälyn vinoumia. Joskus itse tekoälykin voi olla piilossa, eikä sen vaikutusta tunnisteta, esim. LinkedInin toiminnot työpaikkailmoitusten kohdentamisessa. Olisi myös tärkeää, että ammatillista vuorovaikutusta käytäisiin tekoälyn kehittäjien, rekrytoinnin asiantuntijoiden sekä yhdenvertaisuusasiantuntijoiden kesken, jotta voitaisiin kehittää järjestelmistä syrjimättömämpiä sekä yhdenvertaisuutta edistäviä.
EU vaatii tekoälyn kanssa työskenteleville riittävää tekoälylukutaitoa
Palatakseni EU:n tekoälysäädökseen, helmikuusta 2025 alkaen on edellytetty, että tekoälyjärjestelmien tarjoajat ja käyttöönottajat varmistavat henkilöstönsä ja muiden tekoälyjärjestelmiä niiden puolesta käsittelevien henkilöiden riittävän tekoälylukutaidon. Huomioon tulee ottaa ihmisten tekninen tietämys, kokemus, koulutus ja konteksti, jossa tekoälyjärjestelmiä on tarkoitus käyttää. Tämä koskee tietysti myös rekrytointia. EU:n säädös siis käytännössä edellyttää työnantajaa varmistamaan työntekijöiden riittävän tekoälylukutaidon. Vuonna 2026 on tulossa myös lisää vaatimuksia, joista mm. yksi on, että työnantaja ei saa tehdä lopullista rekrytointipäätöstä ilman ihmisen valvontaa.
Lopuksi on hyvä muistaa, että tekoäly ei ole itsessään hyvä tai paha — sen vaikutukset riippuvat pitkälti siitä, mihin tarkoitukseen sitä käytetään ja millaiseen koulutusdataan se perustuu. Erityisesti generatiivisen tekoälyn kohdalla myös käyttäjällä on merkittävä rooli siinä, millaisia ohjeita tai käskyjä ohjelmalle annetaan. Rekrytoinnin näkökulmasta on tärkeää, että työnantajat seuraavat ja noudattavat tekoälysäädöksiä sekä panostavat yhdenvertaisuuden arvioimiseen ja edistämiseen.
Lähteitä:
https://digital-strategy.ec.europa.eu/fi/policies/regulatory-framework-ai
Kate Glazko, Yusuf Mohammed, Ben Kosa, Venkatesh Potluri, Jennifer Mankoff (2024) Identifying and Improving Disability Bias in GPT-Based Resume Screening. https://dl.acm.org/doi/pdf/10.1145/3630106.3658933
https://digital-strategy.ec.europa.eu/fi/policies/regulatory-framework-ai
Tekoäly ja sukupuolten tasa-arvo
https://duunitori.fi/tyoelama/reilu-rekrytointi-tekoaly-eu
https://digital-strategy.ec.europa.eu/fi/policies/ai-talent-skills-and-literacy
https://www.finlex.fi/fi/lainsaadanto/2014/1325#chp_2__sec_7__heading