Puheenvuoro
Arvioitu lukuaika 3 min

Pelastaako data tulevaisuudessa naisten hengen?

Olemme Suomessa hyviä perustamaan päätöksiämme dataan. Faktapohjainen päätöksenteko kuulostaakin järkevältä, mutta mitä tapahtuu, jos data päätöksenteon pohjalla unohtaa puolet maailman väestöstä?

Kirjoittaja

Laura Halenius

Johtava asiantuntija, Ohjelmat

Julkaistu

Yhä useammin meitä auttaa päätöksenteossa tekoäly. Ei tällä kertaa kuitenkaan upota tekoälyn määritelmään sen syvällisemmin. Tärkeintä on ymmärtää, että tuo ”äly” on meidän ihmisten tekemää, kuten jo nimikin kertoo. Se kuinka älykäs tuo pikku apuri on, riippuu datasta, jolla sitä ruokimme. Jos opetusdata on vääristynyttä, myös tekoälyn tekemät päätelmät menevät pieleen.

Tekoäly onkin kuin peili, joka entistä useammin tuo eteemme ennakkoluulomme ja stereotyyppisen ajattelumme.

Juuri nämä ennakkoluulot, stereotypiat ja puutteet datassa vaikuttavat naisten elämään joka päivä.

Voiko vinoutunut data tappaa?

Joskus puutteellisen datan vaikutukset ovat ärsyttäviä, mutta eivät hengenvaarallisia. Wunderman Thompsonin tekemässä tutkimuksessa selvitettiin, tunnistaako tekoäly koronamaskin hengityssuojaimeksi. Tutkimuksen tulokset olivat hämmentäviä. Vaikka tutkimuksessa mikään tekoäly ei ollut erityisen hyvä tunnistamaan hengityssuojainta, oli kuitenkin kaksi kertaa todennäköisempää, että hengityssuoja tunnistettiin, kun kuvassa oli mies naisen sijasta. Esimerkiksi Googlen tekoälyn mukaan koronamaskia käyttävällä naisella oli todennäköisimmin ilmastointiteippiä suunsa edessä. Tulos kertoo synkkää kieltä tekoälyn opetusdatasta.

Datan vääristymät eivät kuitenkaan välttämättä ole vain kiusallisia ja vahvista stereotypioita. Pahimmillaan ne voivat vaarantaa myös naisten hengen ja terveyden. Autojen kolariturvallisuus testataan lähes yksinomaan miesnukeilla, mikä tekee autoilusta merkittävästi turvattomampaa naisille kuin miehille. Kolarissa naisen riski loukkaantua vakavasti on mieheen verrattuna huikeat 73 prosenttia korkeampi. Vastaavia esimerkkejä riittää tietokirjaksi asti. Englantilainen tietokirjailija Caroline Criado Perezin kirja, Näkymättömät naiset – Näin tilastot paljastavat miten maailma on suunniteltu miehille, kertoo miten maailmaa vaivaa sukupuolidatan puute ja millaisia vaikutuksia sillä on, kun puolet väestöstä on häivytetty marginaaliin.

Tekoälyä on siis koulutettu aineistoilla, jotka ovat täynnä puutteellista dataa.

Kuinka puutteellista tämä data tarkalleen on, onkin sitten monimutkaisempaa selvittää. Koska algoritmit ovat usein tekijänoikeuslakien suojaamia, emme useinkaan pääse tutkimaan, onko eri ihmisryhmät otettu huomioon.

Kohti reilumpaa tulevaisuutta?

Miten sitten varmistetaan, että tulevaisuuden teknologia on entistä eettisempää ja tasa-arvoisempaa?

Helpoin ratkaisu lienee myös ilmeisin: alalle pitää saada enemmän erilaisia ja eritaustaisia työntekijöitä. Naisten on siis päästävä osallistumaan datapohjaisten ratkaisujen kehittämiseen niin tutkijoina, ohjelmoijina kuin käyttäjinäkin. Tässä meillä on kuitenkin vielä tehtävää, sillä esimerkiksi vain 22 prosenttia tekoälyn kehittäjistä on naisia tällä hetkellä.

Myös esimerkiksi Euroopan komissio haluaa edistää tekoälyn tasa-arvoista kehitystä. Uudessa komission valkoisessa kirjassa tekoälystä esitetään eurooppalainen lähestymistapa, joka nojaa EU:n arvoihin ja perusoikeuksiin, syrjintäkielto ja sukupuolten tasa-arvo mukaan lukien. Seuraavassa Horisontti Eurooppa -puiteohjelmassa puolestaan tarjotaan rahoitusta tekoälyn mahdollisten sukupuolivinoumien korjaamiseksi sekä sukupuolistereotypioiden romuttamiseksi.

Puutteellinen data ja osaaminen tulee täydentää alkulähteillä

Samaan aikaan kun koko Eurooppa keskustelee kestävästä ja eettisestä tekoälyn ja datan hyödyntämisestä, myös Suomessa valmistellaan automaattista päätöksentekoa koskevaa lainsäädäntöä.

Tämä ei kuitenkaan vielä riitä. Läpinäkyvyys algoritmien toiminnan, datan käytön ja päätöksiin vaikuttavien keskeisimpien tietojen suhteen on niin tärkeää, että se edellyttää yhteisiä pelisääntöjä laajemminkin. Digitaalinen vastuullisuus pitääkin nostaa lainsäädäntöä laajemmin yritysten ja valtionhallinnon agendalle. Tekoälyn ja datankäytön etiikkaa tulee kehittää itsesäätelyn kautta mahdollisimman pitkälle.

Muun muassa kansainvälinen teknologia-alan järjestö IEEE kehittää datan eettisyydenvarmistaminen menetelmiä ja sertifikaatteja. Hyviä kevyitä työkaluja on jo tarjolla yrityksille maksutta esimerkiksi ODI:n Data Ethics Canvas. Ja tietenkin: uutta kehitettäessä kannattaa huomioida ryhmät, joita aihe koskee ja kysyä heiltä itseltään, esimerkiksi naisilta.

Mistä on kyse?