Puheenvuoro
Arvioitu lukuaika 3 min

Tekoälyasetus tulee – onko lukutaito kunnossa?

Euroopan unionin tekoälyasetus varmistaa, että voimme luottaa tekoälyn toimivan turvallisesti, yksilöiden oikeuksia kunnioittaen. Asetuksen mukaan organisaatioiden tulee huolehtia 2.2.2025 alkaen, että henkilöstö saa koulutusta tekoälyn hyödyistä ja riskeistä.

Kirjoittajat

Tarmo Toikkanen

Johtava asiantuntija, Ohjelmat

Meeri Toivanen

Asiantuntija, Ohjelmat

Julkaistu

Tekoäly on jo pitkään ollut käytössä yhteiskunnan eri alueilla. Se on pääosin toiminut konepellin alla, näkymättömissä. Monille tekoälyn seuraukset näkyvät selkeimmin sosiaalisen median alustojen suosittelualgoritmeina, jotka pyrkivät pitämään meidät ruudussa kiinni, vaikka oma hyvinvointimme ei siitä enää paranisi.

Tekoäly ei ole häviämässä minnekään, vaan päinvastoin leviää uusille alueille. Moni työntekijäkin saa tekoälyapureita työkaverikseen. Ja juuri tästä syystä organisaatioiden yrityksistä peruskouluihin on varmistettava henkilöstönsä tekoälylukutaito.

Jos vaikkapa poliisi ei ymmärrä, että ChatGPT:hen ei saa syöttää arkaluonteisia tietoja, hän voisi hyvin pyytää tekoälyä luonnostelemaan rikosilmoituksen antamiensa tietojen perusteella. Ja kun työteho paranee, kollegat alkavat seurata mallia. Näin on jo käynyt Alankomaissa.

Tekoälyasetuksen ansiosta me yksilöinä voimme parin vuoden päästä luottaa siihen, että teillä ajavat itseohjautuvat autot eivät ole vaarallisia, että uutisten tekoälytiivistelmät on huolella tehty, että puhuvat lelut eivät sisällä ulkovaltojen propagandaa, ja että sosiaalisen median algoritmit eivät lietso itsetuhoisuutta, masennusta tai väkivaltaa.

Työnantajan vastuulla on kouluttaa henkilöstö ennen kuin jotain menee pieleen.

Ei hätää, vaikka henkilöstön koulutus olisi vielä kesken. Tähän vaatimukseen kannattaa suhtautua kuten tietosuojalainsäädännön osaamisvaatimukseen: Jos työntekijät käsittelevät henkilötietoja, on heidän ymmärrettävä, mitä he saavat tehdä ja mitä eivät. Vastaavasti, jos työntekijät käyttävät tai kehittävät työssään eri tekoälytyökaluja, on heidän ymmärrettävä, miten heidän on toimittava kussakin tilanteessa. Työnantajan vastuulla on kouluttaa henkilöstö ennen kuin jotain menee pieleen.

Tekoälyjärjestelmien kehittäjien ja käyttöönottajien on oltava erityisen tarkkoina, jos järjestelmässä on vahingon riski. Suuririskiset tekoälyjärjestelmät on kehitettävä ja dokumentoitava huolellisesti, jotta niiden riskit ihmisten hyvinvoinnille minimoidaan.

Ymmärrämme varmaan kaikki, että jos tekoäly ohjaa autoa, tekee syöpädiagnooseja, arvioi oppilaiden koevastauksia tai tekee työsuhteeseen liittyviä päätöksiä, olisi suotavaa, että niiden tekoälyt olisi tehty huolellisesti. Juuri tämä on EU:n tekoälyasetuksen tavoite. Se on maailman ensimmäinen tekoälyn väärinkäyttöä hillitsevä laki ja se astuu vaiheittain voimaan vuosien 2025–2026 aikana.

Tekoälyasetuksen ensimmäiset velvoitteet tulivat sovellettavaksi 2.2.2025. Ne koskevat tekoälylukutaitoa yleisesti ja tiettyjen vaarallisten tekoälyjärjestelmien kokonaiskieltoa EU:ssa. Kiellettäviä järjestelmiä ovat muun muassa biometrinen profilointi, sosiaalinen pisteyttäminen sekä tunteiden tunnistusjärjestelmät työ- ja kouluympäristöissä.

Kiinnostaisiko tietää lisää?

Sitra on julkaisemassa avoimen ja maksuttoman verkkokurssin tekoälyasetuksesta. Tämä Datatalouden ABC -kurssien kolmas osa on edeltäjiensä tavoin käytännönläheinen, yksityishenkilöille ja ammattilaisille suunnattu. Kurssi julkaistaan 12.3.2025 Datatalouden ABC -sivustolla.

Lisäksi Sitra rahoittanut sääntelyteknologian työkalun kehitystä. Työkalu helpottaa tekoälyasetuksen ymmärtämistä, ja sen avulla organisaatiot voivat ketterästi arvioida koskeeko tekoälysäädös heidän toimintaansa ja millaisin vaikutuksin.

Mistä on kyse?