Luku 1: Valmiina, Paikoillanne, Aloittakaa
Tietokilpailut
2.4 Tekoälyä koskeva lainsäädäntö
Tekoälylaki on Euroopan unionin tärkeä askel kattavan sääntelykehyksen luomiseksi tekoälylle. Se on EU:n ensimmäinen merkittävä aloite tekoälyn sääntelemiseksi, ja sen tavoitteena on varmistaa, että EU:ssa kehitetyt, käyttöönotetut ja käytetyt tekoälyjärjestelmät ovat turvallisia, läpinäkyviä ja perusoikeuksia kunnioittavia. Lailla pyritään edistämään innovointia ja samalla vähentämään tekoälyn mahdollisia riskejä.
Tekoälylain keskeinen piirre on sen riskiperusteinen lähestymistapa tekoälyjärjestelmien sääntelyyn. Tämä tarkoittaa sitä, että laissa tekoälyjärjestelmät luokitellaan neljään eri luokkaan, joihin kuhunkin sovelletaan eritasoista sääntelyä niiden aiheuttaman arvioidun riskin perusteella:
- Tekoälyjärjestelmät, joiden riskiä ei voida hyväksyä
Näiden tekoälyjärjestelmien katsotaan aiheuttavan perusoikeuksiin kohdistuvan riskin, jota ei voida hyväksyä, ja siksi ne ovat täysin kiellettyjä. Esimerkkejä tällaisista järjestelmistä ovat tekoäly, joka manipuloi ihmisten käyttäytymistä vahingoittamiseksi, reaaliaikainen kasvontunnistus julkisissa tiloissa lainvalvontaa varten (hyvin rajoitettuja poikkeuksia lukuun ottamatta) ja sosiaaliset pisteytysjärjestelmät, jotka pyrkivät asettamaan kansalaiset paremmuusjärjestykseen heidän käyttäytymisensä tai ominaisuuksiensa perusteella. - Korkean riskin tekoäly
Tähän luokkaan kuuluvat tekoälyjärjestelmät ovat sallittuja, mutta niihin sovelletaan tiukkoja sääntelyvaatimuksia. Näitä järjestelmiä käytetään tyypillisesti arkaluonteisilla aloilla, joilla tekoälyä koskevilla päätöksillä voi olla merkittävä vaikutus yksilöiden elämään. Esimerkkeinä voidaan mainita tekoäly, jota käytetään koulutuksessa (esim. automaattisessa luokittelussa), terveydenhuollossa, lainvalvonnassa, rekrytointiprosesseissa ja keskeisten julkisten palvelujen saatavuudessa. - Tekoäly, johon liittyy rajallinen riski
Rajoitetun riskin tekoälyjärjestelmiksi luokitellut tekoälyjärjestelmät ovat yleensä sallittuja, mutta niiden on täytettävä tietyt avoimuusvaatimukset. Yleinen esimerkki ovat chatbotit tai käyttäjien kanssa vuorovaikutuksessa olevat tekoälyjärjestelmät, joissa käyttäjälle on ilmoitettava, että hän on vuorovaikutuksessa koneen kanssa, jotta käyttäjä tietää, ettei hän ole yhteydessä ihmiseen. - Tekoäly, johon liittyy minimaalinen riski
Tekoälyjärjestelmiä, jotka kuuluvat minimaalisen riskin kategoriaan, voidaan käyttää vapaasti, vaikka vastuulliseen käyttöön kehotetaankin edelleen voimakkaasti. Esimerkkejä ovat roskapostisuodattimissa tai videopelien NPC-järjestelmissä käytetty tekoäly.
Tekoälylaissa, jonka tavoitteena on tekoälyn vastuullinen kehittäminen ja käyttö, esitetään useita keskeisiä periaatteita, joita on sovellettava kaikkiin tekoälyjärjestelmiin joita ei ole kielletty. Näillä periaatteilla pyritään varmistamaan, että tekoälyteknologiaa käytetään sekä hyödyllisellä että eettisesti hyväksyttävällä tavalla riippumatta siitä, kannustetaanko sitä vai säännelläänkö sitä lailla.
Ensimmäinen ja tärkein periaate on avoimuus. Laissa korostetaan, että käyttäjille on tärkeää tiedottaa, kun he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa. Avoimuus on olennaisen tärkeää luottamuksen rakentamiseksi ja sen mahdollistamiseksi, että käyttäjät voivat tehdä tietoon perustuvia päätöksiä toiminnastaan. Se antaa käyttäjille mahdollisuuden ymmärtää käyttämänsä teknologian luonteen ja auttaa välttämään mahdolliset petokset.
Toiseksi laissa korostetaan ihmisen suorittaman valvonnan tarvetta. Erityisesti riskialttiissa tekoälyjärjestelmissä, joilla voi olla merkittävä vaikutus yksilöiden elämään, laissa säädetään, että ihmisen suorittamaa valvontaa ja ohjausta varten on oltava säännökset. Näin varmistetaan, että ihmisen harkintakyky säilyy ratkaisevana tekijänä tekoälyyn perustuvissa päätöksissä, mikä estää tekoälyjärjestelmiä toimimasta itsenäisesti tilanteissa, joissa ihmisen puuttuminen on välttämätöntä.
Lisäksi laissa korostetaan luotettavuuden ja tarkkuuden merkitystä. Tekoälyjärjestelmät olisi suunniteltava ja kehitettävä toimimaan luotettavasti ja turvallisesti. Tässä periaatteessa korostetaan, että tekoälyjärjestelmien on oltava luotettavia ja minimoitava virheiden tai vikojen riski erityisesti sovelluksissa, joissa turvallisuus on ensiarvoisen tärkeää.
Lopuksi tiimit pitävät tiedonhallintaa erittäin tärkeänä. Koulutusdatan laatu on ratkaisevan tärkeää tekoälyjärjestelmien suorituskyvyn ja oikeudenmukaisuuden kannalta. Sen vuoksi laissa säädetään, että harjoitusdatan on oltava relevanttia, edustavaa ja puolueetonta. Näin varmistetaan, että tekoälyjärjestelmiä koulutetaan tiedoilla, jotka heijastavat tarkasti todellista maailmaa eivätkä ylläpidä tai vahvista olemassa olevia yhteiskunnallisia ennakkoluuloja.