Vastuullinen tekoäly riskienhallinnan näkökulmasta : Käsittelyssä Euroopan unionin ehdotus tekoälyasetuksesta
Räsänen, Lotta (2023-05-12)
Räsänen, Lotta
12.05.2023
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi-fe2023051143635
https://urn.fi/URN:NBN:fi-fe2023051143635
Tiivistelmä
Tekoälyjärjestelmien kasvava hyödyntäminen yhteiskunnassamme on nostanut esiin paljon keskustelua liittyen erityisesti järjestelmien eettisyyteen, datahallintoon, luottamukseen ja laillisuuteen liittyen. Tekoälyn käyttöönoton ja siinä tunnistettujen riskien myötä myös termi vastuullinen tekoäly on yleistynyt 2020-luvulla. Vastuullisella tekoälyllä voidaan katsoa viitattavan tekoälyn suunnittelun, kehittämisen sekä käytön vastuullisuuteen.
Teknologian nopea kehitystahti asettaa vaatimuksia lainsäädännön kehittämiselle. Euroopan komissio on esittänyt huhtikuussa 2021 osana digitaalista agendaansa ehdotuksen harmonisoidusta säännöistä koskien tekoälyjärjestelmiä eli tekoälyasetuksen. Tekoälyasetus eli AIA on ensimmäisiä tekoälyn oikeudellisia kehysehdotuksia ja se pyrkii näyttämään globaalisti suuntaa ja osoittamaan, että tekoälyn käytön tulisi perustua yhteisiin, EU:n arvoihin. Riskiluokitteluun perustuvalla tekoälyasetuksella pyritään varmistamaan EU:ssa käytettävien tekoälyjärjestelmien turvallisuus, läpinäkyvyys, eettisyys, puolueettomuus sekä ihmisen valvonta. EU:n komission ehdotuksen mukaan sääntely ei tulisi rajoittamaan kaikkea tekoälyksi luokiteltavaa teknologiaa, vaan velvoitteet koskisivat pääasiassa niin sanottuja suuren riskin tekoälyjärjestelmiä. Näiden suuririskisten tekoälyjärjestelmien tulisi täyttää tietyt vaatimukset, jotta niitä voitaisiin kehittää, tarjota tai käyttää EU-alueella. Lisäksi tekoälyn käyttö tiettyihin tarkoituksiin olisi kokonaan kiellettyä.
Tutkielman tavoitteena on pyrkiä luomaan systemaattinen katsaus vastuulliseen tekoälyyn, sen osatekijöihin sekä toteuttamiseen riskienhallinnallisesta näkökulmasta, huomioon ottaen Euroopan unionin ehdotuksen tekoälyasetuksesta vaikutukset vastuullisesta tekoälystä asetettuihin vaatimuksiin. Tutkimuskysymys voidaan jakaa kahteen osaan vastuullisen tekoälyn -käsitteen sisällön ja viitekehyksen selvittämisestä ja vastuullisen tekoälyn toteuttamisesta ehdotetun lainsäädäntökehyksen puitteissa. Tutkimuksessa pyritään systematisoinnin oikeusdogmaattisen lähtökohdan mukaan selvittämään tekoälyn vastuullisuutta koskevien osa- alueiden ja säädösten tulkinnallinen sisältö ja luomaan niistä järjestelmällinen kokonaisuus, johon tulkintakannanotot voidaan perustaa. Tutkimuksen tulkintakannanotot tehdään erityisesti riskienhallinnallisesta näkökulmasta.
Tutkielman tuloksena esitetään, että vastuullisen tekoälyn riskienhallinta voidaan esittää kolmella tasolla: ympäristö-, organisaatio- ja tekoälyjärjestelmätasolla, joiden läpi vastuullisuuden vaatimukset virtaavat osaksi tekoälyjärjestelmiä. Tutkielman perusteella esitetään, että tekoälyjärjestelmien soveltamisen verrattain matala taso ei vähennä tekoälyn vastuullisen tarkastelun merkitystä vaan päinvastoin antaa mahdollisuuden varautua tekoälyjärjestelmien aiheuttamiin riskeihin tulevaisuudessa. Tutkimuksessa esitetään, että yritysten kannattaa jo alkaa varautua niihin toimenpiteisiin, joita tekoälyasetusehdotuksen myötä niiltä edellytetään.
Teknologian nopea kehitystahti asettaa vaatimuksia lainsäädännön kehittämiselle. Euroopan komissio on esittänyt huhtikuussa 2021 osana digitaalista agendaansa ehdotuksen harmonisoidusta säännöistä koskien tekoälyjärjestelmiä eli tekoälyasetuksen. Tekoälyasetus eli AIA on ensimmäisiä tekoälyn oikeudellisia kehysehdotuksia ja se pyrkii näyttämään globaalisti suuntaa ja osoittamaan, että tekoälyn käytön tulisi perustua yhteisiin, EU:n arvoihin. Riskiluokitteluun perustuvalla tekoälyasetuksella pyritään varmistamaan EU:ssa käytettävien tekoälyjärjestelmien turvallisuus, läpinäkyvyys, eettisyys, puolueettomuus sekä ihmisen valvonta. EU:n komission ehdotuksen mukaan sääntely ei tulisi rajoittamaan kaikkea tekoälyksi luokiteltavaa teknologiaa, vaan velvoitteet koskisivat pääasiassa niin sanottuja suuren riskin tekoälyjärjestelmiä. Näiden suuririskisten tekoälyjärjestelmien tulisi täyttää tietyt vaatimukset, jotta niitä voitaisiin kehittää, tarjota tai käyttää EU-alueella. Lisäksi tekoälyn käyttö tiettyihin tarkoituksiin olisi kokonaan kiellettyä.
Tutkielman tavoitteena on pyrkiä luomaan systemaattinen katsaus vastuulliseen tekoälyyn, sen osatekijöihin sekä toteuttamiseen riskienhallinnallisesta näkökulmasta, huomioon ottaen Euroopan unionin ehdotuksen tekoälyasetuksesta vaikutukset vastuullisesta tekoälystä asetettuihin vaatimuksiin. Tutkimuskysymys voidaan jakaa kahteen osaan vastuullisen tekoälyn -käsitteen sisällön ja viitekehyksen selvittämisestä ja vastuullisen tekoälyn toteuttamisesta ehdotetun lainsäädäntökehyksen puitteissa. Tutkimuksessa pyritään systematisoinnin oikeusdogmaattisen lähtökohdan mukaan selvittämään tekoälyn vastuullisuutta koskevien osa- alueiden ja säädösten tulkinnallinen sisältö ja luomaan niistä järjestelmällinen kokonaisuus, johon tulkintakannanotot voidaan perustaa. Tutkimuksen tulkintakannanotot tehdään erityisesti riskienhallinnallisesta näkökulmasta.
Tutkielman tuloksena esitetään, että vastuullisen tekoälyn riskienhallinta voidaan esittää kolmella tasolla: ympäristö-, organisaatio- ja tekoälyjärjestelmätasolla, joiden läpi vastuullisuuden vaatimukset virtaavat osaksi tekoälyjärjestelmiä. Tutkielman perusteella esitetään, että tekoälyjärjestelmien soveltamisen verrattain matala taso ei vähennä tekoälyn vastuullisen tarkastelun merkitystä vaan päinvastoin antaa mahdollisuuden varautua tekoälyjärjestelmien aiheuttamiin riskeihin tulevaisuudessa. Tutkimuksessa esitetään, että yritysten kannattaa jo alkaa varautua niihin toimenpiteisiin, joita tekoälyasetusehdotuksen myötä niiltä edellytetään.