Kohti vastuullista tekoälyä : lainsäädäntö, riskienhallinta ja tulevaisuuden suuntaviivat
Paakki, Jarno (2025)
Paakki, Jarno
2025
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2025061523036
https://urn.fi/URN:NBN:fi:amk-2025061523036
Tiivistelmä
Tämän opinnäytetyön tavoitteena on kartoittaa tekoälyn (AI) kehitystä ja käyttöä sekä tunnistaa, millä tavoin sen ohjaus ja sääntely toteutuvat eri alueilla. Työssä tarkastellaan erityisesti Euroopan unionin, Suomen ja muiden kansainvälisten toimijoiden tekoälystrategioita sekä lainsäädännöllisiä toimenpiteitä. Tekoälyn roolin vahvistuminen yhteiskunnassa ja liiketoiminnassa edellyttää ajantasaisia sääntely- ja riskienhallintakeinoja, jotta voidaan turvata sekä ihmisten perusoikeudet ja yksityisyys että innovaatiomyönteinen toimintaympäristö.
Työ pohjautuu laajaan kirjallisuuskatsaukseen, jossa hyödynnettiin muun muassa lainsäädäntö- ja strategiadokumentteja (esim. EU:n AI Act, Suomen tekoälystrategia) sekä tutkimusartikkeleita. Materiaali analysoitiin vertailevan ja temaattisen lähestymistavan avulla, jotta keskeiset haasteet, eettiset kysymykset ja ohjausmekanismit tulisivat esiin. Tavoitteena oli ymmärtää tekoälyn vastuullisen käytön edellytyksiä ja tunnistaa toimenpiteitä, joilla sen mahdollisuuksia voidaan hyödyntää oikeudenmukaisesti ja läpinäkyvästi.
Tuloksissa korostuu tarve kehittää selkeitä pelisääntöjä, jotka ottavat huomioon sekä alan nopean kehityksen että yhteiskunnalliset riskit. Erityisesti korkeaa riskiä sisältävien sovellusten (esim. terveysdata, massavalvonta) kohdalla on tärkeää turvata yksilön oikeudet. Suositukset painottavat kansainvälistä yhteistyötä, eettisiä ohjeistuksia sekä jatkuvaa koulutusta ja valvontaa. Näin voidaan luoda tasapainoinen sääntely-ympäristö, jossa tekoälyä hyödynnetään innovaation vauhditt
Työ pohjautuu laajaan kirjallisuuskatsaukseen, jossa hyödynnettiin muun muassa lainsäädäntö- ja strategiadokumentteja (esim. EU:n AI Act, Suomen tekoälystrategia) sekä tutkimusartikkeleita. Materiaali analysoitiin vertailevan ja temaattisen lähestymistavan avulla, jotta keskeiset haasteet, eettiset kysymykset ja ohjausmekanismit tulisivat esiin. Tavoitteena oli ymmärtää tekoälyn vastuullisen käytön edellytyksiä ja tunnistaa toimenpiteitä, joilla sen mahdollisuuksia voidaan hyödyntää oikeudenmukaisesti ja läpinäkyvästi.
Tuloksissa korostuu tarve kehittää selkeitä pelisääntöjä, jotka ottavat huomioon sekä alan nopean kehityksen että yhteiskunnalliset riskit. Erityisesti korkeaa riskiä sisältävien sovellusten (esim. terveysdata, massavalvonta) kohdalla on tärkeää turvata yksilön oikeudet. Suositukset painottavat kansainvälistä yhteistyötä, eettisiä ohjeistuksia sekä jatkuvaa koulutusta ja valvontaa. Näin voidaan luoda tasapainoinen sääntely-ympäristö, jossa tekoälyä hyödynnetään innovaation vauhditt