Ohjelmistotestaus ja tekoälyjärjestelmien testauksen erityispiirteet
Juvonen, Ilona (2025)
Juvonen, Ilona
2025
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2025060219104
https://urn.fi/URN:NBN:fi:amk-2025060219104
Tiivistelmä
Tässä insinöörityössä tarkasteltiin ohjelmistotestauksen perusperiaatteita ja haasteita erityisesti tekoälyjärjestelmien näkökulmasta. Keskeisiksi haasteiksi ja perinteisten- sekä tekoälyjärjestelmien testauksen eroavaisuuksiksi havaittiin mallien epädeterministinen käyttäytyminen, datan laatuun ja edustavuuteen liittyvät ongelmat sekä päätöksenteossa esiintyvät vinoumat, jotka vaikuttavat myös järjestelmän eettisyyteen ja turvallisuuteen.
Ratkaisuina näihin ongelmiin esiteltiin datakeskeinen testaus, toleranssipohjaiset arviointikriteerit, metamorfinen testaus sekä mallin yleistettävyyttä arvioiva ristiinvalidointi. Lisäksi vinoumien tunnistamiseksi ja eettisyyden arvioimiseksi esiteltiin tilastollisia analyysejä sekä selittäviä algoritmeja. Työssä korostettiin, että tekoälyjärjestelmien testaus ei pääty järjestelmän käyttöönottoon, vaan se vaatii jatkuvaa ylläpitoa ja seurantaa esimerkiksi mallin ajautumisen vuoksi.
Alalta puuttuu vielä yhtenäinen testausmenetelmien standardointi, mikä vaikeuttaa laadun vertailua ja arviointia. EU:n tekoälyasetus (AI Act) luo sääntelykehikon tekoälyn käytölle erityisesti korkean riskin sovelluksissa ja vahvistaa tarvetta osoittaa tekoälyjärjestelmien turvallisuus, läpinäkyvyys ja oikeudenmukaisuus myös testauksen avulla. Tulevaisuudessa tekoälyn testauskäytäntöjen yhtenäistämiseen tarvitaan lisää tutkimusta sekä alan yhteistyötä.
Ratkaisuina näihin ongelmiin esiteltiin datakeskeinen testaus, toleranssipohjaiset arviointikriteerit, metamorfinen testaus sekä mallin yleistettävyyttä arvioiva ristiinvalidointi. Lisäksi vinoumien tunnistamiseksi ja eettisyyden arvioimiseksi esiteltiin tilastollisia analyysejä sekä selittäviä algoritmeja. Työssä korostettiin, että tekoälyjärjestelmien testaus ei pääty järjestelmän käyttöönottoon, vaan se vaatii jatkuvaa ylläpitoa ja seurantaa esimerkiksi mallin ajautumisen vuoksi.
Alalta puuttuu vielä yhtenäinen testausmenetelmien standardointi, mikä vaikeuttaa laadun vertailua ja arviointia. EU:n tekoälyasetus (AI Act) luo sääntelykehikon tekoälyn käytölle erityisesti korkean riskin sovelluksissa ja vahvistaa tarvetta osoittaa tekoälyjärjestelmien turvallisuus, läpinäkyvyys ja oikeudenmukaisuus myös testauksen avulla. Tulevaisuudessa tekoälyn testauskäytäntöjen yhtenäistämiseen tarvitaan lisää tutkimusta sekä alan yhteistyötä.