Hyppää sisältöön
    • Suomeksi
    • På svenska
    • In English
  • Suomi
  • Svenska
  • English
  • Kirjaudu
Hakuohjeet
JavaScript is disabled for your browser. Some features of this site may not work without it.
Näytä viite 
  •   Ammattikorkeakoulut
  • Kajaanin ammattikorkeakoulu
  • Opinnäytetyöt (Avoin kokoelma)
  • Näytä viite
  •   Ammattikorkeakoulut
  • Kajaanin ammattikorkeakoulu
  • Opinnäytetyöt (Avoin kokoelma)
  • Näytä viite

Selitettävän tekoälyn menetelmät ja niiden soveltaminen koneoppimismalleissa

Hyvönen, Riku (2025)

 
Avaa tiedosto
Hyvonen_Riku.pdf (735.0Kt)
Lataukset: 


Hyvönen, Riku
2025
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2025092625239
Tiivistelmä
Selitettävä tekoäly (Explainable Artificial Intelligence, XAI) on nopeasti kasvava tutkimusalue, jonka tavoitteena on parantaa monimutkaisten koneoppimismallien läpinäkyvyyttä ja tulkittavuutta. Tekoäly-järjestelmien kehittyessä entistä monimutkaisemmiksi niiden päätöksentekoprosessit muuttuvat vaikeasti ymmärrettäviksi, usein niin sanotuiksi “mustiksi laatikoiksi”, mikä heikentää luottamusta ja estää laajempaa soveltamista erityisesti kriittisillä aloilla. Tässä työssä verrattiin kolmea edistyksellistä XAI-menetelmää: LIME, SHAP ja ELI5, ja havainnollistettiin niiden käyttöä erilaisten koneoppimismallien tulkinnassa useilla eri aineistoilla.

Tässä opinnäytetyössä käsiteltiin muun muassa konvoluutioneuroverkkoja kukkakuvien luokittelussa, satunnaismetsämalleja iris-aineistolla sekä XGBoost-regressiomallia Kalifornian asuntodatan ennustamisessa. Mallien koulutuksen, testauksen ja tulkinnan avulla havainnollistettiin, miten selitysmenetelmät paljastavat ennusteisiin vaikuttavia keskeisiä piirteitä, paljastavat mallin heikkouksia ja tunnistavat mahdollisia häiritseviä tai vinoja tekijöitä datassa.

Lisäksi työssä käsiteltiin selitettävyyden eettisiä ja lainsäädännöllisiä ulottuvuuksia, erityisesti korkean riskin sovellusalueilla, kuten terveydenhuollossa ja finanssissa. Tekoälyä koskevat säädökset, kuten EU:n yleinen tietosuoja-asetus (GDPR) ja tekoälyasetus (AI Act), korostavat läpinäkyvyyden ja vastuullisuuden merkitystä. Tarkastelussa nousevat esiin myös haasteet, kuten harhaanjohtavat selitykset ja XAI-työkalujen rooli oikeudenmukaisuuden ja tilivelvollisuuden varmistamisessa.

Empiiriset tulokset osoittavat mallikohtaisia eroja ennustustarkkuudessa: syväoppimismallit kohtaavat haasteita yleistämisessä, kun taas perinteiset yhdistelmämenetelmät toimivat luotettavasti. Selitys-työkalut täydentävät numeerisia suorituskykymittareita tarjoamalla syvempää ymmärrystä mallin päätöksenteosta, mikä on ratkaisevaa luotettavien tekoälyjärjestelmien rakentamisessa. Tämä vertailu antaa käytännön ohjeita sopivien selitysmenetelmien valintaan ja käyttöön erilaisissa koneoppimisskenaarioissa ja korostaa niiden merkitystä vastuullisen tekoälyn kehittämisessä ja soveltamisessa.
Kokoelmat
  • Opinnäytetyöt (Avoin kokoelma)
Ammattikorkeakoulujen opinnäytetyöt ja julkaisut
Yhteydenotto | Tietoa käyttöoikeuksista | Tietosuojailmoitus | Saavutettavuusseloste
 

Selaa kokoelmaa

NimekkeetTekijätJulkaisuajatKoulutusalatAsiasanatUusimmatKokoelmat

Henkilökunnalle

Ammattikorkeakoulujen opinnäytetyöt ja julkaisut
Yhteydenotto | Tietoa käyttöoikeuksista | Tietosuojailmoitus | Saavutettavuusseloste