Hyppää sisältöön
    • Suomeksi
    • På svenska
    • In English
  • Suomi
  • Svenska
  • English
  • Kirjaudu
Hakuohjeet
JavaScript is disabled for your browser. Some features of this site may not work without it.
Näytä viite 
  •   Ammattikorkeakoulut
  • Hämeen ammattikorkeakoulu
  • Opinnäytetyöt
  • Näytä viite
  •   Ammattikorkeakoulut
  • Hämeen ammattikorkeakoulu
  • Opinnäytetyöt
  • Näytä viite

Tekoälyn eettiset haasteet päätöksenteon automatisoinnissa

Puumalainen, Santeri (2026)

 
Avaa tiedosto
Puumalainen_Santeri.pdf (694.0Kt)
Lataukset: 


Puumalainen, Santeri
2026
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-202601131264
Tiivistelmä
Tämän opinnäytetyön tavoitteena oli tutkia tekoälyn eettisiä haasteita päätöksenteon automatisoinnissa sekä selvittää, millaisia riskejä ja hyötyjä tekoälyn käyttöön automatisoidussa päätöksenteossa liittyy suomalaisissa ja kansainvälisissä organisaatioissa. Tutkimuksen tarkoituksena oli myös tarkastella, miten tekoälypohjaisia järjestelmiä voidaan kehittää eettisesti kestävämmiksi sekä millaisia käytännön ohjeistuksia organisaatiot hyödyntävät tekoälyn vastuullisessa soveltamisessa. Työelämäyhteys muodostui siitä näkökulmasta, että tekoälyn eettinen kehittäminen ja päätöksenteon automatisointi ovat ajankohtaisia käytännössä kaikilla aloilla, erityisesti data-analytiikan ja ohjelmistokehityksen parissa.

Opinnäytetyö käsittelee tekoälyn ja koneoppimisen peruskäsitteitä, päätöksenteon automatisoinnin hyödyntämistä eri toimialoilla sekä keskeisiä eettisiä haasteita, kuten vinoumaa, läpinäkyvyyttä, vastuukysymyksiä ja yksityisyyden suojaa. Teoreettinen viitekehys muodostui kansainvälisistä
tutkimuksista, standardeista ja ohjeistuksista, kuten OECD:n ja EU:n AI Act -lainsäädännön linjauksista sekä useista merkittävistä esimerkkitapauksista (Amazonin rekrytointialgoritmi, COMPASriskinarviointimalli ja Clearview AI). Tutkimus toteutettiin laadullisena tutkimuksena ja tutkimusaineisto
kerättiin teemahaastatteluilla eri tekoälyyn liittyvissä rooleissa työskenteleviltä. Aineisto analysoitiin teoriaohjaavaa sisällönanalyysia käyttäen.

Tutkimustulokset osoittivat, että tekoälyn eettinen käyttö päätöksenteon automatisoinnissa on edelleen haastavaa, ja keskeisimmät haasteet liittyivät läpinäkyvyyden puutteeseen, datan laatuun ja puolueellisuuteen sekä vastuun jakautumisen epäselvyyteen. Haastateltavat korostivat ihmisten tärkeyttä riskien hallinnassa sekä toivat esiin tarpeen selkeämmille eettisille ohjeistuksille, paremmille selitettävyystyökaluille ja henkilöstön koulutukselle. Johtopäätöksenä voidaan todeta, että eettinen tekoäly vaatii jatkuvaa arviointia ja moniammatillista yhteistyötä, ja tulevaisuudessa organisaatioiden on panostettava läpinäkyvyyteen ja eettisiin arviointiprosesseihin ennen automaation laajempaa käyttöönottoa. Tulosten perusteella suositellaan, että organisaatiot vahvistavat tekoälyn eettisiä käytäntöjä, hyödyntävät selitettävyystekniikoita ja ottavat käyttöön strukturoituja eettisiä arviointimalleja.
Kokoelmat
  • Opinnäytetyöt
Ammattikorkeakoulujen opinnäytetyöt ja julkaisut
Yhteydenotto | Tietoa käyttöoikeuksista | Tietosuojailmoitus | Saavutettavuusseloste
 

Selaa kokoelmaa

NimekkeetTekijätJulkaisuajatKoulutusalatAsiasanatUusimmatKokoelmat

Henkilökunnalle

Ammattikorkeakoulujen opinnäytetyöt ja julkaisut
Yhteydenotto | Tietoa käyttöoikeuksista | Tietosuojailmoitus | Saavutettavuusseloste