Luottamus, kriittisyys ja vastuu tekoälyn käytössä työelämässä
Valonen, Vesa (2025)
Valonen, Vesa
2025
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2025121837923
https://urn.fi/URN:NBN:fi:amk-2025121837923
Tiivistelmä
Työn tarkoituksena oli selvittää, miten millaiset kognitiiviset mekanismit ohjaavat organisaation työntekijöiden vuorovaikutusta tekoälytyökalujen kanssa. Tavoitteenani oli tuottaa käyttäytymistaloustieteeseen perustuvia suosituksia ja toimintamalleja, jotka tukevat tekoälyn vastuullista käyttöä.
Kehittämistehtävänä kartoitin työntekijöiden kokemuksia omasta kriittisyydestään ja vastuustaan, tunnistin tekoälyn käyttöön liittyviä päätöksenteon vinoumia ja sosiaalisia ilmiöitä sekä selvitin koettuja riskejä ja mahdollisuuksia. Lisäksi kehitin toimeksiantajalle käytäntöjä ja tuuppauksia (nudges), jotka kalibroivat luottamusta tekoälyyn.
Työn tietoperusta rakentuu käyttäytymistaloustieteen ja organisaatiopsykologian näkökulmista. Keskeisen viitekehyksen muodostavat luottamus teknologiaan, automaatioharha sekä Daniel Kahnemanin kaksoisjärjestelmäteoria (nopea ja hidas ajattelu). Lisäksi tarkastelen kognitiivisia vinoumia, kuten yliluottamusta ja vahvistusharhaa, sekä sosiaalisten normien ja tuuppausteorian merkitystä päätöksenteon ohjaamisessa.
Tulokset osoittavat, että vastaajien itsearvioitu kriittisyys tekoälyä kohtaan on korkea ja tietojen tarkistaminen ulkopuolisista lähteistä on yleistä. Luottamus tekoälyyn on vahvasti kontekstisidonnaista: ideointiin luotetaan eniten, kun taas sensitiivisten tietojen käsittelyyn vähiten. Merkittävimpinä riskeinä pidettiin tekoälyn hallusinaatioita ja oman kriittisen ajattelun heikkenemistä.
Johtopäätöksenä totean, että vaikka automaatioharha ei vielä hallitse toimintaa, sen riskit kasvavat kognitiivisen kuormituksen ja kiireen lisääntyessä. Kehittämisehdotuksina esitän tehtävätyyppikohtaista ohjeistusmatriisia, jaetun vastuun mallin selkeyttämistä sekä “hallusinaatiopankin” luomista virheistä oppimisen tueksi. Lisäksi suosittelen teknologisia tuuppauksia, kuten tarkistusmuistutuksia, sekä metakognitiivisten taitojen systemaattista vahvistamista koulutuksen avulla.
Kehittämistehtävänä kartoitin työntekijöiden kokemuksia omasta kriittisyydestään ja vastuustaan, tunnistin tekoälyn käyttöön liittyviä päätöksenteon vinoumia ja sosiaalisia ilmiöitä sekä selvitin koettuja riskejä ja mahdollisuuksia. Lisäksi kehitin toimeksiantajalle käytäntöjä ja tuuppauksia (nudges), jotka kalibroivat luottamusta tekoälyyn.
Työn tietoperusta rakentuu käyttäytymistaloustieteen ja organisaatiopsykologian näkökulmista. Keskeisen viitekehyksen muodostavat luottamus teknologiaan, automaatioharha sekä Daniel Kahnemanin kaksoisjärjestelmäteoria (nopea ja hidas ajattelu). Lisäksi tarkastelen kognitiivisia vinoumia, kuten yliluottamusta ja vahvistusharhaa, sekä sosiaalisten normien ja tuuppausteorian merkitystä päätöksenteon ohjaamisessa.
Tulokset osoittavat, että vastaajien itsearvioitu kriittisyys tekoälyä kohtaan on korkea ja tietojen tarkistaminen ulkopuolisista lähteistä on yleistä. Luottamus tekoälyyn on vahvasti kontekstisidonnaista: ideointiin luotetaan eniten, kun taas sensitiivisten tietojen käsittelyyn vähiten. Merkittävimpinä riskeinä pidettiin tekoälyn hallusinaatioita ja oman kriittisen ajattelun heikkenemistä.
Johtopäätöksenä totean, että vaikka automaatioharha ei vielä hallitse toimintaa, sen riskit kasvavat kognitiivisen kuormituksen ja kiireen lisääntyessä. Kehittämisehdotuksina esitän tehtävätyyppikohtaista ohjeistusmatriisia, jaetun vastuun mallin selkeyttämistä sekä “hallusinaatiopankin” luomista virheistä oppimisen tueksi. Lisäksi suosittelen teknologisia tuuppauksia, kuten tarkistusmuistutuksia, sekä metakognitiivisten taitojen systemaattista vahvistamista koulutuksen avulla.