Tekoälyn hallintamallin viitekehys ISO 42001-standardia hyödyntäen
Alanko, Miia (2025)
Alanko, Miia
2025
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2025120131038
https://urn.fi/URN:NBN:fi:amk-2025120131038
Tiivistelmä
Tämä työ vastaa organisaatioiden tarpeeseen luoda tekoälyn hallintamalli, joilla varmistetaan luotettava ja vastuullinen tekoälyn käyttö ja kehitys. Yhdessä työn toimeksiantajan kanssa hallintamallin viitekehyksen pohjaksi on valittu ISO 42001 -standardi. Tarkoituksena on perehtyä kyseiseen standardiin ja arvioida sen soveltuvuutta organisaation hallintamallin pohjana.
Teoreettinen viitekehys muodostuu ISO 42001 -standardin keskeisistä elementeistä sekä EU:n tekoälyasetuksesta, joka asettaa vaatimuksensa tekoälyn käytölle ja kehitykselle. Keskeisiä käsitteitä työssä ovat tekoälyn hallintamalli, tekoälyasetus ja ISO-standardit yleisesti. Hallintamallin kehittäminen lähtee liikkeelle tunnistamalla tahot, joilla voi olla vaatimuksia hallintamallille. Tässä työssä valitut tahot ovat ISO 42001 ja 42005-standardit, EU:n tekoälyasetus sekä organisaation sisäiset tahot, kuten strategia. Tutkimus toteutettiin dokumenttianalyysinä, jonka avulla määritettiin edellä mainittujen tahojen asettamat vaatimukset.
Vaatimukset koottiin viitekehykseksi, jota voi käyttää apuna tekoälyn hallintamallin kehityksessä. Tutkimuksen lopputuloksena todettiin, että ISO 42001-standardi toimii hyvänä viitekehyksenä tekoälyn hallintamallin kehitykselle, mutta hallintajärjestelmän sertifioinnilla ei saavuteta lisäarvoa. This thesis addresses the organizational need to establish an AI governance model that ensures the trustworthy and responsible use and development of artificial intelligence. In collaboration with the commissioning organization, the ISO 42001 standard was selected as the foundation for the governance framework. The objective of the study is to examine this standard and evaluate its applicability as a basis for an organizational governance model.
The theoretical framework is grounded in the core elements of ISO 42001 and the EU Artificial Intelligence Act, which imposes requirements on AI use and development. Key concepts include AI governance model, AI Act, and ISO standards. The development process begins by identifying stakeholders that may impose requirements on the governance model. In this study, these stakeholders comprise ISO 42001 and ISO 42005 standards, the EU AI Act, and internal organizational entities such as corporate strategy. The research was conducted as a document analysis to determine the requirements set by these stakeholders.
The identified requirements were consolidated into a framework that can support the development of an AI governance model. The findings indicate that ISO 42001 provides a robust foundation for governance model development; however, certification of the management system does not deliver additional value.
Teoreettinen viitekehys muodostuu ISO 42001 -standardin keskeisistä elementeistä sekä EU:n tekoälyasetuksesta, joka asettaa vaatimuksensa tekoälyn käytölle ja kehitykselle. Keskeisiä käsitteitä työssä ovat tekoälyn hallintamalli, tekoälyasetus ja ISO-standardit yleisesti. Hallintamallin kehittäminen lähtee liikkeelle tunnistamalla tahot, joilla voi olla vaatimuksia hallintamallille. Tässä työssä valitut tahot ovat ISO 42001 ja 42005-standardit, EU:n tekoälyasetus sekä organisaation sisäiset tahot, kuten strategia. Tutkimus toteutettiin dokumenttianalyysinä, jonka avulla määritettiin edellä mainittujen tahojen asettamat vaatimukset.
Vaatimukset koottiin viitekehykseksi, jota voi käyttää apuna tekoälyn hallintamallin kehityksessä. Tutkimuksen lopputuloksena todettiin, että ISO 42001-standardi toimii hyvänä viitekehyksenä tekoälyn hallintamallin kehitykselle, mutta hallintajärjestelmän sertifioinnilla ei saavuteta lisäarvoa.
The theoretical framework is grounded in the core elements of ISO 42001 and the EU Artificial Intelligence Act, which imposes requirements on AI use and development. Key concepts include AI governance model, AI Act, and ISO standards. The development process begins by identifying stakeholders that may impose requirements on the governance model. In this study, these stakeholders comprise ISO 42001 and ISO 42005 standards, the EU AI Act, and internal organizational entities such as corporate strategy. The research was conducted as a document analysis to determine the requirements set by these stakeholders.
The identified requirements were consolidated into a framework that can support the development of an AI governance model. The findings indicate that ISO 42001 provides a robust foundation for governance model development; however, certification of the management system does not deliver additional value.
