Explainable AI-XAI in Cyber Security
Alija, Nori (2024)
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2024101726507
https://urn.fi/URN:NBN:fi:amk-2024101726507
Tiivistelmä
Opinnäytetyön tarkoituksena oli tutkia selitettävän tekoälyn (XAI) hyötyjä tekoälyn (AI) toimintojen ymmärtämiseksi. Tavoitteena oli tutustua XAI:n tarjoamiin mahdollisuuksiin ja sen eri menetelmiin, joiden avulla pyritään lisäämään luottamusta tekoälyyn. Tapaustutkimus rakentui pienikokoisen julkisen tietoaineiston ympärille liittyen kyberturvallisuuteen. Tämä aihe valittiin, koska opinnäytetyön tekijä oli kiinnostunut tekoälystä ja kyberturvallisuudesta. Lisäksi sillä, että tekoäly kehittyy nopeasti, oli iso vaikutus aiheen valintaan.
Teoreettinen viitekehys koostuu tekoälyn ja selitettävän tekoälyn esittämisestä yleisellä tasolla, sekä niihin liittyvien menetelmien esittämisestä mukaan lukien mahdolliset haasteet, joita niiden käytössä voi ilmetä. Erityisesti tässä opinnäytetyössä keskityttiin selvittämään, miten LIME, XAI-viitekehyksenä palvelee tämän opinnäytetyön tarpeita. Lisäksi teoreettisessa osuudessa selitetään ihmiskeskeisten palveluiden kehittämisen merkitystä sekä opinnäytetyön käytännön toteutuksessa käytettäviä menetelmiä Työssä esitellään lyhyesti myös kyberturvallisuutta. Lisäksi opinnäytetyön käytännön osassa käytettyjä teknologioita on kuvattu lyhyesti. Opinnäytetyön tyyppi on toiminnallinen ja menetelminä käytettiin Kanban Frameworkia ja tapaustutkimusta.
Koska opinnäytetyön tavoitteena oli selvittää, miten selitettävä tekoäly voidaan ottaa käyttöön, oli mielenkiintoista havaita, että prosessi itsessään ei ole vielä niin suoraviivainen ja ihmiskeskeinen kuin voisi olettaa. Toteutetussa tapaustutkimuksessa käytettiin pienikokoista julkista tietoaineistoa ja sen pienestä koosta riippumatta, tapaustutkimuksen tulokset eivät olleet niin yksinkertaisia tai helposti ymmärrettävissä.
Kaiken kaikkiaan tämän opinnäytetyön johtopäätöksenä voidaan todeta, että vaikka tässä opinnäytetyössä käytetty LIME auttaa lisäämään mallin selitettävyyttä, käytettävyyttä, työkaluja ja tekniikoita, se vaatii silti parannuksia käytettävyyteen ja ihmiskeskeiseen puoleen. Voidaan varmasti todeta, että tämä on tulevaisuuden trendi ja se kehittyy käsi kädessä tekoälyn kanssa. The purpose of this thesis was to find out how Explainable Artificial Intelligence would potentially help understanding better what is happening behind the scenes in cases where Artificial Intelligence is used. The idea was to get familiar with methods on getting the information out of so-called “black box” and aiming on increasing the trust towards AI. The case study was built around the small-sized thread detection where a simple Decision Tree Model is trained for threat detection. The utilized dataset, while publicly accessible, does not fully represent real-world scenarios. This topic was chosen because of the practical interest in Artificial Intelligence and the Cyber Security field. Additionally, the fact that AI is trending and evolving rapidly had a significant impact on the choice of topic.
The theoretical framework consists of explaining AI and XAI in general, explaining the frameworks around XAI including the possible challenges that might occur when using it. In particular, the focus in this thesis was finding out on how LIME being an XAI framework, serves the needs of this thesis. In addition, the theoretical part consists of explaining the importance of developing human-centric services and the methods used during the practical implementation. The Cyber Security field was briefly presented as well aside with the description of technologies used in practical part of the thesis. The thesis is practical and methods used are Kanban Framework and Case Study.
As the goal of the thesis was to find out how XAI can be implemented, it was interesting to discover that the process itself is not yet as straightforward and human-centric as it would be expected. In the case study implemented, a small-sized public data set was used and while conducting the case study, regardless of its small size, as a process it was not so simple to understand the results achieved.
Overall, as the conclusion of this thesis, it can be stated that while LIME helps to increase model explainability, usability, tools, and techniques, it still requires improvements in its usability and human-centric part. It can definitely be stated that this is a trending future and it evolves hand in hand with Artificial Intelligence.
Teoreettinen viitekehys koostuu tekoälyn ja selitettävän tekoälyn esittämisestä yleisellä tasolla, sekä niihin liittyvien menetelmien esittämisestä mukaan lukien mahdolliset haasteet, joita niiden käytössä voi ilmetä. Erityisesti tässä opinnäytetyössä keskityttiin selvittämään, miten LIME, XAI-viitekehyksenä palvelee tämän opinnäytetyön tarpeita. Lisäksi teoreettisessa osuudessa selitetään ihmiskeskeisten palveluiden kehittämisen merkitystä sekä opinnäytetyön käytännön toteutuksessa käytettäviä menetelmiä Työssä esitellään lyhyesti myös kyberturvallisuutta. Lisäksi opinnäytetyön käytännön osassa käytettyjä teknologioita on kuvattu lyhyesti. Opinnäytetyön tyyppi on toiminnallinen ja menetelminä käytettiin Kanban Frameworkia ja tapaustutkimusta.
Koska opinnäytetyön tavoitteena oli selvittää, miten selitettävä tekoäly voidaan ottaa käyttöön, oli mielenkiintoista havaita, että prosessi itsessään ei ole vielä niin suoraviivainen ja ihmiskeskeinen kuin voisi olettaa. Toteutetussa tapaustutkimuksessa käytettiin pienikokoista julkista tietoaineistoa ja sen pienestä koosta riippumatta, tapaustutkimuksen tulokset eivät olleet niin yksinkertaisia tai helposti ymmärrettävissä.
Kaiken kaikkiaan tämän opinnäytetyön johtopäätöksenä voidaan todeta, että vaikka tässä opinnäytetyössä käytetty LIME auttaa lisäämään mallin selitettävyyttä, käytettävyyttä, työkaluja ja tekniikoita, se vaatii silti parannuksia käytettävyyteen ja ihmiskeskeiseen puoleen. Voidaan varmasti todeta, että tämä on tulevaisuuden trendi ja se kehittyy käsi kädessä tekoälyn kanssa.
The theoretical framework consists of explaining AI and XAI in general, explaining the frameworks around XAI including the possible challenges that might occur when using it. In particular, the focus in this thesis was finding out on how LIME being an XAI framework, serves the needs of this thesis. In addition, the theoretical part consists of explaining the importance of developing human-centric services and the methods used during the practical implementation. The Cyber Security field was briefly presented as well aside with the description of technologies used in practical part of the thesis. The thesis is practical and methods used are Kanban Framework and Case Study.
As the goal of the thesis was to find out how XAI can be implemented, it was interesting to discover that the process itself is not yet as straightforward and human-centric as it would be expected. In the case study implemented, a small-sized public data set was used and while conducting the case study, regardless of its small size, as a process it was not so simple to understand the results achieved.
Overall, as the conclusion of this thesis, it can be stated that while LIME helps to increase model explainability, usability, tools, and techniques, it still requires improvements in its usability and human-centric part. It can definitely be stated that this is a trending future and it evolves hand in hand with Artificial Intelligence.