Generatiivista tekoälyä hyödyntävä agentti
Naamanka, Riikka (2024)
Naamanka, Riikka
2024
All rights reserved. This publication is copyrighted. You may download, display and print it for Your own personal use. Commercial use is prohibited.
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2024091825327
https://urn.fi/URN:NBN:fi:amk-2024091825327
Tiivistelmä
Generatiivista tekoälyä hyödyntävien toiminnallisten agenttien väitetään mahdollistavan huomattavia tehokkuusloikkia usealla alalla. Niiden avulla pystytään luomaan aiempaa tehokkaammin työnkulkuja, joilla voidaan automatisoida monia rutiinitehtäviä, joiden tekeminen on ihmiselle yksitoikkoista. Tämän opinnäytetyön tavoitteena oli tehdä katsaus generatiiviseen tekoälyyn sekä kokeilla rakentaa ja testata generatiivista tekoälyä hyödyntävää agenttia. Toiminnallinen osuus tehtiin Amazon Web Servicesin blogista löytyvän tutorialin mukaisesti AWS:n omilla tekoälypalveluilla. Tutorialin mukaisesti toteutettu vakuutuspalveluagentti kykeni käsittelemään sille annettuja pyyntöjä ja hakemaan pyydettyjä tietoja sen käytössä olevasta datasta. Agentti ei suostunut vastaamaan minkään muun aihepiirin kysymyksiin, eli se käytti kontekstinaan pelkästään sille annettua aineistoa.
Yritysmaailmassa näin toimivat tekoälyagentit tulevat olemaan haluttuja. Agentin taustalla oleva kielimalli tulee olla vastuullisen toimija kehittämä ja koulutettu luotettavalla datalla, jotta sen oppima käsitys asioista ei ole vääristynyt tai puolueellinen. Luotettavan “yleissivistyksensä” pohjalta kielimallia hyödyntävä tekoälyagentti saa silti hakea vastaukset sille esitettyihin kysymyksiin pelkästään sille osoitetusta tietoperustasta. Jos tietoa ei löydy, agentti ei saa keksiä sitä eli hallusinoida.
Generatiivinen tekoäly ja sen pohjalta rakennettu tekoälyagentti voi olla varsin hyvä renki, mutta huono isäntä. Suurimmat huolet generatiivisen tekoälyn hyödyntämisessä yritysmaailmassa ovat liittyneet siihen, että sen tuotoksia käytetään ilman kykyä validoida tuotoksen oikeellisuutta, tai että yritysten liikesalaisuudet vuotavat kielimallien kautta kilpailijoiden tietoon. Käyttötapausten määrittely ja toiminnan monitorointi ihmisen toimesta on siis jatkossa entistäkin tärkeämpää. Kaikkein tärkeintä on kuitenkin se, että mahdollisimman moni osaa käyttää tekoälyä oikein ja vastuullisesti niin työssä kuin vapaa-ajallakin. Functional agents utilizing generative AI are claimed to enable significant efficiency leaps in various fields. They allow for the automation of many routine tasks that are monotonous for humans to perform. The objective of this thesis was to review generative AI and experiment with building and testing an agent utilizing generative AI. The hands-on exercise was conducted according to a tutorial found on the Amazon Web Services blog, using AWS's own AI services. The insurance service agent, implemented according to the tutorial, was able to process the requests it was given and retrieve the requested information from the data available to it. The agent refused to answer any questions unrelated to its designated context, meaning it only used the provided data as its reference.
In the business world, agents operating in this way will be highly sought after. The language model behind the agent must be developed by a responsible entity and trained on reliable data so that its understanding of the world is neither distorted nor biased. Based on its trustworthy "general knowledge," the agent utilizing the language model should still only seek answers to the questions posed to it from the designated knowledge base. If the information is not found, the agent must not invent it, i.e., hallucinate.
Generative AI and AI agents built upon it can be excellent servants but poor masters. The biggest concerns regarding the use of generative AI in the business world have been related to the inability to validate the accuracy of its outputs or the risk of corporate trade secrets leaking through language models to competitors. Therefore, defining use cases and monitoring operations will become even more important, but the most crucial aspect is ensuring that as many people as possible know how to use AI correctly and responsibly.
Yritysmaailmassa näin toimivat tekoälyagentit tulevat olemaan haluttuja. Agentin taustalla oleva kielimalli tulee olla vastuullisen toimija kehittämä ja koulutettu luotettavalla datalla, jotta sen oppima käsitys asioista ei ole vääristynyt tai puolueellinen. Luotettavan “yleissivistyksensä” pohjalta kielimallia hyödyntävä tekoälyagentti saa silti hakea vastaukset sille esitettyihin kysymyksiin pelkästään sille osoitetusta tietoperustasta. Jos tietoa ei löydy, agentti ei saa keksiä sitä eli hallusinoida.
Generatiivinen tekoäly ja sen pohjalta rakennettu tekoälyagentti voi olla varsin hyvä renki, mutta huono isäntä. Suurimmat huolet generatiivisen tekoälyn hyödyntämisessä yritysmaailmassa ovat liittyneet siihen, että sen tuotoksia käytetään ilman kykyä validoida tuotoksen oikeellisuutta, tai että yritysten liikesalaisuudet vuotavat kielimallien kautta kilpailijoiden tietoon. Käyttötapausten määrittely ja toiminnan monitorointi ihmisen toimesta on siis jatkossa entistäkin tärkeämpää. Kaikkein tärkeintä on kuitenkin se, että mahdollisimman moni osaa käyttää tekoälyä oikein ja vastuullisesti niin työssä kuin vapaa-ajallakin.
In the business world, agents operating in this way will be highly sought after. The language model behind the agent must be developed by a responsible entity and trained on reliable data so that its understanding of the world is neither distorted nor biased. Based on its trustworthy "general knowledge," the agent utilizing the language model should still only seek answers to the questions posed to it from the designated knowledge base. If the information is not found, the agent must not invent it, i.e., hallucinate.
Generative AI and AI agents built upon it can be excellent servants but poor masters. The biggest concerns regarding the use of generative AI in the business world have been related to the inability to validate the accuracy of its outputs or the risk of corporate trade secrets leaking through language models to competitors. Therefore, defining use cases and monitoring operations will become even more important, but the most crucial aspect is ensuring that as many people as possible know how to use AI correctly and responsibly.