Ansvarlig bruk av KI: En kvalitativ studie av implementering og retningslinjer
Abstract
Kunstig intelligens (KI) har utviklet seg mye de siste årene, hvor spesielt generativ KI har endret flere arbeidspraksiser og bransjer. Et økende antall forskningsartikler peker mot at KI kan skape merverdi både internt i et selskap og eksternt ut mot kunder. Samtidig er det lite forskning på hvordan man implementerer KI i virksomheten, og samtidig sikrer ansvarlig bruk av den nye teknologien. Denne masteroppgaven bidrar derfor til å dekke et forskningsgap, hvor vi utforsker prosessen med å integrere retningslinjer og bruk av KI i to norske bedrifter. Dette er en kvalitativ studie, med en induktiv forskningstilnærming og et utforskende design. Vi har intervjuet tolv informanter om deres erfaringer og opplevelser rundt implementeringsprosessen av KI i sine selskaper.
Basert på våre funn har selskapene gode argumenter for å implementere KI. Samtidig dukker det opp tre dilemmaer i implementeringsprosessen av KI. Det første er mulighetene for raske gevinster KI-teknologi kan gi, men hvor dette også medfører risiko for datasikkerheten til selskapene. Begge selskapene valgte en løsning hvor de utviklet interne KI-verktøy, som sikret ansvarlig bruk av verktøyene. Det andre dilemmaet gjelder spørsmål om det egentlig er behov for egne retningslinjer for bruk av KI, da det allerede dekkes av eksisterende rammeverk for datasikkerhet og personvern hos selskapene. Dette er tett knyttet til det siste dilemmaet som dreier seg om forventinger fra samfunnet opp mot de behovene som de ansatte har. Eksternt press gjør at selskaper utvikler overordnete retningslinjer for KI, mens mangel på digital modenhet blant de ansatte stiller større krav til mer konkrete retningslinjer for KI. Våre funn tyder på at selskapene har lagt for stor vekt på teoretisk opplæring knyttet til retningslinjer og ansvarlig bruk av KI-verktøy. Dette har ført til at ansatte i begge selskaper etterspør en mer praktisk tilnærming til bruk av KI, og bedre dialog mellom ansatte og ledelse for å møte mangel på modenhet.
Formålet med denne masterstudien er å gi en dypere forståelse av hvordan KI kan integreres i organisasjoner. Det er viktig at virksomheter som ønsker å ta i bruk KI, er klar over risikoen for datasikkerheten dette medfører. Det må derfor utarbeides gode og tydelige retningslinjer, for å sikre at organisasjonen følger de offentlige kravene for KI. I tillegg bør det foreligge en strategi for praktisk opplæring og dialog, slik at man ivaretar de ansatte i implementeringsprosessen og sikrer ansvarlig bruk av KI. Artificial intelligence (AI) has evolved significantly in recent years, with generative AI in particular transforming various work practices and industries. An increasing number of research articles suggest that AI can create added value both internally within companies and externally for customers. At the same time, there is little research on how to implement AI in businesses while ensuring the responsible use of this new technology. This master’s thesis aims to address this research gap by exploring the process of integrating AI guidelines and usage in two Norwegian companies. This is a qualitative study with an inductive research approach and an exploratory design. We conducted interviews with twelve participants about their experiences and perceptions of the AI implementation process in their companies.
Based on our findings, the companies have strong arguments for implementing AI. However, three dilemmas emerge during the AI implementation process. The first is the potential for rapid gains offered by AI technology, which also brings risks to the companies' data security. Both companies chose to develop internal AI tools to ensure the responsible use of the technology. The second dilemma concerns whether there is a need for specific guidelines for AI usage, as existing frameworks for data security and privacy already address this to some extent. This is closely tied to the third dilemma, which revolves around societal expectations versus the needs of employees. External pressures lead companies to develop overarching AI guidelines, while a lack of digital maturity among employees necessitates more specific AI guidelines. Our findings indicate that the companies placed too much emphasis on theoretical training related to AI guidelines and responsible use of AI tools. This has resulted in employees in both companies requesting a more practical approach to using AI and better dialogue between employees and management to address the lack of maturity.
The purpose of this master’s study is to provide a deeper understanding of how AI can be integrated into organizations. It is crucial for businesses looking to adopt AI to be aware of the data security risks it entails. Therefore, well-crafted and clear guidelines must be established to ensure the organization complies with public AI regulations. Additionally, there should be a strategy for practical training and dialogue to support employees during the implementation process and ensure the responsible use of AI.