Ethical Use of Generative AI in a Business Management Consulting and Research Case
Isomäki, Valtteri (2024-04-10)
Ethical Use of Generative AI in a Business Management Consulting and Research Case
Isomäki, Valtteri
(10.04.2024)
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
avoin
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2024042923223
https://urn.fi/URN:NBN:fi-fe2024042923223
Tiivistelmä
Generative artificial intelligence (GAI) poses new capabilities and ethical challenges, not least in the fields of management consulting and research. This thesis aims to explore the ethical use of GAI in this context. The topic is examined by addressing two research questions: 1) What ethical challenges and risks does the use of generative AI pose in a business management consulting and research business organization? 2) How can these risks and challenges be mitigated at the organizational level?
The AI ethics literature initially addressed guidelines or principles for ethical AI and has since moved on to implementing them in practice. However, generative AI is not yet fully considered in these contexts. This thesis considers the principles as descriptions of what is (un)ethical AI and algorithmic accountability as a framework for management of ethical risks. Algorithmic accountability describes the stakeholders of an AI system and how they express accountability for it. As an element of algorithmic accountability, organizational accountability applies to the operator or developer of an AI system, including measures like AI ethics principles, AI governance measures and other implementation mechanisms for ethical conduct.
As a qualitative case study with an interpretive stance and explorative approach, five interviews were conducted with the case organization’s employees. This research shed light on the ethical considerations that practitioners face when using Generative AI. The thematic analysis revealed two key themes: the ethical challenges and risks posed by GAI and the measures that could be taken to avoid these risks.
The identified ethical issues partly align with the literature on AI ethics. However, information security, trust in AI and human oversight were emphasized which is not the case with Jobin’s et al. (2019) suggested consensus of five ethical guidelines. Among other issues, the participants raised concerns about data privacy, potential biases, and the integrity of AI-generated texts. As an additional finding, the lack of identified ethical risks was also brought up.
In terms of avoiding the ethical risks, many ordinary measures are already taken. Despite the lack of formal measures, designated safe GAI tools are used, the use of sensitive data is careful and regulation like GDPR and the EU AI Act are complied with. Participants still expressed a desire for increasing awareness and training on ethical use of GAI. Implementing ethical guidelines or instructions for GAI use was also considered essential. The accountability regarding ethical issues was thought to eventually be on users, but before that regulators and developers should limit the possibility of negative outcomes. Generatiivinen tekoäly tuo uusia mahdollisuuksia ja niiden mukana myös uusia haasteita liikkeenjohdon konsultoinnin ja tutkimuksen aloille. Tämän opinnäytetyön tarkoituksena on tutkia generatiivisen tekoälyn eettistä käyttöä tapaustutkimuksena mainitussa kontekstissa. Aihetta tarkastellaan kahden tutkimuskysymyksen avulla: 1) Mitä eettisiä haasteita ja riskejä generatiivisen tekoälyn käyttö aiheuttaa liikkeenjohdon konsultoinnin ja tutkimusliiketoiminnan tapauksessa? 2) Miten näitä riskejä ja haasteita voidaan välttää organisaation tasolla?
Tekoälyetiikan kirjallisuus lähti eettisen tekoälyn ohjeistuksista tai periaatteista, ja on sittemmin siirtynyt niiden toteuttamiseen käytännössä. Generatiivinen tekoäly ei ole kuitenkaan vielä saanut osakseen suurta huomiota näiden asioiden suhteen. Tämä tutkielma perustuu tekoälyn eettisiin periaatteisiin (epä-)eettistä tekoälyä kuvaavina seikkoina ja algoritmiseen vastuullisuus viitekehyksenä riskien hallinnalle. Algoritminen vastuullisuus kuvaa tekoälyjärjestelmän sidosryhmiä ja miten ne ovat vastuussa tekoälystä sekä miten ne vaativat vastuuta muilta. Algoritmisen vastuun osana organisatorinen vastuu pätee tekoälyn kehittäjiin ja operoijiin, sisältäen toimenpiteitä kuten tekoälyn eettiset periaatteet, tekoälyn hallinnon ja muita etiikan toimeenpanon välineitä.
Tutkimus suoritettiin laadullisena tapaustutkimuksena tulkitsevalla ja eksploratiivisella tutkimusotteella. Viisi puolirakenteellista haastattelua suoritettiin tapausyrityksen työntekijöiden kanssa. Tämä tutkimus valaisi ammatinharjoittajien kohtaamia eettisiä haasteita generatiivisen tekoälyn käytössä. Temaattinen analyysi paljasti kaksi pääteemaa: generatiivisen tekoälyn aiheuttamat eettiset haasteet ja riskit, ja näiden riskien välttämiseen käytettävät toimenpiteet.
Tunnistetut eettiset seikat ovat osittain linjassa tekoälyetiikan kirjallisuuden kanssa. Tietoturvallisuutta, tekoälyyn luottamista ja ihmisvalvontaa kuitenkin painotettiin enemmän kuin Jobinin ym. (2019) ehdottamassa konsensuksessa viidestä tärkeimmästä tekoälyn etiikan periaatteesta. Haastateltavat ottivat esiin huolia muiden muassa tietosuojaan, mahdollisiin vinoumiin ja tekoälyllä tuotetun tekstin puolueettomuuteen liittyen. Lisäksi huomiota siitä, että eettisiä riskejä ei tunnistettu olevan, voidaan pitää yhtenä tutkimuksen tuloksena.
Eettisten riskien välttämisen suhteen tehdään jo paljon tavanomaisia toimenpiteitä. Vaikka virallisesti määriteltyjä toimenpiteitä ei ole, organisaatiossa suositellaan tarkoituksenmukaisia ja turvallisia tekoälysovelluksia, arkaluonteista tietoa käsitellään huolellisesti ja regulaatio kuten GDPR sekä tuleva EU:n tekoälyasetus otetaan toiminnassa huomioon. Vastaajat kuitenkin halusivat lisää tietoisuutta ja koulutusta generatiivisen tekoälyn eettiseen käyttöön liittyen. Lisäksi eettisten ohjeistusten tai käyttöohjeiden luomista pidettiin tärkeänä. Vastuu eettisten kysymysten suhteen ajateltiin lopulta päätyvän käyttäjän harteille, mutta tätä ennen lainsäätäjien ja kehittäjien tulisi rajoittaa negatiivisten lopputulemien mahdollisuutta.
The AI ethics literature initially addressed guidelines or principles for ethical AI and has since moved on to implementing them in practice. However, generative AI is not yet fully considered in these contexts. This thesis considers the principles as descriptions of what is (un)ethical AI and algorithmic accountability as a framework for management of ethical risks. Algorithmic accountability describes the stakeholders of an AI system and how they express accountability for it. As an element of algorithmic accountability, organizational accountability applies to the operator or developer of an AI system, including measures like AI ethics principles, AI governance measures and other implementation mechanisms for ethical conduct.
As a qualitative case study with an interpretive stance and explorative approach, five interviews were conducted with the case organization’s employees. This research shed light on the ethical considerations that practitioners face when using Generative AI. The thematic analysis revealed two key themes: the ethical challenges and risks posed by GAI and the measures that could be taken to avoid these risks.
The identified ethical issues partly align with the literature on AI ethics. However, information security, trust in AI and human oversight were emphasized which is not the case with Jobin’s et al. (2019) suggested consensus of five ethical guidelines. Among other issues, the participants raised concerns about data privacy, potential biases, and the integrity of AI-generated texts. As an additional finding, the lack of identified ethical risks was also brought up.
In terms of avoiding the ethical risks, many ordinary measures are already taken. Despite the lack of formal measures, designated safe GAI tools are used, the use of sensitive data is careful and regulation like GDPR and the EU AI Act are complied with. Participants still expressed a desire for increasing awareness and training on ethical use of GAI. Implementing ethical guidelines or instructions for GAI use was also considered essential. The accountability regarding ethical issues was thought to eventually be on users, but before that regulators and developers should limit the possibility of negative outcomes.
Tekoälyetiikan kirjallisuus lähti eettisen tekoälyn ohjeistuksista tai periaatteista, ja on sittemmin siirtynyt niiden toteuttamiseen käytännössä. Generatiivinen tekoäly ei ole kuitenkaan vielä saanut osakseen suurta huomiota näiden asioiden suhteen. Tämä tutkielma perustuu tekoälyn eettisiin periaatteisiin (epä-)eettistä tekoälyä kuvaavina seikkoina ja algoritmiseen vastuullisuus viitekehyksenä riskien hallinnalle. Algoritminen vastuullisuus kuvaa tekoälyjärjestelmän sidosryhmiä ja miten ne ovat vastuussa tekoälystä sekä miten ne vaativat vastuuta muilta. Algoritmisen vastuun osana organisatorinen vastuu pätee tekoälyn kehittäjiin ja operoijiin, sisältäen toimenpiteitä kuten tekoälyn eettiset periaatteet, tekoälyn hallinnon ja muita etiikan toimeenpanon välineitä.
Tutkimus suoritettiin laadullisena tapaustutkimuksena tulkitsevalla ja eksploratiivisella tutkimusotteella. Viisi puolirakenteellista haastattelua suoritettiin tapausyrityksen työntekijöiden kanssa. Tämä tutkimus valaisi ammatinharjoittajien kohtaamia eettisiä haasteita generatiivisen tekoälyn käytössä. Temaattinen analyysi paljasti kaksi pääteemaa: generatiivisen tekoälyn aiheuttamat eettiset haasteet ja riskit, ja näiden riskien välttämiseen käytettävät toimenpiteet.
Tunnistetut eettiset seikat ovat osittain linjassa tekoälyetiikan kirjallisuuden kanssa. Tietoturvallisuutta, tekoälyyn luottamista ja ihmisvalvontaa kuitenkin painotettiin enemmän kuin Jobinin ym. (2019) ehdottamassa konsensuksessa viidestä tärkeimmästä tekoälyn etiikan periaatteesta. Haastateltavat ottivat esiin huolia muiden muassa tietosuojaan, mahdollisiin vinoumiin ja tekoälyllä tuotetun tekstin puolueettomuuteen liittyen. Lisäksi huomiota siitä, että eettisiä riskejä ei tunnistettu olevan, voidaan pitää yhtenä tutkimuksen tuloksena.
Eettisten riskien välttämisen suhteen tehdään jo paljon tavanomaisia toimenpiteitä. Vaikka virallisesti määriteltyjä toimenpiteitä ei ole, organisaatiossa suositellaan tarkoituksenmukaisia ja turvallisia tekoälysovelluksia, arkaluonteista tietoa käsitellään huolellisesti ja regulaatio kuten GDPR sekä tuleva EU:n tekoälyasetus otetaan toiminnassa huomioon. Vastaajat kuitenkin halusivat lisää tietoisuutta ja koulutusta generatiivisen tekoälyn eettiseen käyttöön liittyen. Lisäksi eettisten ohjeistusten tai käyttöohjeiden luomista pidettiin tärkeänä. Vastuu eettisten kysymysten suhteen ajateltiin lopulta päätyvän käyttäjän harteille, mutta tätä ennen lainsäätäjien ja kehittäjien tulisi rajoittaa negatiivisten lopputulemien mahdollisuutta.