Governing artificial intelligence: from ethical principles toward organizational AI governance practices
Birkstedt, Teemu (2024-11-22)
Governing artificial intelligence: from ethical principles toward organizational AI governance practices
Birkstedt, Teemu
(22.11.2024)
Turun yliopisto. Turun kauppakorkeakoulu
Julkaisun pysyvä osoite on:
https://urn.fi/URN:ISBN:978-951-29-9922-4
https://urn.fi/URN:ISBN:978-951-29-9922-4
Tiivistelmä
Artificial Intelligence (AI) systems have demonstrated significant potential for advancement across various domains, including autonomous vehicles, intelligent personal assistants, and advanced robotics. Recent developments in generative AI have further highlighted this potential, particularly for knowledge-intensive tasks. However, growing public awareness of AI-related risks and the need to align AI systems with human and societal values has led to the development of ethical frameworks and regulatory measures. AI-specific regulations, alongside existing nondiscrimination and privacy laws, require AI governance in order to manage risks, ensure compliance, and uphold business ethics.
To address AI-specific governance challenges and promote transparency, fairness, non-maleficence, responsibility, and privacy, new governance tools and processes are required. Consequently, there is an increasing demand for empirical research on AI governance within organizations deploying AI systems. While information technology (IT) and data governance are established areas of information systems (IS) research, AI governance is yet an emerging field. The area contrasts with IT governance, as there are no existing governance models (such as Control Objectives for Information Technologies, COBIT) for AI.
This dissertation explores various organizational approaches to AI governance and examines how ethical principles and regulations are translated into strategic decisions, organizational processes, and practices. The dissertation comprises four articles. Article I is a systematic literature review analyzing 68 academic publications (out of 1071 identified) on organizational AI governance, elaborating on conceptual gaps in governance understanding and definitions. Additionally, Article I introduces key themes and future development areas for organizational AI governance. Article II provides an empirical perspective on how organizations translate ethical principles into practices, introducing four key translation practices. The research involved interviews with 13 frontrunner organizations deploying AI in their processes. Article III introduces a definition for AI governance in the organizational context and positions it within the broader landscape of corporate, IT, and data governance. Article IV examines contingency factors shaping AI governance approaches among organizations providing AI-assisted services in high-risk domains. It identifies seven contingency factors: volume of AI systems, industry sector, regulation, customer expectations, culture and values, strategic priorities, and technology and process maturity. The study also distills four archetypal AI governance approaches: differentiating, pragmatic, risk-taking, and disinterested.
Collectively, this research aims to provide theoretical and empirical insights on organizations translating ethical principles, regulations, and other external stakeholder pressure into AI governance practices. By offering definitions for AI governance, positioning it within a larger context, and introducing supporting frameworks, this dissertation contributes to the ongoing discussion on responsible AI and integrates with established research streams on IS planning, IT governance, and contingency theory. ----
Tekoälyjärjestelmät ovat osoittaneet, että niillä on hyvät mahdollisuudet edistää innovaatioita eri aloilla, esimerkkeinä automaattisesti toimivat ajoneuvot, älykkäät henkilökohtaiset avustajat ja edistynyt robotiikka. Generatiivisen tekoälyn viimeaikainen kehitys on entisestään korostanut tätä potentiaalia erityisesti tietointensiivisten tehtävien osalta. Kansalaisten kasvava tietoisuus tekoälyyn liittyvistä riskeistä ja tarve mukauttaa tekoälyjärjestelmät inhimillisiin ja yhteiskunnallisiin arvoihin ovat kuitenkin johtaneet eettisten kehysten ja sääntelytoimien kehittämiseen entisestään. Tekoälyä koskevat säädökset edellyttävät nykyisten syrjimättömyys- ja yksityisyyslakien ohella tekoälyn hallintaa (AI governance) riskien hallitsemiseksi, vaatimustenmukaisuuden varmistamiseksi sekä liiketoiminnan etiikan ylläpitämiseksi.
Uusia työkaluja ja prosesseja tarvitaan vastaamaan tekoälyn hallintaan liittyviin haasteisiin sekä edistämään avoimuutta, oikeudenmukaisuutta, turvallisuutta, vastuullisuutta ja yksityisyyden suojaa. Näin ollen tekoälyä hyödyntävien organisaatioiden tekoälyn hallintaa koskevan empiirisen tutkimuksen tarve kasvaa. Vaikka tietotekniikka (IT) ja tiedonhallinta ovat vakiintuneita tietojärjestelmätutkimuksen aiheita, tekoälyn hallinta on vielä nouseva tutkimusalue. IT-hallinnosta poiketen tekoälylle ei ole olemassa valmiita hallintomalleja (kuten Control Objectives for Information Technologies, COBIT).
Tämä väitöskirja pyrkii tutkimaan organisaatioiden erilaisia lähestymistapoja tekoälyn hallintaan ja tarkastelemaan, miten eettiset periaatteet ja säädökset muunnetaan strategisiksi päätöksiksi, prosesseiksi ja käytännöiksi organisaatiossa. Väitöskirja koostuu neljästä artikkelista.
Artikkeli I on systemaattinen kirjallisuuskatsaus, jossa analysoidaan 68 akateemista julkaisua (1071 tunnistetusta julkaisusta) organisaatioiden tekoälyn hallinnasta. Artikkeli analysoi käsitteellisen ymmärryksen ja tekoälyn hallinnan määritelmien puutteita ja ehdottaa tulevaisuuden kehitysalueita tekoälyn hallinnalle. Artikkeli II tarjoaa empiirisen näkökulman siihen, miten organisaatiot kääntävät eettiset periaatteet käytännöiksi esittelemällä neljä keskeistä käytäntöä. Tutkimus toteutettiin haastattelemalla 13 edelläkävijäorganisaatiota, jotka hyödyntävät tekoälyä prosesseissaan.
Tekoälyn hallinnalle ei ole ollut selkeää määritelmää organisaatioiden käytössä. Artikkeli III esittelee määritelmän ja sijoittaa tekoälyn hallinnan laajempaan yritys-, IT- ja tiedonhallinnan kontekstiin. Artikkelissa IV tarkastellaan tekijöitä, jotka vaikuttavat tekoälyn hallinnan lähestymistapoihin organisaatioissa, jotka tarjoavat tekoälyavusteisia palveluja aloilla, jotka määritellään korkean riskin omaaviksi. Siinä tunnistetaan seitsemän tekijää, jotka muovaavat organisaatioiden tekoälyhallintaa: tekoälyjärjestelmien määrä, toimiala, sääntely, asiakasodotukset, kulttuuri ja arvot, strategiset prioriteetit sekä teknologian ja prosessien kypsyys. Lisäksi tutkimuksessa eroteltiin neljä tekoälyhallinnan arkkityyppiä: erilaistava, pragmaattinen, riskinottava ja välinpitämätön.
Kokonaisuudessaan tämän tutkimuksen tavoitteena on tarjota tutkimustietoa sekä tietoa organisaatioiden käytännöistä niiden kehittäessä tekoälyn hallinnan käytäntöjä huomioiden eettiset periaatteet, sääntelyn sekä muiden ulkoisten sidosryhmien paineet. Tutkimus tuottaa puuttuvia määritelmiä tekoälyn hallinnalle, asemoi sen laajempaan kontekstiin sekä esittelee tekoälyn hallintaa tukevia viitekehyksiä. Väitöskirja edistää jatkuvaa keskustelua vastuullisesta tekoälystä ja integroituu aiempiin tutkimussuuntauksiin tietojärjestelmien suunnittelusta, IT-hallinnosta ja kontingenssiteoriasta.
To address AI-specific governance challenges and promote transparency, fairness, non-maleficence, responsibility, and privacy, new governance tools and processes are required. Consequently, there is an increasing demand for empirical research on AI governance within organizations deploying AI systems. While information technology (IT) and data governance are established areas of information systems (IS) research, AI governance is yet an emerging field. The area contrasts with IT governance, as there are no existing governance models (such as Control Objectives for Information Technologies, COBIT) for AI.
This dissertation explores various organizational approaches to AI governance and examines how ethical principles and regulations are translated into strategic decisions, organizational processes, and practices. The dissertation comprises four articles. Article I is a systematic literature review analyzing 68 academic publications (out of 1071 identified) on organizational AI governance, elaborating on conceptual gaps in governance understanding and definitions. Additionally, Article I introduces key themes and future development areas for organizational AI governance. Article II provides an empirical perspective on how organizations translate ethical principles into practices, introducing four key translation practices. The research involved interviews with 13 frontrunner organizations deploying AI in their processes. Article III introduces a definition for AI governance in the organizational context and positions it within the broader landscape of corporate, IT, and data governance. Article IV examines contingency factors shaping AI governance approaches among organizations providing AI-assisted services in high-risk domains. It identifies seven contingency factors: volume of AI systems, industry sector, regulation, customer expectations, culture and values, strategic priorities, and technology and process maturity. The study also distills four archetypal AI governance approaches: differentiating, pragmatic, risk-taking, and disinterested.
Collectively, this research aims to provide theoretical and empirical insights on organizations translating ethical principles, regulations, and other external stakeholder pressure into AI governance practices. By offering definitions for AI governance, positioning it within a larger context, and introducing supporting frameworks, this dissertation contributes to the ongoing discussion on responsible AI and integrates with established research streams on IS planning, IT governance, and contingency theory.
Tekoälyjärjestelmät ovat osoittaneet, että niillä on hyvät mahdollisuudet edistää innovaatioita eri aloilla, esimerkkeinä automaattisesti toimivat ajoneuvot, älykkäät henkilökohtaiset avustajat ja edistynyt robotiikka. Generatiivisen tekoälyn viimeaikainen kehitys on entisestään korostanut tätä potentiaalia erityisesti tietointensiivisten tehtävien osalta. Kansalaisten kasvava tietoisuus tekoälyyn liittyvistä riskeistä ja tarve mukauttaa tekoälyjärjestelmät inhimillisiin ja yhteiskunnallisiin arvoihin ovat kuitenkin johtaneet eettisten kehysten ja sääntelytoimien kehittämiseen entisestään. Tekoälyä koskevat säädökset edellyttävät nykyisten syrjimättömyys- ja yksityisyyslakien ohella tekoälyn hallintaa (AI governance) riskien hallitsemiseksi, vaatimustenmukaisuuden varmistamiseksi sekä liiketoiminnan etiikan ylläpitämiseksi.
Uusia työkaluja ja prosesseja tarvitaan vastaamaan tekoälyn hallintaan liittyviin haasteisiin sekä edistämään avoimuutta, oikeudenmukaisuutta, turvallisuutta, vastuullisuutta ja yksityisyyden suojaa. Näin ollen tekoälyä hyödyntävien organisaatioiden tekoälyn hallintaa koskevan empiirisen tutkimuksen tarve kasvaa. Vaikka tietotekniikka (IT) ja tiedonhallinta ovat vakiintuneita tietojärjestelmätutkimuksen aiheita, tekoälyn hallinta on vielä nouseva tutkimusalue. IT-hallinnosta poiketen tekoälylle ei ole olemassa valmiita hallintomalleja (kuten Control Objectives for Information Technologies, COBIT).
Tämä väitöskirja pyrkii tutkimaan organisaatioiden erilaisia lähestymistapoja tekoälyn hallintaan ja tarkastelemaan, miten eettiset periaatteet ja säädökset muunnetaan strategisiksi päätöksiksi, prosesseiksi ja käytännöiksi organisaatiossa. Väitöskirja koostuu neljästä artikkelista.
Artikkeli I on systemaattinen kirjallisuuskatsaus, jossa analysoidaan 68 akateemista julkaisua (1071 tunnistetusta julkaisusta) organisaatioiden tekoälyn hallinnasta. Artikkeli analysoi käsitteellisen ymmärryksen ja tekoälyn hallinnan määritelmien puutteita ja ehdottaa tulevaisuuden kehitysalueita tekoälyn hallinnalle. Artikkeli II tarjoaa empiirisen näkökulman siihen, miten organisaatiot kääntävät eettiset periaatteet käytännöiksi esittelemällä neljä keskeistä käytäntöä. Tutkimus toteutettiin haastattelemalla 13 edelläkävijäorganisaatiota, jotka hyödyntävät tekoälyä prosesseissaan.
Tekoälyn hallinnalle ei ole ollut selkeää määritelmää organisaatioiden käytössä. Artikkeli III esittelee määritelmän ja sijoittaa tekoälyn hallinnan laajempaan yritys-, IT- ja tiedonhallinnan kontekstiin. Artikkelissa IV tarkastellaan tekijöitä, jotka vaikuttavat tekoälyn hallinnan lähestymistapoihin organisaatioissa, jotka tarjoavat tekoälyavusteisia palveluja aloilla, jotka määritellään korkean riskin omaaviksi. Siinä tunnistetaan seitsemän tekijää, jotka muovaavat organisaatioiden tekoälyhallintaa: tekoälyjärjestelmien määrä, toimiala, sääntely, asiakasodotukset, kulttuuri ja arvot, strategiset prioriteetit sekä teknologian ja prosessien kypsyys. Lisäksi tutkimuksessa eroteltiin neljä tekoälyhallinnan arkkityyppiä: erilaistava, pragmaattinen, riskinottava ja välinpitämätön.
Kokonaisuudessaan tämän tutkimuksen tavoitteena on tarjota tutkimustietoa sekä tietoa organisaatioiden käytännöistä niiden kehittäessä tekoälyn hallinnan käytäntöjä huomioiden eettiset periaatteet, sääntelyn sekä muiden ulkoisten sidosryhmien paineet. Tutkimus tuottaa puuttuvia määritelmiä tekoälyn hallinnalle, asemoi sen laajempaan kontekstiin sekä esittelee tekoälyn hallintaa tukevia viitekehyksiä. Väitöskirja edistää jatkuvaa keskustelua vastuullisesta tekoälystä ja integroituu aiempiin tutkimussuuntauksiin tietojärjestelmien suunnittelusta, IT-hallinnosta ja kontingenssiteoriasta.
Kokoelmat
- Väitöskirjat [2825]