Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa
Lepinkäinen, Nea (2024-09-12)
Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa
Lepinkäinen, Nea
(12.09.2024)
Turun yliopisto
Julkaisun pysyvä osoite on:
https://urn.fi/URN:ISBN:978-951-29-9825-8
https://urn.fi/URN:ISBN:978-951-29-9825-8
Tiivistelmä
Tekoäly on levittänyt vaikutustaan yhä laajemmin yhteiskunnan eri osa-alueille, ja algoritmisen transformaation vauhti näyttäisi vain kiihtyvän. Algoritmiset teknologiat ovat kietoutuneet erottamattomaksi osaksi yhteiskuntaa, ja niiden mukana yhteiskunnassa ovat yleistyneet myös algoritmiset haitat.
Tässä artikkeliväitöskirjassa keskiössä ovat algoritmisten teknologioiden aiheuttamat moninaiset haitat, haittojen muodostumiseen vaikuttavat tekijät sekä tekoälysääntelyn tarjoamat mahdollisuudet haittojen hallitsemiseen. Vaikka osa tekoälyn vaikutuksista on positiivisia, väitöskirjassa keskitytään nimenomaan potentiaalisiin ja jo tunnettuihin algoritmisiin haittoihin. Tutkimus kiinnittyy erityisesti yhteiskunnallisten haittojen (social harm) tutkimusperinteeseen. Modernin yhteiskunnan kehityskulkujen, etenkin tekoälyn alati lisääntyvän käytön ymmärtämiseksi ja analysoimiseksi hyödynnetään Rosan yhteiskunnallisen kiihtyvyyden teorian (theory of social acceleration) ja Giddensin rakenteistumisteorian (structuration theory) teesejä.
Väitöskirjassa arvioidaan, minkälaisia algoritmisia haittoja tekoälyteknologiat aiheuttavat tai voivat aiheuttaa nyky-yhteiskunnassa. Työ laajentaa yhteiskunnallisten haittojen teorian näkökulmaa ottamalla huomioon yksilöihin ja ryhmiin kohdistuvien haittojen lisäksi haitat, jotka kohdistuvat yhteiskuntaan. Tekoälyteknologioiden teknisistä ominaisuuksista juontuvien, haitoille altistavien riskien paremmaksi ymmärtämiseksi väitöskirjassa tukeudutaan Viljasen (2022) hahmottelemaan teko-älyn teknisten ominaisuuksien luokitteluun.
Haittojen ja tekoälyn ominaisuuksien vaikutusten analyysi paljastaa, että vasta osa algoritmisiin teknologioihin liittyvästä haittapotentiaalista on tunnistettu. Etenkin yhteiskuntaan kohdistuvia algoritmisia haittoja on tutkittu vasta vähän. Kansallisen ja EU-tason tekoälysääntelyratkaisujen jäsentely osoittaa, että myös lainsäädännössä onnistutaan huomioimaan ainoastaan osa haittapotentiaalista, joka algoritmisiin järjestelmiin liittyy. Tuoreet lainsäädäntöratkaisut pyrkivät löytämään tasapainon siten, että tekoälyn mukanaan tuomat riskit saataisiin hallittua ilman liian suuria rajoituksia innovaatioille tai kilpailulle. Algoritmisten teknologioiden tuotantoa ohjaava, mahdollisimman vähän markkinoita rajoittava riskiperustainen EU-sääntely tunnistaa ainoastaan välittömät haitat. Sen sijaan se ei vaikuta tunnistavan kiihtyvään algoritmiseen transformaatioon liittyviä seurannaishaittoja, jotka uhkaavat perustavanlaatuisella tavalla sekä yhteiskunnan toiminnan että inhimillisen kukoistuksen mahdollisuuksia.
Tässä väitöskirjassa argumentoidaan, että algoritmista transformaatiota seuraavat haitat olisi mahdollista tuoda valittuja sääntelyratkaisuja tehokkaammin sääntelyn piiriin, mikäli poliittista tahtoa tällaiseen olisi. Yksi keino tämän toteuttamiseksi olisi laajentaa EU:n tekoälysääntelyn vaikutusarviointimenettely koskemaan kaikkia tekoälysovelluksia ja sitoa se vahvemmin nimenomaan potentiaalisesti seuraavien haittojen arviointiin. Tästä mahdollisesti seuraava tekoälyteknologioiden kehityksen hidastuminen olisi mahdollista nähdä neutraalina seikkana tai jopa tavoitteena, ei ongelmana: se lisäisi mahdollisuuksia hillitä algoritmisen transformaation vauhtia ja suunnata yhteiskunnan muutosta kohti tulevaisuutta, jossa inhimillinen kukoistus turvattaisiin yhä laajemmin. Tämän sijaan sääntelyssä kuitenkin pyritään välttämään laajoja rajoituksia markkinoiden ja innovaatiokehityksen turvaamiseksi. Ratkaisun riskinä on, että ennalta estämisen sijaan entistä useammin eurooppalaiset yhteiskunnat joutuvat jälkikäteen ratkomaan algoritmisten teknologioiden kiihtyvästä kehityksestä ja käytöstä sekä algoritmisesta transformaatiosta juontuvia moninaisia algoritmisia haittoja. Algorithmic Harms: AI Risks and Regulatory Challenges in an Accelerating Society
Artificial intelligence has increasingly spread its influence across various sectors of society, and the pace of algorithmic transformation seems to be accelerating. Algorithmic technologies have become an integral part of society, and as they have spread, so too have algorithmic harms.
This article-based dissertation focuses on the diverse harms caused by algorithmic technologies, the factors influencing the formation of these harms, and the potential offered by AI regulation for managing them. While some effects of AI are positive, the dissertation specifically addresses the potential and already known algorithmic harms. The research is particularly anchored in the tradition of social harm studies. To understand and analyse the developments in modern society, especially the increasing use of AI, the theses of Rosa's theory of social acceleration and Gid-dens' structuration theory are employed.
This dissertation assesses different types of algorithmic harms that AI technologies cause or could potentially cause in contemporary society. The work broadens the perspective of social harm theory by considering harms that affect society in addition to those impacting individuals and groups. To better understand the risks inherent in the technical characteristics of AI technologies that predispose them to cause harm, the dissertation relies on Viljanen's (2022) classification of the technical characteristics of AI.
The analysis of harms and the impact of AI characteristics reveals that only a portion of the potential harms associated with algorithmic technologies has been identified. In particular, algorithmic harms affecting society have been relatively un-der-researched. The review of national and EU-level AI regulation solutions indi-cates that legislation only manages to consider part of the potential harms related to algorithmic systems. Recent legislative solutions aim to strike balance by managing the risks associated with AI without imposing excessive restrictions on innovation or competition. The EU’s risk-based regulation that governs the production of algorithmic technologies, while minimally restricting markets, only identifies immediate harms. However, it does not seem to recognise the consequential harms associated with the accelerating algorithmic transformation, which fundamentally threaten both the functioning of society and the potential for human flourishing.
This dissertation argues that the harms following algorithmic transformation could be more effectively brought under regulatory control, provided there is political will for such action. One way to achieve this would be to expand the impact assessment procedure of EU AI Act to cover all AI applications, with a stronger focus specifically on assessing potential consequential harms. The potential slow-down in the development of AI technologies that might result from this could be seen as a neutral aspect or even a goal, rather than a problem: it would increase the opportunity to moderate the pace of algorithmic transformation and steer societal change towards a future where human flourishing is more broadly secured. However, instead of this, the current regulatory approach seeks to avoid broad restrictions to safeguard markets and innovation development. The risk of this approach is that, instead of preventing harms beforehand, European societies may increasingly find themselves having to address a growing number of algorithmic harms, stemming from the accelerated development and use of algorithmic technologies, and the resulting algorithmic transformation, after they occur.
Tässä artikkeliväitöskirjassa keskiössä ovat algoritmisten teknologioiden aiheuttamat moninaiset haitat, haittojen muodostumiseen vaikuttavat tekijät sekä tekoälysääntelyn tarjoamat mahdollisuudet haittojen hallitsemiseen. Vaikka osa tekoälyn vaikutuksista on positiivisia, väitöskirjassa keskitytään nimenomaan potentiaalisiin ja jo tunnettuihin algoritmisiin haittoihin. Tutkimus kiinnittyy erityisesti yhteiskunnallisten haittojen (social harm) tutkimusperinteeseen. Modernin yhteiskunnan kehityskulkujen, etenkin tekoälyn alati lisääntyvän käytön ymmärtämiseksi ja analysoimiseksi hyödynnetään Rosan yhteiskunnallisen kiihtyvyyden teorian (theory of social acceleration) ja Giddensin rakenteistumisteorian (structuration theory) teesejä.
Väitöskirjassa arvioidaan, minkälaisia algoritmisia haittoja tekoälyteknologiat aiheuttavat tai voivat aiheuttaa nyky-yhteiskunnassa. Työ laajentaa yhteiskunnallisten haittojen teorian näkökulmaa ottamalla huomioon yksilöihin ja ryhmiin kohdistuvien haittojen lisäksi haitat, jotka kohdistuvat yhteiskuntaan. Tekoälyteknologioiden teknisistä ominaisuuksista juontuvien, haitoille altistavien riskien paremmaksi ymmärtämiseksi väitöskirjassa tukeudutaan Viljasen (2022) hahmottelemaan teko-älyn teknisten ominaisuuksien luokitteluun.
Haittojen ja tekoälyn ominaisuuksien vaikutusten analyysi paljastaa, että vasta osa algoritmisiin teknologioihin liittyvästä haittapotentiaalista on tunnistettu. Etenkin yhteiskuntaan kohdistuvia algoritmisia haittoja on tutkittu vasta vähän. Kansallisen ja EU-tason tekoälysääntelyratkaisujen jäsentely osoittaa, että myös lainsäädännössä onnistutaan huomioimaan ainoastaan osa haittapotentiaalista, joka algoritmisiin järjestelmiin liittyy. Tuoreet lainsäädäntöratkaisut pyrkivät löytämään tasapainon siten, että tekoälyn mukanaan tuomat riskit saataisiin hallittua ilman liian suuria rajoituksia innovaatioille tai kilpailulle. Algoritmisten teknologioiden tuotantoa ohjaava, mahdollisimman vähän markkinoita rajoittava riskiperustainen EU-sääntely tunnistaa ainoastaan välittömät haitat. Sen sijaan se ei vaikuta tunnistavan kiihtyvään algoritmiseen transformaatioon liittyviä seurannaishaittoja, jotka uhkaavat perustavanlaatuisella tavalla sekä yhteiskunnan toiminnan että inhimillisen kukoistuksen mahdollisuuksia.
Tässä väitöskirjassa argumentoidaan, että algoritmista transformaatiota seuraavat haitat olisi mahdollista tuoda valittuja sääntelyratkaisuja tehokkaammin sääntelyn piiriin, mikäli poliittista tahtoa tällaiseen olisi. Yksi keino tämän toteuttamiseksi olisi laajentaa EU:n tekoälysääntelyn vaikutusarviointimenettely koskemaan kaikkia tekoälysovelluksia ja sitoa se vahvemmin nimenomaan potentiaalisesti seuraavien haittojen arviointiin. Tästä mahdollisesti seuraava tekoälyteknologioiden kehityksen hidastuminen olisi mahdollista nähdä neutraalina seikkana tai jopa tavoitteena, ei ongelmana: se lisäisi mahdollisuuksia hillitä algoritmisen transformaation vauhtia ja suunnata yhteiskunnan muutosta kohti tulevaisuutta, jossa inhimillinen kukoistus turvattaisiin yhä laajemmin. Tämän sijaan sääntelyssä kuitenkin pyritään välttämään laajoja rajoituksia markkinoiden ja innovaatiokehityksen turvaamiseksi. Ratkaisun riskinä on, että ennalta estämisen sijaan entistä useammin eurooppalaiset yhteiskunnat joutuvat jälkikäteen ratkomaan algoritmisten teknologioiden kiihtyvästä kehityksestä ja käytöstä sekä algoritmisesta transformaatiosta juontuvia moninaisia algoritmisia haittoja.
Artificial intelligence has increasingly spread its influence across various sectors of society, and the pace of algorithmic transformation seems to be accelerating. Algorithmic technologies have become an integral part of society, and as they have spread, so too have algorithmic harms.
This article-based dissertation focuses on the diverse harms caused by algorithmic technologies, the factors influencing the formation of these harms, and the potential offered by AI regulation for managing them. While some effects of AI are positive, the dissertation specifically addresses the potential and already known algorithmic harms. The research is particularly anchored in the tradition of social harm studies. To understand and analyse the developments in modern society, especially the increasing use of AI, the theses of Rosa's theory of social acceleration and Gid-dens' structuration theory are employed.
This dissertation assesses different types of algorithmic harms that AI technologies cause or could potentially cause in contemporary society. The work broadens the perspective of social harm theory by considering harms that affect society in addition to those impacting individuals and groups. To better understand the risks inherent in the technical characteristics of AI technologies that predispose them to cause harm, the dissertation relies on Viljanen's (2022) classification of the technical characteristics of AI.
The analysis of harms and the impact of AI characteristics reveals that only a portion of the potential harms associated with algorithmic technologies has been identified. In particular, algorithmic harms affecting society have been relatively un-der-researched. The review of national and EU-level AI regulation solutions indi-cates that legislation only manages to consider part of the potential harms related to algorithmic systems. Recent legislative solutions aim to strike balance by managing the risks associated with AI without imposing excessive restrictions on innovation or competition. The EU’s risk-based regulation that governs the production of algorithmic technologies, while minimally restricting markets, only identifies immediate harms. However, it does not seem to recognise the consequential harms associated with the accelerating algorithmic transformation, which fundamentally threaten both the functioning of society and the potential for human flourishing.
This dissertation argues that the harms following algorithmic transformation could be more effectively brought under regulatory control, provided there is political will for such action. One way to achieve this would be to expand the impact assessment procedure of EU AI Act to cover all AI applications, with a stronger focus specifically on assessing potential consequential harms. The potential slow-down in the development of AI technologies that might result from this could be seen as a neutral aspect or even a goal, rather than a problem: it would increase the opportunity to moderate the pace of algorithmic transformation and steer societal change towards a future where human flourishing is more broadly secured. However, instead of this, the current regulatory approach seeks to avoid broad restrictions to safeguard markets and innovation development. The risk of this approach is that, instead of preventing harms beforehand, European societies may increasingly find themselves having to address a growing number of algorithmic harms, stemming from the accelerated development and use of algorithmic technologies, and the resulting algorithmic transformation, after they occur.
Kokoelmat
- Väitöskirjat [2830]