Kuvien suojaaminen tekoälykuvageneraattoreilta harhauttavilla menetelmillä
Rantala, Tuula (2024-05-22)
Kuvien suojaaminen tekoälykuvageneraattoreilta harhauttavilla menetelmillä
Rantala, Tuula
(22.05.2024)
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
avoin
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2024060444142
https://urn.fi/URN:NBN:fi-fe2024060444142
Tiivistelmä
Tekoälykuvageneraattorien tuottamien kuvien laatu on kehittynyt viime vuosina nopeammin kuin monet osasivat odottaa. Kuvien laatu on moniin käyttötarkoituksiin jo riittävän hyvä kilpaillakseen suoraan ihmistaiteilijoiden kanssa. Teknologiaan liittyvät tekijänoikeusongelmat ovat nousseet kriittiseksi kysymykseksi, sillä suosittujen diffuusiomallipohjaisten kuvageneraattorien kouluttamiseen on käytetty verkosta kerättyä kuvadataa, usein ilman tekijänoikeudenhaltijoiden suostumusta.
Koska nykyinen lainsäädäntö ei riittävästi suojele taitelijoiden oikeuksia, tarvitaan vaihtoehtoisia tapoja suojata verkkoon esille laitettavia töitä. Huomiota ovat saaneet erityisesti harhauttaviin hyökkäyksiin (engl. adversarial attack) perustuvat suojauskeinot. Harhauttavan suojausmenetelmän perusidea on lisätä kuvaan ihmissilmälle huomaamattomia häiriöitä, jotka estävät tekoälymallia oppimasta kuvan piirteitä oikein.
Tässä kirjallisuuskatsauksessa perehdytään diffuusiomalleihin kohdistuviin harhauttaviin suojausmenetelmiin. Tavoite on selvittää, mihin suojausvaikutus perustuu, millaisia eri keinoja häiriöiden optimointiin on kehitetty ja arvioida, ovatko menetelmät todella riittävä keino kuvien suojaamiseen. Tyypillisiä eroja eri menetelmien välillä ovat esimerkiksi se, kohdistuuko hyökkäys pelkästään kuvan latenttiesityksen muodostamiseen vai koko diffuusioprosessiin, ja millaista kohdekuvaa häiriöiden laskemisen apuna käytetään.
Suojausmenetelmien perimmäinen heikkous on, että kerran julkaistun kuvan suojausta ei voi jälkikäteen päivittää. Menetelmät ovat myös jossain määrin hauraita erilaisia kuvankäsittelytekniikoita vastaan, koska suojattu kuva ei saisi visuaalisesti muuttua paljon. Vaikka suojausmenetelmät ovat puutteellisia, on niillä kuitenkin moraalinen ja sosiaalinen merkitys aikana, jona generatiivisen tekoälyn pelisääntöjä vielä laaditaan.
Koska nykyinen lainsäädäntö ei riittävästi suojele taitelijoiden oikeuksia, tarvitaan vaihtoehtoisia tapoja suojata verkkoon esille laitettavia töitä. Huomiota ovat saaneet erityisesti harhauttaviin hyökkäyksiin (engl. adversarial attack) perustuvat suojauskeinot. Harhauttavan suojausmenetelmän perusidea on lisätä kuvaan ihmissilmälle huomaamattomia häiriöitä, jotka estävät tekoälymallia oppimasta kuvan piirteitä oikein.
Tässä kirjallisuuskatsauksessa perehdytään diffuusiomalleihin kohdistuviin harhauttaviin suojausmenetelmiin. Tavoite on selvittää, mihin suojausvaikutus perustuu, millaisia eri keinoja häiriöiden optimointiin on kehitetty ja arvioida, ovatko menetelmät todella riittävä keino kuvien suojaamiseen. Tyypillisiä eroja eri menetelmien välillä ovat esimerkiksi se, kohdistuuko hyökkäys pelkästään kuvan latenttiesityksen muodostamiseen vai koko diffuusioprosessiin, ja millaista kohdekuvaa häiriöiden laskemisen apuna käytetään.
Suojausmenetelmien perimmäinen heikkous on, että kerran julkaistun kuvan suojausta ei voi jälkikäteen päivittää. Menetelmät ovat myös jossain määrin hauraita erilaisia kuvankäsittelytekniikoita vastaan, koska suojattu kuva ei saisi visuaalisesti muuttua paljon. Vaikka suojausmenetelmät ovat puutteellisia, on niillä kuitenkin moraalinen ja sosiaalinen merkitys aikana, jona generatiivisen tekoälyn pelisääntöjä vielä laaditaan.