Neuroverkkojen malliriippumattomat selitysmenetelmät
Krug, Joonatan (2025-04-04)
Neuroverkkojen malliriippumattomat selitysmenetelmät
Krug, Joonatan
(04.04.2025)
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
suljettu
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2025041526922
https://urn.fi/URN:NBN:fi-fe2025041526922
Tiivistelmä
Suuri osa uusista tekoälysovelluksista perustuu neuroverkkoihin. Neuroverkot ovat koneoppimismalli, jonka rakenne etäisesti muistuttaa aivojen rakennetta. Niiden päätöksiä on luonnostaan hyvin vaikeaa ymmärtää. Tämän lisäksi neuroverkot voivat oppia vääristymiä, joiden havaitseminen on vaikeaa. Näin ei voida tietää, että neuroverkko ei syrji esimerkiksi sukupuolen perusteella, mikä estää niiden käytön joissain tapauksissa. Tätä varten on kehitetty neuroverkkojen selittämisen menetelmät, joiden avulla pyritään vähentämään neuroverkkojen huonoja puolia.
Tässä tutkielmassa keskitytään malliriippumattomiin menetelmiin, joita voi soveltaa kaikkiin neuroverkkoihin, ja selvitetään, mitä eri selittämisen menetelmiä on olemassa, mitkä selittämisen menetelmät ovat parhaimpia ja missä tapauksissa ja onko selittämisen menetelmistä käytännössä hyötyä. Tässä tutkielmassa käsiteltävät menetelmät ovat korvikemallit, kontrafaktuaalit, PFI, PDP, ICE, LIME ja SHAP.
Kirjallisuuden perusteella paras menetelmä on vahvasti tilannekohtainen. LIME ja SHAP ovat hyödyllisiä, jos syötteenä käytetään kuvia. Korvikemallit ja kontrafaktuaalit ovat hyviä, kun selityksiä halutaan luoda loppukäyttäjille. PDP- ja ICE-menetelmien avulla voidaan tutkia tietyn piirteen muuttumisen vaikutusta ennusteeseen. PFI-menetelmästä on yleisesti hyötyä. Päädytään myös tulokseen, että käytännössä osasta menetelmiä niiden hyödyllisyyttä voidaan kyseenalaistaa.
Mitkään menetelmistä eivät voi varmistaa, että neuroverkko ei opi opetusaineiston vääristymiä eikä syrji. Näiden tulosten perusteella suositellaan, että tulkittavia malleja kannattaa tutkia. Kannustetaan myös monitieteisempään tutkimukseen, sillä filosofisessa ja oikeustieteellisessä kirjallisuudessa pohditaan selitettävyyttä laajemmin myös monesta näkökulmasta.
Tässä tutkielmassa keskitytään malliriippumattomiin menetelmiin, joita voi soveltaa kaikkiin neuroverkkoihin, ja selvitetään, mitä eri selittämisen menetelmiä on olemassa, mitkä selittämisen menetelmät ovat parhaimpia ja missä tapauksissa ja onko selittämisen menetelmistä käytännössä hyötyä. Tässä tutkielmassa käsiteltävät menetelmät ovat korvikemallit, kontrafaktuaalit, PFI, PDP, ICE, LIME ja SHAP.
Kirjallisuuden perusteella paras menetelmä on vahvasti tilannekohtainen. LIME ja SHAP ovat hyödyllisiä, jos syötteenä käytetään kuvia. Korvikemallit ja kontrafaktuaalit ovat hyviä, kun selityksiä halutaan luoda loppukäyttäjille. PDP- ja ICE-menetelmien avulla voidaan tutkia tietyn piirteen muuttumisen vaikutusta ennusteeseen. PFI-menetelmästä on yleisesti hyötyä. Päädytään myös tulokseen, että käytännössä osasta menetelmiä niiden hyödyllisyyttä voidaan kyseenalaistaa.
Mitkään menetelmistä eivät voi varmistaa, että neuroverkko ei opi opetusaineiston vääristymiä eikä syrji. Näiden tulosten perusteella suositellaan, että tulkittavia malleja kannattaa tutkia. Kannustetaan myös monitieteisempään tutkimukseen, sillä filosofisessa ja oikeustieteellisessä kirjallisuudessa pohditaan selitettävyyttä laajemmin myös monesta näkökulmasta.