Kuvakielen käsittely transformer-pohjaisissa kielimalleissa
Korkeamäki, Heidi (2025-01-09)
Kuvakielen käsittely transformer-pohjaisissa kielimalleissa
Korkeamäki, Heidi
(09.01.2025)
Julkaisu on tekijänoikeussäännösten alainen. Teosta voi lukea ja tulostaa henkilökohtaista käyttöä varten. Käyttö kaupallisiin tarkoituksiin on kielletty.
avoin
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe202501204886
https://urn.fi/URN:NBN:fi-fe202501204886
Tiivistelmä
Kuvakielellä tarkoitetaan kieltä, joka hyödyntää kielikuvia, esimerkiksi metaforia, idiomeja tai metonymiaa. Kuvakieltä käytetään yleisesti kuvaamaan muun muassa abstrakteja konsepteja ja rikastuttamaan viestintää. Ihminen ymmärtää kielikuvia kontekstin ja kulttuurisen kokemuksen perusteella. Tämän tutkielman tavoitteena on tutkia, miten luonnollisen kielen käsittelyn työkaluina käytettävät, transformer-arkkitehtuurille rakentuvat kielimallit erottavat kuvakielisen ilmaisun kirjaimellisesta ja millaisia ongelmia kuvakielen käsittelyyn liittyy. Kuvakielen käsitteleminen on merkittävässä roolissa esimerkiksi automaattisessa tekstin kääntämisessä, tekstin generoinnissa ja tekstin sävyn tunnistamisessa. Tutkielman teoriaosuudessa selvitetään mitä kielimallit ovat ja miten ne koulutetaan, miten transformer-arkkitehtuuri rakentuu ja mitä kuvakielellä tässä tutkielmassa tarkoitetaan. Tutkimusmenetelmänä on käytetty kirjallisuuskatsausta.
Tulokset osoittavat, että transformer-pohjaisten kielimallien kyky käsitellä kuvakieltä perustuu mallin laajalle esikoulutukselle ja laadukkaalla aineistolla tehtävälle hienosäädölle. Esikoulutuksessa malli oppii kielen keskeisiä rakenteita. Kuvakielen käsittelyn tehtäviin malli opetetaan hienosäätämällä sitä runsaasti kuvakielisiä ilmauksia ja niiden kirjaimellisia vastineita sisältävällä aineistolla. Keskeisessä roolissa kuvakielen käsittelyssä ovat myös transformerin itsehuomiomekanismi, kontekstisidonnaisten merkitysten muodostaminen sanoille ja transformer-mallien kyky käsitellä pitkiä aineistoja kerralla.
Transformer-pohjaiset kielimallit ovat ottaneet suuria kehitysaskeleita, mutta kuvakielen käsittely ja etenkin kuvakielen tuottaminen ovat edelleen haasteellista tehtäviä kielimallille. Keskeisiä haasteita ovat tuotettujen kielikuvien heikko osuvuus, mallien hienosäätämiseen tarvittavien laadukkaiden datasettien vähyys ja kuvakielen kulttuurisidonnaisuutta ajatellen datasettien eri kielivariaatioiden vähyys.
Tulokset osoittavat, että transformer-pohjaisten kielimallien kyky käsitellä kuvakieltä perustuu mallin laajalle esikoulutukselle ja laadukkaalla aineistolla tehtävälle hienosäädölle. Esikoulutuksessa malli oppii kielen keskeisiä rakenteita. Kuvakielen käsittelyn tehtäviin malli opetetaan hienosäätämällä sitä runsaasti kuvakielisiä ilmauksia ja niiden kirjaimellisia vastineita sisältävällä aineistolla. Keskeisessä roolissa kuvakielen käsittelyssä ovat myös transformerin itsehuomiomekanismi, kontekstisidonnaisten merkitysten muodostaminen sanoille ja transformer-mallien kyky käsitellä pitkiä aineistoja kerralla.
Transformer-pohjaiset kielimallit ovat ottaneet suuria kehitysaskeleita, mutta kuvakielen käsittely ja etenkin kuvakielen tuottaminen ovat edelleen haasteellista tehtäviä kielimallille. Keskeisiä haasteita ovat tuotettujen kielikuvien heikko osuvuus, mallien hienosäätämiseen tarvittavien laadukkaiden datasettien vähyys ja kuvakielen kulttuurisidonnaisuutta ajatellen datasettien eri kielivariaatioiden vähyys.