Generatiivinen tekoäly on arjessa jo kaikkialla: se luonnostelee sopimuksia, tiivistää raportteja, kirjoittaa koodia, tekee kuvia ja vastaa asiakkaalle. Generatiiviseen tekoälyyn kuuluvat tekstiä tuottavat chatbotit kuten ChatGPT, kuvia tuottavat palvelut kuten Midjourney sekä muut vastaavat uutta sisältöä tuottavat tekoälypalvelut. Toisin kuin perinteinen, kapeaksi määritelty ennustava tekoäly, generatiivinen tekoäly osaa tuottaa uutta sisältöä avoimesta ja epämääräisestäkin pyynnöstä. Tulokset ovat usein ainakin pinnallisesti tarkasteltuina vakuuttavan oloisia. Ja juuri siksi saatamme ottaa tekoälyn tuotokset todesta, silloinkin kun ei pitäisi. Tämän vuoksi on tarpeen tarkastella nimenomaan generatiiviseen tekoälyyn liittyviä eettisiä kysymyksiä.
Perinteiset tekoälyn eettiset periaatteet kuten oikeudenmukaisuus, yksityisyys, läpinäkyvyys, vastuu, vahingon välttäminen pätevät edelleen. Generatiivinen tekoäly ja sen erityispiirteet tuovat kuitenkin niiden rinnalle eettisesti kestävään tekoälyn kehittämiseen ja käyttöön kuusi käytännönläheistä painotusta.
1) Tekijänoikeudet ja omistajuus
Generatiivinen tekoäly ei hakeudu alkuperäislähteeseen, vaan mallintaa tilastollisia jakaumia. Silti tietyissä olosuhteissa se voi tuottaa lähdettä muistuttavaa tekstiä tai kuvaa ja saattaa näin rikkoa tekijänoikeuksia. Tämän vuoksi rajanveto vaikutteen, muuntelun ja luvattoman rekonstruktion välillä on usein käytännössä hankalaa.
Tekijänoikeuksiin ja omistajuuteen liittyen puhutaan tuotetun sisällön nk. syntytarinasta eli provenanssista eli siitä, kuka teki mitä, milloin, millä välineillä ja oliko tekoäly mukana. Teknisesti provenanssia voidaan toteuttaa esimerkiksi upottamalla C2PA-tyyppinen metatieto sisältöön tai tallentamalla se erilliseen rinnakkaistiedostoon.[1] Provenanssi on siis läpinäkyvyyttä sisällön alkuperään ja syntyhistoriaan. Läpinäkyvyyden lisäksi generatiivista tekoälyä käyttävät ihmiset tarvitsevat mahdollisimman selkeitä käyttöehtoja ja -rajoitteita, tyyliin “älä koskaan syötä tekoälylle luottamuksellista tai tekijänoikeuden alaista materiaalia”.
Tekijänoikeuksiin ja omistajuuteen liittyvät haasteet voidaan jakaa mallin koulutukseen, inferenssiin sekä tuotosketjuun.
- Mallin koulutus: onko generatiivisen tekoälymallin kouluttajalla ylipäätään lupa käyttää ko. aineistoa? Tähän liittyy nk. käyttötarkoitussidonnaisuus. Data, joka on kerätty tiettyyn tarkoitukseen (esim. palvelukokemuksen parantaminen), ei välttämättä ole lain tai lisenssin mukaan uudelleenkäytettävissä mallin koulutukseen ilman erillistä suostumusta tai sopimusperustetta. Julkinen verkko ei tarkoita vapaata käyttöä: tekijänoikeudet, lisenssit ja palveluehdot voivat rajoittaa massalouhintaa ja jälkikäyttöä.
- Inferenssi: voiko tekoälymalli “muistaa” ja rekonstruoida alkuperäisiä teoksia tai henkilötietoja? Tähän liittyvät nk. mallimuisti (model memory) ja inversioriski (inversion). Suuret tekoälymallit voivat “muistaa” harvinaisia tai uniikkeja ilmauksia ja kuvia koulutusaineistosta, jolloin sopivilla kehotteilla malli tuottaa lähes sellaisenaan henkilötietoja tai tekijänoikeuden alaista sisältöä. Lisäksi ns. jäsenyys- ja inversiohyökkäyksillä voidaan päätellä, kuuluiko tietty henkilö tai dokumentti koulutusaineistoon, tai rekonstruoida osia siitä.
- Tuotosketju: kuka omistaa syntyvän sisällön, kun se on tilkkutäkki suuresta määrästä erilaisia vaikutteita? Palveluntarjoajat usein lupaavat, että käyttäjä “omistaa” tuotoksen. Mutta miten on omistajuuden laita, jos ihmisen luova panos on vähäinen tai teos on pitkälti mallin tuottama johdannainen?
Omistusoikeuden ja sen suojan lisäksi vastuu ja todistettavuus ovat merkittäviä haasteita. Ilman kunnollista alkuperäketjua (sisällön syntyhistorian jäljitettävyys) on vaikea näyttää, ettei tuotos sisällä luvatta lainattuja osia tai riko lisenssejä; piiloriskejä ovat myös tyylin tai persoonan luvaton hyödyntäminen, tavaramerkit ja yksityiselämän suojaan liittyvät oikeudet, mikä vaikeuttaa vastuiden ja korvausvelvollisuuden jakamista.
Mitä organisaatio voi tehdä?
- Laadi tekijänoikeuksiin liittyvistä asioista selkeät kirjalliset pelisäännöt.
- Varmista, että. että nämä pelisäännöt ovat tekoälyä käyttävien ihmisten tiedossa.
- Lisää tekoälyn tuotoksiin alkuperämerkintä (esim. tieto siitä, että sisältö on tekoälyn tuottamaa) ja mahdollisuuksien mukaan sisällön alkuperäketju (provenanssi)
2) Totuudenmukaisuus

Monissa generatiivisen tekoälyn käyttötapauksissa sisällön totuudenmukaisuus on paitsi ratkaiseva laatukriteeri, myös keskeinen eettinen periaate. Laaja kielimalli ennustaa tilastollisesti todennäköisiä seuraavia sanoja, lauseita ja tekstikappaleita. Se ei tarkista faktoja, ellei sille anneta työkaluja siihen. Siksi se voi keksiä vakuuttavan mutta virheellisen vastauksen ja jopa lähteitä, joita ei ole olemassa.
Mitä organisaatio voi tehdä?
- Varmista, että ulkoiseen käyttöön menevän sisällön tarkistamisesta ja hyväksymisestä vastaa lähtökohtaisesti aina ihminen.
- Ankkuroi generatiivinen tekoäly mahdollisuuksien mukaan organisaation omiin, luotettaviin lähteisiin. Tällöin malli hakee ensin organisaation tietokannoista tai dokumenteista, ja näyttää lähteet.
- Määrittele totuudenmukaisuudelle objektiivisia mittareita, esim. montako väitettä voidaan osoittaa todeksi, montako virhettä teksti sisältää, onko tekstissä lähdeviitteet ja ovatko lähdeviitteet todellisia ja relevantteja. Tekoälyn suorittama itsearviointi ei ole tässä suhteessa riittävää.
3) Häiriönsietokyky ja resilienssi
Generatiivisen tekoälymallin häiriönsietokyvyllä eli robustiudella tarkoitetaan arkisesti sitä, miten hyvin se kestää outoja, poikkeavia tai ilkeämielisiä pyyntöjä. Generatiivista tekoälyä voidaan esimerkiksi yrittää houkutella ohittamaan sääntöjä (jailbreak) tai muuttaa kehotteen sanamuotoja vastauksen sävyn kääntämiseksi toisenlaiseksi ja mahdollisesti eettisesti ongelmalliseksi
Mitä organisaatio voi tehdä?
- Aseta selkeät käyttöoikeudet ja turvarajat: mihin sovelluksiin ja järjestelmiin malli saa kytkeytyä (esim. sähköpostiin, tilaustyökaluun) ja millä oikeuksilla.
- Testaus ja valkohattuhakkerointi: yritä itse rikkoa malli ennen kuin joku muu tekee sen.
- Pidä käytössä nk. tappokytkin, jos malli alkaa käyttäytyä oudosti, yhteys taustajärjestelmiin voidaan katkaista välittömästi.
4) Haitallisen käytön tunnistaminen
Se, että malli osaa tuottaa sujuvaa tekstiä, toimii myös huijausviesteissä, valeuutisissa ja identiteettivarkauksissa. Generatiivinen tekoäly kasvattaa väärän tiedon määrää: kun roskaa saa nopeasti ja käytännössä ilmaiseksi, määrällä voi peittää näkyvistä laadun.
Mitä organisaatio voi tehdä?
- Rajaa käyttötilanteita: estä tekoälyä antamasta ohjeita, jotka ovat selvästi vahingollisia.
- Lisää alkuperämerkintä sisältöön, jotta tekoälytuotos on tunnistettavissa.
- Pidä yllä ilmoituskanava väärinkäytöksille ja seuraa, millaista sisältöä tekoäly tuottaa ja minne se leviää.
5) Sosiokulttuurinen vastuu
Generatiiviset tekoälymallit oppivat tyypillisesti niistä aineistoista, joita on tarjolla eniten ja helpoiten. Se tarkoittaa isoja kieliä, mutta myös tiettyjä kulttuureja ja tiettyjä näkökulmia. Nk. ihmispalaute mallin hienosäädössä tarkoittaa käytännössä sitä, että joku viime kädessä päättää, mikä on sopivaa ja mikä ei.
Mitä organisaatio voi tehdä?
- Testaa tekoälyä monikielisesti ja eri käyttäjäryhmillä – ei vain englanniksi tai yhden tiimin sisällä.
- Kerro avoimesti, millaisia linjauksia sisällön moderoinnissa noudatetaan (esim. mitä malli sensuroi ja miksi).
- Keskustele sidosryhmien kanssa: asiakkaat, sisällöntuottajat ja oma henkilöstö. Mihin työhön generatiivinen tekoäly vaikuttaa ja miten, ketä se hyödyttää ja ketä voi syrjäyttää?
6) Ihmiskeskeisyys
Ihmisen hyväksyntä sisällölle ei auta, jos käyttöliittymä ohjaa kopioimaan nopeasti ja lähteiden tarkistus on piilotettu. Tekoälyn sujuva kielellinen ilmaus ja chat-tyyli voi luoda katteetonta luottamusta ja harkitsematon käyttöliittymä voi ohjata ihmisen hyväksymään tekoälyn tuotokset kritiikittä.
Mitä organisaatio voi tehdä?
- Tee epävarmuus näkyväksi käyttäjälle: Tekoäly voi esimerkiksi generoida vastauksensa useita kertoja taustalla ja informoida käyttäjää, verrata näitä keskenään ja informoida käyttäjää, jos vastaukset poikkeavat toisistaan merkittävästi. Kysymys tai kehote voidaan myös antaa useille tekoälymalleille yhtä aikaa ja tämän jälkeen arvioida tulosten yhdenmukaisuutta.
- Näytä lähteet ja tee niiden avaamisesta yhtä helppoa kuin tekstin kopioinnista. Harkitse lähteistämättömän tekstin kopioimisen rajoittamista.
- Tarjoa eri käyttäjäryhmille erilaiset näkymät: asiantuntijalle enemmän läpinäkyvyyttä perusteluihin ja rajoitteisiin kuin satunnaiselle käyttäjälle.
Kolme käytännön suositusta arkeen
- Prioriteetit riippuvat käyttötapauksesta. Ulkoisessa viestinnässä totuudenmukaisuus ja lähteet ovat keskeisessä roolissa. Sisäisessä ideoinnissa puolestaan korostuvat esim. ihmiskeskeisyys ja häiriönsieto.
- Tee vaihtokaupat näkyviksi. Läpinäkyvyys voi törmätä yksityisyyteen; haitan vähennys voi törmätä sananvapauteen. Dokumentoi ja kommunikoi ristiriidat ja tehdyt valinnat.
- Seuraa ja korjaa. Generatiiviset tekoälymallit, niiden käyttö ja toimintaympäristö muuttuvat. Seuraa virheitä ja paranna jatkuvasti – tämä on prosessi, ei kertarykäisy.
Generatiivinen tekoäly on uusi tapa olla vuorovaikutuksessa informaation kanssa. Sama järjestelmä keksii, kirjoittaa ja keskustelee – ja koskettaa samalla viestintää, tietosuojaa, turvallisuutta, brändiä ja työn organisointia. Generatiivisen tekoälyn etiikka ei voi olla vain kokoelma kauniita sanoja tai lista yleviä periaatteita.
Tämän vuoksi usein abstraktit eettiset periaatteet pitää kääntää arkisiksi käytännöiksi tekoälyä hyödyntävissä organisaatioissa: miten tekojärjestelmä on rakennettu, millaisin tarkistuksin ja turvamekanismein sitä käytetään, miten järjestelmän toimintaa mitataan ja kuka on vastuussa. Tarvitaan siis suunnittelua, prosesseja, rutiineja, mittareita ja rajoja sekä nämä integroiva hallintamalli. Tämän lisäksi tarvitaan auditointiratkaisuja, joilla organisaatiot voivat mitata, arvioida ja kommunikoida käyttämiensä tekoälyratkaisujen toimintaa.
Kirjoituksen pohjana ja inspiraationa on toiminut julkaisumme.
Laine, J., Minkkinen, M., & Mäntymäki, M. (2025). Understanding the ethics of generative AI: Established and new ethical principles. Communications of the Association for Information Systems, 56(1), 7.
[1] C2PA tulee sanoista Coalition for Content Provenance and Authenticity, joka on kyseisen standardin määrittäjä.
Kuva: Google DeepMind on Unsplash

Matti Mäntymäki, professori, tietojärjestelmätiede, Turun yliopisto. KTT Matti Mäntymäki sai vuonna 2020 Liikesivistysrahaston datatalouden painoalueella 50 000 euron apurahan tutkimusryhmän hankkeelle ”Governance of Artificial Intelligence”.

Joakim Laine, väitöskirjatutkija, tietojärjestelmätiede, Turun yliopisto

Matti Minkkinen, tutkijatohtori, tietojärjestelmätiede, Turun yliopisto