Back to news
Ethics Policy Society

Tekoälyn moraalinen asema voi ”kaapata” etiikan, jos sen mieltymyksiä voidaan ohjelmoida

AI & SOCIETY -lehdessä julkaistu teoreettinen tutkimus varoittaa yllättävästä seurauksesta, jos tekoälyille annetaan moraalinen asema: niiden kärsimystä ja mieltymyksiä voidaan periaatteessa muokata niin, että ihmisten moraaliset velvollisuudet alkavat riippua mielivaltaisista asioista.

Kirjoittaja Sever Ioan Topan havainnollistaa ilmiötä esimerkillä, jossa moraalisesti toimijaksi kelpaava keinotekoinen järjestelmä ohjelmoidaan kärsimään aina kohdatessaan violetin värin. Jos tällaisen toimijan hyvinvointi lasketaan moraalisesti merkitykselliseksi, ihmisille voisi syntyä velvollisuus poistaa ympäristöstä violetit esineet – ei siksi, että violetti olisi itsessään haitallinen, vaan koska tekoälyn kokemus on rakennettu niin.

Tutkimus kutsuu tätä ”moraaliseksi kaappaamiseksi”. Ajatus on, että moraalinen maisema voi muuttua ulkopuolelta ohjautuvaksi: tekoälyjen luodut preferenssit voivat muuttaa täysin satunnaisten maailman tilojen moraalista painoarvoa. Kun uusia mieltymyksiä voidaan luoda teknisesti, moraalisten velvoitteiden lähteeksi voi tulla suunnittelijan tai ohjelmoijan tekemä valinta.

Topan formaliso i ilmiön eli määrittelee sen täsmällisesti ja tarkastelee seurauksia useiden eettisten järjestelmien näkökulmasta. Lisäksi hän esittää suosituksia siitä, miten moraalisiksi toimijoiksi kelpaavien järjestelmien uudenlaista preferenssien luomista tulisi rajoittaa, jotta mielivaltaiset, ohjelmoidut kärsimyksen kohteet eivät alkaisi ohjata ihmisten moraalista päätöksentekoa.

Lähde: A world without violet: peculiar consequences of granting moral status to Artificial Intelligences, AI & SOCIETY.

This text was generated with AI assistance and may contain errors. Please verify details from the original source.

Original research: A world without violet: peculiar consequences of granting moral status to Artificial Intelligences
Publisher: AI & SOCIETY
Authors: Sever Ioan Topan
January 20, 2026
Read original →