Tekoälyn etiikka

Minna Sipilä

Tekoäly-käsitteen noustessa koko kansan tietoisuuteen on hyvä miettiä mistä oikeastaan on kysymys. Termin tiimoilla voisikin palata vanhojen käsitteiden pariin määrittelemällä tekoälyn vaikeiden asioiden automatisoinniksi. Tekoäly on siis automaattista tietojen käsittelyä uudella tavalla. Tietokoneiden laskentakapasiteetin kasvun myötä ne kykenevät yhä vaativampiin laskennallisiin tehtäviin. Tämä yhdistettynä pilvipalveluiden tarjontaan, joiden kehitys on mahdollistanut datan tehokkaan keräämisen, luo koneille aivan uudenlaisia mahdollisuuksia tietojenkäsittelyn parissa.

Koneoppiminen voidaan terminä selittää asioiden yleistämiseksi – sen avulla tietokone kykenee luokittelemaan dataa sekä antamaan luokittelun perusteella ennusteita. Tämä kaikki perustuu tehokkaaseen laskentaan, jossa kyetään huomioimaan asioiden välisiä suhteita ja vaikutuksia. Koneoppimisessa käytetyt algoritmit opetetaan siis yleistämään, jonka jälkeen ne auttavat ihmistä päätöksenteossa. Usein näiden päätöksien kohteena on kuitenkin ihminen, jonka vuoksi onkin tärkeää miettiä asian eettistä puolta.

Filosofi, valtiotieteen tohtori Maija-Riitta Ollila määrittelee etiikan lyhyesti sanomalla sen olevan ”moraalin teoreettista pohdiskelua, kun moraali taas on käytännön hyvän elämän tavoittelua: arvoja, käytäntöjä ja toimintatapoja.” Tekoälyn etiikassa tuleekin korostaa yksilön autonomiaa, jolloin ihmisillä säilyisi valta siitä, mitä päätöksiä koneen annetaan tehdä heidän puolestaan. Koska tekoälyssä käytettyjen algoritmien lähdeaineistona käytetty data on ihmiseltä peräisin, oppii myös kone syrjimään, mikäli ihminen syrjii. Suurimpana ongelmakohtana tällä hetkellä lienee se, ettei ole olemassa ihmistä käsittelevää dataa, joka ei ole millään tavalla vinoutunutta. Koneoppimisen malleille tulisikin löytää ratkaisu, kuinka pysyä päätöksessä, vaikka siihen kohdistuvan ihmisen etnisyyttä tai sukupuolta muutettaisiin. Tällöin kone ei oppisi syrjimään esimerkiksi naisia työnhakutilanteissa. Koska koneen tekemät päätökset ovat yleistämistä, se voi saatavilla olevan datan perusteella esimerkiksi yleistää mieshakijoiden olevan soveliaampia esimerkiksi johtotason työtehtäviin. Tämä perustuu siihen, että miesjohtajia on määrällisesti enemmän lähdeaineistona käytetyssä datassa. (Tekniikan Maailma, 2019)

Tekoälyyn liittyy kahdenlaisia tiedollisia riskejä. Helppona tiedollisena riskinä voidaan nähdä datan vinoutuminen. Järjestelmä ei itsessään tunnista vinoutumista, mutta sitä käyttävä ihminen kykenee havaitsemaan sen helposti ja korjaamaan tilanteen. Vaikeita tiedollisia ongelmia ovat monimutkaiset tiedolliset riskit, joissa järjestelmässä itsessään on ominaisuus, jota on ulkoapäin vaikea havaita. Tämä johtuu siitä, että ne ovat laskennallisesti niin monimutkaisia tai tekoälyssä käytetyt neuroverkot sisältävät niin paljon piilokerroksia, ettei päästä näkemään miksi järjestelmä toimii niin kuin toimii. Tämän vuoksi tekoälyyn perehtyneet tutkijatkaan eivät ole valmiita ulkoistamaan kokonaisvaltaista ihmistä koskevaa päätöksen tekoa koneelle, vaan tekoälyn halutaan toimivan päätöksenteon tukena. (Rusanen & Koskinen, 2018)

Kun tekoälyn myötä yhä useampi rutiininomainen tietojenkäsittelyyn liittyvä työtehtävä voidaan siirtää koneiden tehtäväksi, se tulee muokkaamaan työelämän rakenteita tulevaisuudessa. Työ on suuri osa ihmisten identiteettiä, joten on syytä pohtia kuinka ihmisten sopeutuminen automaation ja tekoälyn tuomiin muutoksiin varmistetaan. Jos autonomisen liikenteen avulla vähennetään merkittävästi liikenneonnettomuuksia, mutta sen myötä ihmiset menettävät työpaikkoja, onko lopputulema silti eettinen? Koska tekoälyä hyödyntävät yritykset voivat vähentää merkittävästi työvoimaansa pitäen taloudellisen statuksensa vähintään samana, edistääkö tämä eriarvoisuuden kasvamista entisestään? Tekoälyä koskeva päätöksenteko jää tällä hetkellä sellaisten ihmisten käsiin, jotka siitä eniten ymmärtävät, ja näin ollen todennäköisesti myös työskentelevät sen parissa. Kuinka siis voimme varmistaa, että päätökset tehdään puolueettomasti myös taloudellisesta näkökulmasta? Tästä syystä jokaisen meistä tulisi kasvattaa ymmärrystään tekoälyn perusteista ainakin siihen pisteeseen, jossa kykenemme osallistumaan tekoälyyn liittyvään päätöksentekoon omasta näkökulmastamme. Näin takaisimme demokraattisen päätöksenteon myös tekoälyyn liittyvissä asioissa.

Myöskään tietoturvan tärkeyttä ei tule vähätellä. Koska algoritmien tekemät päätökset perustuvat niille syötettyyn lähdeaineistoon on tärkeää, ettei sitä päästä manipuloimaan. Manipuloinnin seurauksena algoritmit voivat muuttaa toimintaansa radikaalisti, jolloin seuraukset saattavat olla jopa tuhoisia.

Autonomisten aseiden myötä sotia voidaan käydä etäältä, eikä kuolemanpelko enää hillitse tappamista. Tällaisten aseiden käytön rajoittamien on hankalaa, koska autonomisuudessa on useita asteita ja on vaikea sanoa milloin jokin asetyyppi täyttää nämä kriteerit. Koska kaikki tekoälysovellukset eivät ole yhtä riskialttiita, tarvitsemme kyvyn tunnistaa sellaiset tekoälysovellukset, jotka kaipaavat vaikuttavuutensa vuoksi erityishuomiota. Tekoälylle suunnatut eettiset vaatimukset tulisikin osata kohdentaa sopivissa puitteissa käyttökohdetta ajatellen. Siinä on suuri ero, toimiiko tekoäly verkkokaupan suosittelijana vai vakavien sairauksien riskiryhmien tunnistajana. Tekoälyyn liittyvät eettiset säännöt tulisi luoda toimialakohtaisesti myös siitä syystä, että lainsäädäntömme on sektorikohtaista. Tällöin lainmukaisuuden merkitys korostuisi myös tekoälyn kontekstissa.

Kaikilla olisi hyvä olla jonkin tasoinen tietämys tekoälystä. Jotta kykenemme rakentamaan tekoälyaikaa eettisten periaatteiden mukaan, tulisi meidän käsittää mistä puhutaan. Tekoälysovellukset täytyy pitää mahdollisimman läpinäkyvinä, jotta kansalaisten luottamus niihin säilyy. Ihmisten tulee tietää mihin heitä koskevat valinnat perustuvat, jotta luottamus voi syntyä ja kehitys tekoälyn parissa jatkua.

Lähteet:

Rusanen, A.-M. & Koskinen, I. 2018. Tiede, tekoäly ja tiedolliset riskit. Www-julkaisu. Saatavilla: https://www.researchgate.net/publication/330089291_Tiede_tekoaly_ja_tiedolliset_riskit Luettu 10.6.2019

Tekniikan Maailma 2019. Tekoäly tulisi saada kestävän kehityksen tueksi. Www-julkaisu. Saatavilla: https://tekniikanmaailma.fi/lehti/9b-2019/tekoaly-tulisi-saada-kestavan-kehityksen-tueksi/ Luettu 10.6.2019

Minna Sipilä
TKI-kehittäjä
Centria-ammattikorkeakoulu
p. 040 6319782

 

Facebooktwitterlinkedinmail