Skip to Content

Tekoälyn eettisyys ja läpinäkyvyys tukee liiketoimintaa ja turvaa mainetta

Jaakko Lehtinen
12 Dec 2019

Tekoälyratkaisujen yleistymisen myötä myös ratkaisujen eettisyyteen liittyvät haasteet nousevat esiin. Tässä blogitekstissä käsitellään tekoälyn soveltamisen etiikkaa ja tekoälyn päätöksenteon läpinäkyvyyttä liiketoiminnassa: milloin eettisyys on ylipäänsä olennaista, kuinka se huomioidaan kehitysvaiheessa, ja kuinka tekoälyn tekemiin virheisiin tulisi varautua?

Capgemini Research Instituten hiljattaiset tutkimukset kuluttajien suhtautumisesta tekoälyyn näyttävät, että sekä kuluttajat että työntekijät kuvaavat luottavansa enemmän organisaatioihin, jotka käyttävät heidän mielestään tekoälyä eettisellä tavalla.

Itsekin uskon, että viimeistään tekoälyn toimintaan liittyvien kohujen tai tekoälyn eettisyyden julkisen kyseenalaistamisen myötä kuluttajien asenne tekoälyratkaisua käyttävään yritykseen voi merkittävästi muuttua. Muutenkin tekoälyn kehityksen harppaukset herättävät kuluttajissa jopa pelkoa – pohdin tekoälyn kehityksen herättämiä ajatuksia muutaman viikon takaisessa kirjoituksessa “Are you afraid of AI? Should you be?”

Mitä on tekoäly?

Tekoäly on terminä hankala käytettäväksi, sillä se ei aina tarkoita yksiselitteisesti yhtä ja samaa asiaa. Tässä kirjoituksessa tekoälyllä tarkoitetaan yksinkertaisesti mitä tahansa tietokoneohjelmaa, joka tekee älykkäitä toimintoja tai päätöksiä. Älykkäät päätökset taas voivat edellyttää monimutkaisia arviointeja, monien eri seikkojen huomioimista, sekä kykyä oppia tai päätellä asioita tai toimintamalleja aiemmin nähtyjen mallisuoritusten tai historiallisen tiedon perusteella.

Toisaalta taas tekoäly viittaa erilaisiin kyvykkyyksiin, kuten kielelliseen ymmärtämiseen tai hahmontunnistukseen. Jotkut pitävät tekoälynä sellaisia ohjelmia, jotka käsittelevät asioita “ihmismäisesti”.

Jokapäiväistyneitä esimerkkejä tekoälystä ovat esimerkiksi kasvojentunnistusohjelmat, verkkopalvelun käyttäytymisen perusteella tehtävät suosittelut verkkokaupoissa tai sosiaalisen median palveluissa, tai vaikkapa puhelimissa mukana tuleva puheentunnistus. Tekoälyteknologioiden avulla voi nykyään toteuttaa jopa sävellyksiä tai runoja tehtailevia botteja tai tiettyyn rajaan saakka myös itseajavia ajoneuvoja.

Mikä tekee tekoälyn käytöstä epäeettistä?

Jatkossa yhä isompi osa päätöksistä tullaan tekemään tekoälyn tukemana tai kokonaan tekoälyllä. Kun päätöksentekoa siirretään ihmisiltä koneille, voi erityisesti tekoälyn liiallinen itsenäisyys nousta herkemmin kritiikin kohteeksi.

Tekoälyn käytön eettisyyteen voi liittyä ongelmia esimerkiksi silloin, kun:

  • tekoälyä käytetään merkittävissä ihmisten hyvinvointiin tai selviytymiseen liittyvissä päätöksissä
  • tekoälyn päätöksentekoprosessia ei täysin ymmärretä
  • ei oteta päätöksenteon eettisyyteen liittyviä tekijöitä ja riskejä huomioon
  • tekoäly koetaan ihmismäisellä tavalla monipuolisesti älykkääksi ja käyttöönoton jälkeen siihen uskotaan kyseenalaistamatta kaikissa tilanteissa
  • tekoälyn päätöksiin liittyviin valituksiin tai korjauspyyntöihin ei haluta tai osata puuttua
  • tekoälyn ja sille syötettävän datan todellisia syy–seuraussuhteita ei ymmärretä tai hahmoteta oikein, mikä johtaa toivotun tai oletetun vastaiseen toimintalogiikkaan

Eettisyysnäkökulman korostaminen tekoälyä kehitettäessä ja testattaessa auttaa osaltaan muutenkin varmistamaan, että se tekee päätöksiä luotettavasti ja sillä tavalla kuin sen on tarkoituskin.  Oikeastaan olisikin parempi puhua yleisemmin tekoälyn ja koko yrityksen prosessin virheettömyydestä, uskottavuudesta ja luotettavuudesta, eikä pelkästään etiikasta irrallaan.

Jos tekoäly päättää aina yksin, ongelmia voi tulla

Aivan kuten ihmistenkin tekemät virheet, myös tekoälyn virheet voivat aiheuttaa konkreettista vahinkoa yksittäisille ihmisille. Seuraukset yksilölle voivat ainakin teoriassa olla kohtuuttomia esimerkiksi silloin, jos hoitopäätöksiä tekevä tietokoneohjelma jättää sairaita hoitamatta, tai jos yritysten päätöksenteko-ohjelma systemaattisesti mutta perusteettomasti evää lainat, luotot ja vakuutukset tietynlaisilta henkilöiltä tai ryhmiltä.

Kaikkien mahdollisten riskien tunnistaminen ja ennalta ehkäiseminen ei välttämättä ole itsestään selvä tai helppo tehtävä. Kuvitteellisessa datassa voisi esimerkiksi olla joko tarkoituksella tai vahingossa tieto kunkin henkilön kengän koosta. Jos kyse on rekrytoinnista tai luottopäätöksistä, luultavasti tekoälyn kehittäjät ovat saaneet ohjeen, jonka mukaan henkilön sukupuoli ei saa vaikuttaa algoritmin päätökseen. Jokainen meistä tietenkin ymmärtää, että kengän koko korreloi vahvasti sukupuolen kanssa ja tämä ns. proxy-muuttuja välillisesti kertoo hakijan sukupuolesta paljonkin, vaikka data itsessään ei sisältäisi tätä tietoa. Oikeassa elämässä esimerkit voivat olla paljon monimutkaisempia.

Esimerkiksi viime viikkojen uutisten mukaan Applen luottopäätöksiä tekevä tekoäly näyttää syrjivän naisia, mutta ongelman selvittäminen ja korjaaminen on osoittautunut hankalaksi. Käytössä oleva data ei nimittäin sisällä tietoa sukupuolesta, eivätkä ongelmaa tutkivat ihmistestaajat kykene erottamaan testiaineistossa miehiä ja naisia toisistaan.

Viime aikoina keskustelua onkin käyty paljon siitä, pitääkö tekoälyn toiminnan olla selitettävissä. Sekään aihe ei kuitenkaan ole helppo, eikä siihen ole yksiselitteistä oikeaa vastausta.

Ristiriitaisuutta aiheuttaa se, että nykyisin parhaita tuloksia saavutetaan usein ns. deep learning -tekniikalla. Syväoppivan tekoälyn päätöksentekologiikkaa ei kuitenkaan ainakaan tällä hetkellä pystytä selittämään selkokielisesti ihmisille. Nyt alalla pohdiskellaan, pitäisikö yritysten siis tyytyä huonommin suoriutuviin ratkaisuihin, jotka ovat selitettävissä, vai käyttää tilastollisesti parhaiten suoriutuvaa algoritmia, vaikka sen logiikka ei ole selitettävissä eikä sen tekemä yksittäinen päätös ihmisten ymmärtämällä kielellä perusteltavissa.

Näin luot tekoälylle eettiset perustukset

Tekoälyn eettinen hyödyntäminen vaatii tiettyjä hyviä käytänteitä jo kehitysvaiheessa. Tässä on muutamia konkreettisia esimerkkejä tekoälyn eettisen pohjan takaamisesta:

  • Varmista, että tekoälyn hyödyntämä data on luotettavaa, tasapuolista ja mahdollisimman virheetöntä.
  • Varmista, että tekoälyn päätöksiä tai ehdotuksia sovelletaan suunnitellulla tavalla: esimerkiksi ihmistä avustavaksi tarkoitettu tekoäly ei saisi päätyä tekemään itsenäisiä ja lopullisia päätöksiä.
  • Varmista, että tekoälyratkaisua käyttävät ihmiset tietävät, miten kehitysehdotuksia tai virhe-epäilyksiä raportoidaan.
  • Varmista testaamisen ja laadunhallinnan säännöllisyys. Kyse ei ole vain toteutusprojektin laadusta, vaan myös toimintaympäristöä, tekoälyn päätösten virheettömyyttä ja päätösten seurauksia on mietittävä.
  • Jos tekoälyn selitettävyys on tärkeää, pidä tekoälyn päätöksentekologiikka mahdollisimman läpinäkyvänä ja tarvittaessa muokattavana.
  • Älä hosu tekoälyn laajassa käyttöönotossa, jos virheet voivat aiheuttaa merkittäviä haittoja ja edellä mainitut asiat eivät ole kunnossa.

Myös suuret teknologiayhtiöt painivat tosissaan tekoälyn selitettävyyden ja tekoälyratkaisujen eettisyyden parissa. Viimeisin ulostulo oli marraskuussa, kun Google julkaisi uuden Explainable AI Frameworkin, jonka tarkoitus on tukea selitettävän ja ns. kaikenkattavan tekoälyn kehittämistä. Jotkut ovat moittineet työkalujen olevan vielä melko vaatimattomia, mutta toisaalta tämäkin tuotejulkistus osoittaa, mihin toimialalla tällä hetkellä panostetaan.

Tekoäly parhaimmillaan helpottaa työtä ja kehittää asiakaskokemusta

Vaikka esitellyt riskit voivat olla vakavia, tekoäly ei yleensä ole vaarallinen, vaan pikemminkin suositeltava väline liiketoiminnan käyttöön. Tekoälystä voi tehdä itsenäisen, tai sen asema voi olla enemmän avustava ja ihmisen päätöksentekoa nopeuttava, riippuen aivan prosessista, päätöksenteon monimutkaisuudesta ja virheellisten päätösten mahdollisista seurauksista.

Vaikka tietyissä tilanteissa tekoälyn päätöksillä voi olla vaikutuksia ihmisten hyvinvointiin, ja toiminnan virheistä voi seurata myös merkittäviä mainehaittoja, eivät suinkaan kaikki tekoälyratkaisut ole yhtä riskialttiita tai kaikki tekoälyn tekemät virheet ole yhtä vakavia. Kun tekoälyä käytetään esimerkiksi pienten summien kirjanpidollisiin askareisiin, riskit ovat melko pienet. Tällaisia tehtäviä voi ulkoistaa tekoälylle vailla pelkoa.

Asiakaspalveluun saapuvien viestien laittaminen oikeisiin työjonoihin on myös hyvä esimerkki tehtävästä, jossa yksittäinen virhe saattaa hidastaa kyseisen tiketin käsittelyä, mutta jossa ison osan työstä täysin itsenäisesti suorittava tekoäly kuitenkin luultavasti parantaa käsittelynopeutta ja palvelukokemusta huomattavasti.

Vaaditaankin liiketoiminnan johdolta viisautta tunnistaa, missä asioissa ja toiminnoissa tekoälyn eettisyys tai virheettömyys ylipäänsä on olennainen asia, johon pitää panostaa. Ihmistenkin työn laatua tarkkaillaan, ja samoin tekoäly usein vaatii laadunvalvontaa. Jos on syytä epäillä, että tekoäly on tehnyt virheitä, pitää sen selvittämistä varten olla valmiina selkeät prosessit. Tekoälyn virheellisiin päätöksiin pitää pystyä reagoimaan, ja joskus jopa laki voi edellyttää tekoälyltä selitettävyyttä.

Haluatko oppia lisää tekoälyn eettisestä käyttöönotosta?

Tekoäly ja tietokoneohjelmat eivät ajattele kuten ihmiset, eivätkä ne osaa olla tietoisesti kilttejä, ilkeitä, suvaitsevia, syrjiviä, eettisiä tai epäeettisiä.

Kuitenkin liiketoiminnan käyttämän tekoälyn toimintaperiaatteiden täytyy kestää tarkempi tarkastelu. Capgeminin tutkimuksen mukaan yli kolmasosa vastanneista kuluttajista vaatisi epäeettisissä tilanteissa yritykseltä selitystä päätökseen, ja yli kolmasosa lopettaisi yrityksen kanssa asioimisen kokonaan. Vastaavasti lähes neljännes levittäisi yrityksen epäeettisyydestä tietoa ystävilleen tai sosiaaliseen mediaan. Esimerkiksi aiemmin mainitsemani Apple Cardin sukupuolisyrjintää koskevan kohun myötä internetissä leimahti, kun kuluttajat sättivät Applea sanojaan säästelemättä.

Vaikka elämmekin kehittyneen teknologian aikaa, maalaisjärjen merkitys ei ole vähentynyt. Kunhan organisaatiossa on kunnolla suunnitellut toimintamallit tekoälyn hyödyntämiseen, kuuluu tekoäly monissa muodoissaan ehdottomasti tärkeänä osana jokaisen eteenpäin katsovan yrityksen digitaalisten innovaatioiden ja panostuskohteiden joukkoon.

Lataa Capgeminin tutkimus ”Why addressing ethical questions in AI will benefit organizations”.

Lataa johdon opas onnistuneeseen automaatiohankkeeseen

Capgeminin pohjoismaisen älykkään automaation osaamiskeskuksen johtajan Jaakko Lehtisen ja johtavana konsulttina toimivan Kustaa Kivelän kokoama opas onnistuneeseen automaatiohankkeeseen tarjoaa kattavan läpileikkauksen automaatiohankkeen läpivientiin ja skaalaukseen.

Kirjoittaja Jaakko Lehtinen johtaa Capgeminin pohjoismaista älykkään automaation osaamiskeskusta. Jaakko on yksi ohjelmistorobotiikan suomalaisista pioneereista. Hän on työskennellyt täysipäiväisesti tietotyön automaatiohankkeiden parissa yli neljä vuotta ja päässyt käytännössä kokemaan miten automaatiota on toteutettu lukuisissa eurooppalaisissa yrityksissä ja eri toimialoilla. Aiemmin Jaakko on toiminut monissa palvelutuotannon sekä ulkoistus- ja IT-palveluiden kehitystehtävissä. Jaakko seuraa aktiivisesti ilmiöitä uusien teknologioiden ympärillä sekä pääsee päivittäin kokemaan käytännössä miten uudet teknologiat vaikuttavat tietotyöhön.

Author

Jaakko Lehtinen

Director of Automation, AI & Analytics, Sogeti