Tekoäly päätti – sinä jäit jonoon
Yksi tekoälyn vastuullisuuteen liittyvistä tekijöistä on oikeudenmukaisuus. Kuitenkin sinä ja minä, lähes kaikki ihmiset, jotka käyttävät tekoäly palveluita – tietoisesti tai tietämättään – ovat törmänneet siihen, että tämä jalo aatos ei aina toteudu.
Otetaan yksi käytännön esimerkki, jonka allekirjoittanut vastikään koki. Lentoyhtiö peruutti suoran lentoni Miamista Helsinkiin. He laittoivat minut lentämään suoran lennon sijasta ensin New Yorkin kautta, mutta sekin peruttiin. Lopulta he saivat minut lennoille Lontoon kautta, ja olin kotona yli vuorokauden myöhemmin kuin piti olla.
Koska tällä kyseisellä lentoyhtiöllä on ollut paljon viivästyksiä, ymmärsin, että asian käsittely kestää, ja olin kärsivällinen. Mutta odoteltuani 2,5 kuukautta korvauksia, kuulin jotain käsittämätöntä. Tuttavani, jonka kanssa olin buukattuna tuolle samalle lennolle, oli saanut jo korvaukset viikkoja aikaisemmin.
Soitin lentoyhtiöön ja kysyin, miksi minun edelleni on menty jonossa. Vastaus tälle epäreiluudelle oli: Tekoäly.
Tekoäly kuulemma poimii jonosta keissit, joissa ei ole paljon liitteitä, ja siksi ne voidaan käsitellä nopeammin. Minun keissiäni ei voinut tekoäly käsitellä. Siksi olin yhä jonossa.
Tehokasta lentoyhtiölle? Kyllä. Reilua asiakkaalle? Ei todellakaan. Puhumattakaan siitä, että lopulta ystäväni sai paremman korvauksen kuin minä, vaikka hän oli kotona aikaisemmin kuin minä. Tekoäly oli avokätisempi kuin ihminen.
Mitä tekoälyn oikeudenmukaisuus sitten tarkoittaa?
Se tarkoittaa tekoälyjärjestelmien kehittämistä ja käyttämistä siten, että se on eettisesti ja yhteiskunnallisesti hyväksyttävää. Ymmärretään, kuinka palvelun tai tuotteen olisi tarkoitus toimia, ilman syrjintää tai epäoikeudenmukaisuutta. Eli kiteytettynä, otetaan empatia mukaan tekoälyä käyttävän palvelun suunnitteluun alusta alkaen. Ei aloiteta siitä, mitä yritys tästä saa, vaan siitä, että kenelle palvelu suunnitellaan, ja mitä asiakas siitä saa? Mitä haittaa, tai mahdollista syrjintää, palvelun tai tuotteen käytöstä voi syntyä? Empatiakartta on hyvä apuväline tähän. Käyttäjätestauksessa on osattava ottaa huomioon erilaiset skenaariot, käyttäjäkokemukset, ja testaajien diversiteetti.
Jotta halutaan oikeudenmukainen kokemus, on datan laatuun kiinnitettävä huomiota. Mistä se tulee? Liittyykö sen käytön prosesseihin syrjintää? Otetaan vaikka esimerkkinä, että henkilöstöhallinnon työkalu pohjautuu tekoälyyn, joka automaattisesti tiputtaa työnhausta ne CV:t, joissa hakija on yli 55-vuotias. Ei edes jätetä mahdollisuutta ansioluettelon tarkemmalle tarkastelulle. Tällöin työnhakijoiden poolista puuttuu laadukasta dataa, jonka perusteella voitaisiin tehdä paras päätös. Näissä tapauksissa pitäisi tunnistaa tämä syrjivä piirre koneälyn algoritmissa ja korjata se. Lisäksi on ymmärrettävä, milloin käytetään sekä ihmisen asiantuntemusta, että tekoälyn työtä helpottavia ominaisuuksia. Tätä suosittelen erityisesti pankeille, kun he tekevät lainapäätöksiä. Liian usein laina jää saamatta, kun haku hylätään tekoälyn toimesta katsomatta asiakkaan tilannetta tarkemmin. Jossain kohtaa tuntuu, että olisi parempi palata vanhaan aikaan, jossa asuntolaina haettiin konttorista ja juotiin samalla kahvit yhdessä virkailijan kanssa, karrikoidusti sanottuna.
Kaiken kaikkiaan on muistettava varmistaa, että käytössä on toimialan ja teknologian kannalta parhaat käytännöt, laadukas data, analyyttiset tekniikat ja työkalut, jotka tunnetusti toimivat, jotta voidaan varmistaa reilu tekoäly. Se on myös osa tekoälyn sosiaalista vastuuta, jonka avulla varmistamme, että tekoäly tekee hyvää yhteiskunnalle – ei vain hyvää yrityksille, yhteiskunnan kustannuksella.
Kirjoittanut Niina Majaniemi. Kansainvälisen teknologiauran tehnyt Majaniemi tunnetaan puhujana, joka haastaa ajattelemaan ja sytyttää uusia ideoita. Haluatko kuulla lisää? Kerromme mielellämme eri puhekokonaisuuksista.