Kreikkalaisessa tarinassa Pandoran lippaasta Zeus loi Pandoran, kauniin savesta tehdyn naisen, joka oli täynnä useita jumalten lahjoja.
Afrodite antoi hänelle kauneuden, Athene viisauden ja Hermes uteliaisuuden. Pandora lähetettiin Maahan lahjaksi Epimetheukselle.
Epimetheuksen veli Prometheus varoitti Zeuksen lahjoista. Pandoran kauneus kuitenkin lumosi hänet, ja hän otti hänet vaimokseen.
Pandora ei tullut Maahan yksin. Zeus antoi Pandoralle lippaan varoittaen häntä avaamasta sitä, sillä se sisälsi kaikki maailman pahuudet.
Mutta yksi Pandoran jumalilta saamista lahjoista oli uteliaisuus. Lopulta hän avasi lippaan, ja tuon yhden teon myötä kaikki sen sisälle varastoitu paha pakeni maapallolle ja muutti ihmiskunnan ikuisesti.
Pandora, joka tajusi virheensä, sulki nopeasti lippaan ja vangitsi sen sisälle jääneen esineen. Kyseessä oli toivo.
Mitä tekemistä Pandoran tarinalla on tekoälyn ja sen riskien kanssa? Olemme tällä hetkellä massiivisten teknologisten läpimurtojen äärellä, mutta monet tekoälyyn liittyvät asiat perustuvat spekulaatioihin.
Tekoäly on monella tapaa nykypäivän versio Pandoran lippaasta. Tämä ei tarkoita sitä, että tekoäly olisi luonnostaan paha tai vaarallinen, vaan sitä, että kun lipas on avattu vaikka asiantuntijat ovat varoittaneet hidastamaan sen kehitystä, jotta tekoälystä ei aiheutuisi tahattomia seurauksia.
Haasteena on edistää innovointia, erityisesti koneiden autonomiaa, suurella nopeudella, mikä altistaa meidät monille riskeille ja mahdollisille puutteille, erityisesti kun teknologia on yhä tiiviimmin läsnä elämässämme.
Erityisesti koneoppimismallit tukeutuvat usein tietokokonaisuuksiin sekä oppimisessa ja päätöksentekoprosessien edistämisessä.
Sen lisäksi, että tekoälyjärjestelmät toistavat näitä ennakkoluuloja, ne voivat jopa vahvistaa näihin tietokokonaisuuksiin sisältyviä ennakkoluuloja.
Esimerkiksi kasvontunnistusjärjestelmien, joita hallitukset, teknologiayritykset ja instituutiot käyttävät, on todettu olevan puolueellisia.
Monissa yhteyksissä on havaittu, että kasvojentunnistusjärjestelmät, jotka kärsivät järjestelmien kouluttamiseen käytettävien tietokokonaisuuksien vähäisestä monimuotoisuudesta, omaksuvat rotuvääristymiä.
American Civil Liberties Union (ACLU) raportoi, että tutkimukset osoittavat miten vaaleaihoisten virheprosentti on alle yhden prosentin.
Sen sijaan tummemman ihonvärin omaavilla henkilöillä virheprosentti on lähes 35 prosenttia. Yhdysvaltojen hallituksen tekemä testi osoittaa, että teknologia tunnisti parhaiten keski-ikäiset valkoiset miehet. Tummemman ihon omaavien henkilöiden kohdalla tarkkuusprosentti laski merkittävästi.
Tämän teknologian käyttö on erityisen haitallista Yhdysvaltojen kaltaisissa olosuhteissa, joissa rikosoikeusjärjestelmä jo nyt kohdistuu suhteettomasti syrjäytyneisiin ryhmiin ja vangitsee niitä.
Algoritmit, jotka ovat useimpien tekoälyjärjestelmien selkäranka, voivat edistää tätä syrjintää sekä tietokokonaisuuksien syötteen ja niiden suunnittelun ansiosta.
Monien tutkijoiden ongelmana on, että syväoppimiseen perustuvia tekoälyjärjestelmiä on erityisen vaikea ymmärtää niiden päätöksentekoprosessien kannalta.
Näistä järjestelmistä puuttuu avoimuus, ja siksi on vaikea määritellä tarkasti missä ja miten syrjintää käytännössä tapahtuu.
Tämä tekee väliintulon strategioista melko haastavia. Tekoälyä käytetään yhä enemmän institutionaalisessa päätöksenteossa, kuten lainojen hyväksymisessä, terveydenhuollon prosesseissa ja palkkauskäytännöissä.
Monet näistä tilanteista ovat jo historiallisesti aiheuttaneet syrjintää syrjäytyneille ryhmille, erityisesti värillisille ihmisille.
Tekoälyn päätöksenteon lisääminen voi pahentaa syrjintää entisestään tai ylläpitää sitä. Tekoälyä voidaan hyödyntää esimerkiksi terveydenhuollon yhteydessä hoitosuositusten antamiseen.
Suositellut hoidot eivät välttämättä ole yhtä tehokkaita tietyille ihmisryhmille, mutta jos järjestelmän perustana olevassa tietokannassa ei ole monipuolisia tietoja, malli saattaa suositella hoitotavan, joka ei todellisuudessa ole henkilölle paras mahdollinen.
Pankkilainojen osalta algoritmeja käytetään määrittämään sen onko asuntolainaa hakeva henkilö sopiva ehdokas.
Hyväksymisprosessissa saattaa esiintyä historiallisia lainakäytäntöjä, jotka suosivat tiettyjä ryhmiä tai jotka ovat historiallisesti syrjineet muita.
Olemassa olevia stereotypioita voidaan puolestaan ylläpitää entisestään, kun järjestelmä oppii yhdistämään tietyt ominaisuudet tiettyihin käyttäytymistapoihin.
Tekoälyjärjestelmien on vaadittava, että niiden oppimisprosessit ovat monipuolisia ja populaatiota edustavia, jotta ennakkoluuloja voidaan lieventää mahdollisimman paljon.
Lähteet: (ACLU) (The Guardian) (‘Race After Technology’) (MIT Media Lab)
Tutkija Ruha Benjamin on jo pitkään tutkinut teknologian, eriarvoisuuden ja vallan välistä suhdetta. Benjamin jakaa näkemyksensä siitä, että meidän on puututtava siihen miten koneoppimista harjoitetaan. Viitaten koneoppimista syöttävien ja toteuttavien ihmisten ennakkoluuloihin Benjaminin kaltaiset asiantuntijat varoittavat riskeistä, joita kohtaamme syrjinnän syvenemisestä innovatiivisten työkalujen, kuten tekoälyn, avulla.
Haluatko oppia lisää tekoälyn vaaroista ja sen suhteesta syrjintään? Tutustu seuraavaan galleriaan tarkemmin klikkaamalla eteenpäin.
Miten tekoälyn koneoppiminen edistää syrjintää?
Riskit yhteiskunnallisen syrjinnän lisääntymiselle teknologian avulla
ELÄMÄNTAPA Ai
Tutkija Ruha Benjamin on jo pitkään tutkinut teknologian, eriarvoisuuden ja vallan välistä suhdetta. Benjamin jakaa näkemyksensä siitä, että meidän on puututtava siihen miten koneoppimista harjoitetaan. Viitaten koneoppimista syöttävien ja toteuttavien ihmisten ennakkoluuloihin Benjaminin kaltaiset asiantuntijat varoittavat riskeistä, joita kohtaamme syrjinnän syvenemisestä innovatiivisten työkalujen, kuten tekoälyn, avulla.
Haluatko oppia lisää tekoälyn vaaroista ja sen suhteesta syrjintään? Tutustu seuraavaan galleriaan tarkemmin klikkaamalla eteenpäin.