Tuore dokumenttielokuva ”Coded Bias” (2020*) näyttää, kuinka rodullinen syrjintä voi automatisoitua ja moninkertaistua teknologiavetoisissa yhteiskunnissa.
Outi Puukko ja Minna Aslama Horowitz**
“Tekoälystä ja algoritmeista on muodostunut uusia portinvartijoita yhteiskunnissa. Samalla kun teknologioihin ja niiden neutraaliuteen usein uskotaan sokeasti, on käynyt yhä selvemmäksi, että nämä teknologiat pitävät sisällään ja luovat monenlaista syrjintää”, sanoi Coded Bias dokumenttielokuvan ohjaaja Shalini Kantayya Aalto-yliopiston järjestämässä keskustelussa tekoälyyn, algoritmeihin ja kasvojentunnistusteknologiaan kytkeytyvästä rodullisesta syrjinnästä 25. maaliskuuta 2021.
Coded Bias kertoo ihmisten kamppailuista syrjivien teknologioiden kehittämistä ja käyttöä vastaan. Elokuva lähtee liikkeelle tilanteesta, jossa yhdysvaltalaisen huippuyliopiston MIT:n Media Labin tutkija Joy Buolamwinille selvisi, että kasvojentunnistusteknologia ei tunnistanut hänen kasvojaan ihonväristä johtuen. Tekoälyä oli koulutettu valkoisten miesten kasvokuvilla, mikä johti vinoumaan, sillä data heijastaa historiaa ja sen eriarvoisuuksia. Buolamwinin tutkimustulokset saivat laajaa huomiota myös mediassa.
Coded Bias -elokuva erottuu radikaalisti totutusta tekoälykuvastosta, koska sen keskiössä ovat mustat, ruskeat ja valkoiset naiset. Heitä kuullaan eturivin asiantuntijoina, tutkijoina ja aktivisteina – samalla rikkoen normia valkoisista heteromiehistä teknologian uranuurtajina. Tämän kehystyksen mukaisesti dokumentti peräänkuuluttaakin yhtenä vastauksena teknologiakentän ongelmiin muun muassa entistä moninaisempaa tekijäjoukkoa sekä koko teknologia-alan suuntaamista uudelleen vastaamaan paremmin yhteiskunnallisiin intresseihin. Lisäksi esimerkiksi algoritmien auditoinnista ehdotetaan ratkaisua, jolla voitaisiin lisätä tekoälyjärjestelmien reiluutta ja läpinäkyvyyttä.
Toisaalta Coded Bias nostaa esiin myös laajempia yhteiskunnallisia kysymyksiä. Missä määrin esimerkiksi tekniset muutokset, kuten tekoälyn treenidatan tarkkuuden lisääminen, voivat lopulta ratkaista kasvojentunnistuksen ongelmallisuutta? Pikemminkin vaaditaan laajempaa kriittistä keskustelua siitä, kenen käsissä datan avulla kerrytetty tieto on ja missä määrin sen kerääminen – myös kaupallisesti hyödynnettäväksi – on ylipäätään toivottavaa.
Riittääkö luottamus viranomaisiin?
Vaikka Coded Bias keskittyy angloamerikkalaiseen keskusteluun, ovat teemat ajankohtaisia Suomessakin, kun viranomaiset ottavat käyttöön uusia teknologioita. Esimerkiksi poliisi on tiedottanut ottavansa tänä keväänä käyttöön haalarikamerat koko maassa.
Ylen uutisessa siteerattu poliisijohtaja kertoo, että haalarikameroiden käyttö voi nostaa esiin tarpeen kehittää lainsäädäntöä. Yhtenä esimerkkinä mainitaan kasvojentunnistusteknologian hyödyntäminen. Toistaiseksi poliisi kertoo haalarikameroiden tallentavan samaa tietoa, joka on saatavilla aistihavainnoin.
Yhtäältä juuri haalarikameroita on esitetty Suomessakin yhdeksi keinoksi lisätä läpinäkyvyyttä poliisitoiminnassa. Tutkijoiden mukaan valvontaa kohdistuu epäsuhtaisesti rodullistettuihin ihmisryhmiin. Toisaalta esimerkiksi Yhdysvalloissa kansalaisjärjestöt ovat jo vuosia tuoneet esiin, että haalarikamerat tulisi nähdä jälleen yhtenä välineenä, joka voi lisätä syrjittyjen ryhmien massavalvontaa ja siten vaikeuttaa entisestään heidän kokemaansa rakenteellista syrjintää. Järjestöt ovat vaatineet tarkkoja rajoja kameroiden käytölle, kuvatun materiaalin saatavuutta ja esittäneet huolensa siitä, että poliisi voi päättää milloin sammuttaa ja milloin pitää kamerat päällä. Viimeaikoina juuri kasvojentunnistuksen yhdistäminen kameravalvontaan on herättänyt huolta ja sen kieltämistä on vaadittu laajalti. On myös nostettu esiin, että haalarikamera kuvaa tapahtumia aina poliisiin näkökulmasta – ei kansalaisen.
Kansalaisten kannalta on ongelmallista, mikäli mahdollisesti syrjiviä teknologioita otetaan laajamittaisesti käyttöön. Coded Bias näyttää, kuinka esimerkiksi Iso-Britanniassa Big Brother Watch -aktivistit informoivat ihmisiä kaduilla ja herättelevät tietoisuutta poliisin automatisoidusta kameravalvonnasta.
Sääntelyä muovataan myös Euroopassa
Coded Biasin keulahahmojen kamppailu kasvojentunnistusteknologiaa koskevan sääntelyn aikaansaamiseksi kulminoituu kuulemiseen Capitol Hillillä. Kesällä 2020 asiaa piti esillä myös laajempi Black Lives Matter -liike, ja esimerkiksi Microsoft keskeytti kasvojentunnistusteknologian myynnin poliisille.
Tekoälyteknologian sitovista säännöistä käydään debattia myös EU:ssa. Kansalaistoimijoiden Reclaim Your Face -kampanja https://reclaimyourface.eu/ vaatii, että biometrinen valvonta, johon kasvojentunnistus sisältyy, tulisi kieltää valtiollisten ja yksityisten toimijoiden käsissä. Eurooppalaisen digitaalisten oikeuksien järjestö EDRi:n mukaan yli puolet EU-maista käyttää biometrista valvontaa tavoilla, jotka ovat ristiriidassa ihmisoikeuksien kanssa. Lisäksi hallitustenvälinen ihmisoikeusjärjestö Euroopan neuvosto julkaisi tammikuussa perusoikeuksien näkökulmaa painottavan ohjenuoran kasvojentunnistukseen.
Onkin oleellista kysyä, onko teknologioiden käyttöönoton yhteydessä arvioitu syrjiviä vaikutuksia kattavasti vai pysyttäydytäänkö esimerkiksi pelkästään tietosuojan näkökulmassa. Esimerkiksi YK:n rodullisen syrjinnän vastainen raportoija E. Tendayi Achiume on esittänyt huolensa hyvinvointivaltioiden luisumisesta kohti digitaalisesti syrjiviä hyvinvointivaltioita.
Nyt myös Suomessa voidaan proaktiivisesti tarttua näihin huoliin. Tarvitaan lisää julkista keskustelua ja arviointia teknologioiden mahdollisesti eriarvoistavista vaikutuksista. Jotta uuden teknologian käyttöönotto ei johda rakenteellisen syrjinnän ja rasismin lisääntymiseen, pitää nämä näkökulmat ottaa huomioon oikeuksia ja teknologiaa koskevissa keskusteluissa ja päätöksissä.
Ja lopulta, kuten Safiya Umoja Noble muistuttaa teoksessaan Algorithms of Oppression, nyt on aika meidän kaikkien vaatia rakenteilta enemmän ja suunnata voimavarat monikulttuurisen ja rodullisesti moninaisen demokratian luomiseen. Tämä tarkoittaa myös kirjastojen, koulujen, yliopistojen ja muiden tietoinstituutioiden aktiivista toimintaa inklusiivisen demokratian puolesta. Samaa toteaa Shalini Kantayya: tarvitsemme rohkeita tutkijoita ja kansalaisia hälventämään turhaa mystiikkaa tekoälyn ympärillä sekä levittämään tietoa teknologioiden syrjivistä käytänteistä.
Aalto-yliopisto järjesti maaliskuun lopulla Coded Bias -katselun ja paneelin osana Color of Science -hanketta. *Coded Bias -dokumenttielokuva on katsottavissa kaupallisessa Netflix-palvelussa huhtikuusta 2021 alkaen.
Kuva: codedbias.com
**Outi Puukko on väitöskirjatutkija Helsingin yliopiston valtiotieteellisessä tiedekunnassa viestinnän oppiaineessa. Hän on erikoistunut digitaalisia oikeuksia käsitteleviin diskursseihin sekä niitä koskevaan kansalaistoimintaan.
**Minna Aslama Horowitz on Helsingin yliopiston viestinnän oppiaineen dosentti ja digitaalisten oikeuksien asiantuntija Central European Universityssä sekä kansainvälisen viestinnän luennoitsija St. John’s Universityssä.