Alexandria Ocasio-Cortez sanoo, että algoritmit voivat olla rasistisia. Tässä on miksi hänellä on oikeus.

Pin
Send
Share
Send

Viime viikolla äskettäin valittu Yhdysvaltain tasavallan edustaja Alexandria Ocasio-Cortez kirjoitti otsikoita sanoessaan osana vuosittaista MLK Now -tapahtumaa, että kasvojentunnistustekniikoilla ja algoritmeilla "on aina nämä rotuerot, jotka käännetään, koska algoritmeja tehdään edelleen ihmisillä, ja nämä algoritmit ovat edelleen sidoksissa ihmisen perusedellytyksiin. Ne ovat vain automatisoituja. Ja automatisoidut oletukset - jos et korjaa ennakkoluuloja, niin automatisoit vain ennakkoluulot ".

Tarkoittaako tämä, että algoritmit, jotka perustuvat teoreettisesti matematiikan objektiivisiin totuuksiin, voivat olla "rasistisia"? Ja jos on, mitä voidaan tehdä vääristymisen poistamiseksi?

Osoittautuu, että algoritmien tuotos voi todellakin tuottaa puolueellisia tuloksia. Tietotieteilijöiden mukaan tietokoneohjelmat, hermoverkot, koneoppimisalgoritmit ja tekoäly (AI) toimivat, koska he oppivat käyttäytymään annettujen tietojen perusteella. Ohjelmiston ovat kirjoittaneet ihmiset, joilla on ennakkoluuloja, ja harjoitustietoja tuottavat myös ihmiset, joilla on ennakkoluulo.

Koneoppimisen kaksi vaihetta osoittavat, kuinka tämä ennakkoluulo voi hiipua näennäisesti automatisoituun prosessiin. Ensimmäisessä vaiheessa, koulutusvaiheessa, algoritmi oppii tietosarjan tai tiettyjen sääntöjen tai rajoitusten perusteella. Toinen vaihe on päätelmävaihe, jossa algoritmi soveltaa oppimiaan käytännössä. Tämä toinen vaihe paljastaa algoritmin puolueellisuuden. Esimerkiksi, jos algoritmi on koulutettu kuvilla, joissa on vain naisia, joilla on pitkät hiukset, niin ajatellaan, että kuka tahansa, jolla on lyhyet hiukset, on mies.

Google tuli pahasti tuleen vuonna 2015, kun Google Photos leimasi mustat ihmiset gorillaiksi, todennäköisesti siksi, että nämä olivat harjoitussarjan ainoat tummannahtaiset olennot.

Ja puolueellisuus voi hiipiä läpi monien tapojen. "Yleinen virhe on algoritmin kouluttaminen ennakoiden tekemiseen puolueellisten ihmisten aikaisempien päätösten perusteella", Sophie Searcy, data-tiedekoulutuksen Bootcamp Metisin vanhempi tietotekijä, kertoi Live Sciencelle. "Jos teen algoritmin automatisoidakseen lainahenkilöryhmän aiemmin tekemiä päätöksiä, voin edetä helposti ja kouluttaa algoritmin näiden lainahenkilöiden aiempien päätösten perusteella. Mutta jos tietysti nämä lainapäälliköt ovat puolueellisia, niin rakentamaani algoritmi jatkaa näitä vääristymiä. "

Searcy mainitsi esimerkin COMPAS: sta, ennustetyökalusta, jota käytetään Yhdysvaltain rikosoikeudellisessa järjestelmässä tuomioiden tekoon. Yrittää ennustaa, missä rikokset tapahtuvat. ProPublica suoritti analyysin COMPAS-järjestelmästä ja havaitsi, että muiden tilastollisten selitysten tarkistamisen jälkeen työkalu yliarvioi mustien vastaajien uusiutumisen riskin ja aliarvioi jatkuvasti valkoisten vastaajien riskiä.

Searcy kertoi Live Sciencelle algoritmisten ennakkoluulojen torjumiseksi, että insinöörien ja tietotekijöiden tulisi rakentaa monipuolisempia tietokokonaisuuksia uusille ongelmille sekä yrittää ymmärtää ja lieventää olemassa oleviin tietojoukkoihin rakennettua vääristymää.

Ennustavan analyysiyrityksen Anodot-tietoteknikon Ira Cohenin mukaan insinööreillä tulisi olla ensisijaisesti koulutusjoukko, joka edustaa suhteellisen tasaisesti kaikkia väestötyyppejä, jos he kouluttavat algoritmia etnisten tai sukupuolisten ominaisuuksien tunnistamiseksi. "On tärkeää edustaa tarpeeksi esimerkkejä jokaisesta väestöryhmästä, vaikka ne olisivat vähemmistö tutkittavissa olevasta väestöstä", Cohen kertoi Live Science: lle. Lopuksi, Cohen suosittelee tarkistamaan vääristymät testijoukossa, joka sisältää ihmisiä kaikista näistä ryhmistä. "Jos tietyssä kilpailussa tarkkuus on tilastollisesti merkitsevästi matalampi kuin muissa luokissa, algoritmissa voi olla vääristymä, ja arvioisin siihen käytettyä harjoitustietoa", Cohen kertoi LiveSciencelle. Esimerkiksi, jos algoritmi pystyy tunnistamaan oikein 900 900: sta valkoisesta kasvosta, mutta tunnistaa oikein vain 600: sta 1000: sta aasialaisesta kasvosta, algoritmissa voi olla puolueellisuus "aasialaisia" vastaan, Cohen lisäsi.

Poikkeamien poistaminen voi olla AI: lle uskomattoman haastavaa.

Jopa Google, jota pidetään kaupallisen AI: n edelläkävijänä, ei ilmeisesti pystynyt keksimään kattavaa ratkaisua gorillaongelmaansa vuodesta 2015 lähtien. Wired totesi, että sen sijaan, että löydettäisiin tapa algoritmeilleen erottaa väri- ja gorilla-ihmiset, Google yksinkertaisesti esti sen kuvan tunnistusalgoritmit tunnistamaan gorillat ollenkaan.

Googlen esimerkki on hyvä muistutus siitä, että AI-ohjelmistojen kouluttaminen voi olla vaikea tehtävä, etenkin kun edustavaa ja monipuolista ihmisryhmää ei testata tai kouluttaa.

Pin
Send
Share
Send