Kuinka tunnistaa poissulkeminen AI: ssä

Joyce Chou, Oscar Murillo ja Roger Ibars

Voiko tekoäly olla rasistinen? No, se riippuu. Oletetaan, että olet afroamerikkalainen opiskelija koulussa, joka käyttää kasvojentunnistusohjelmistoa. Koulu käyttää sitä rakennuksen ja kotitehtävien suorittamiseen verkossa. Mutta ohjelmistolla on ongelma. Sen valmistajat käyttivät algoritmien kouluttamiseen vain kevytnaisia ​​koehenkilöitä. Iho on tummempi, ja ohjelmistolla on vaikeuksia tunnistaa sinua. Joskus olet myöhässä luokkaan tai et voi saada tehtäviäsi ajoissa. Laadusi kärsivät. Tuloksena on syrjintä yksinomaan ihon värin perusteella.

Tämä ei ole todellinen esimerkki, mutta vastaavat AI-väärinkäytöt ovat jo tullut surullisiksi tech-teollisuudessa ja sosiaalisessa mediassa. Teollisuus on innoissaan AI: stä hyvästä syystä - iso data ja koneoppiminen valaisevat voimakkaita kokemuksia, joita ei ollut mahdollista kuvitella vain muutama vuosi sitten. Mutta jotta AI voisi täyttää lupauksensa, järjestelmien on oltava luotettavia. Mitä enemmän luottamusta ihmisillä on, sitä enemmän he ovat vuorovaikutuksessa järjestelmien kanssa, ja järjestelmät käyttävät enemmän tietoa parempien tulosten saamiseksi. Mutta luottamuksen rakentaminen vie kauan, ja puolueellisuus voi repiä sen heti, aiheuttaen todellista haittaa suurille yhteisöille.

Poissulkemisen tunnistaminen AI: ssä

Microsoftissa olemme kehittäneet osallistavia suunnittelutyökaluja ja prosesseja tunnistamaan fyysisesti vammaiset ihmiset suunnitteluprosessissamme. Kehittäessään käytäntöjämme olemme laajentaneet suunnittelumallia muille syrjäytymisalueille, mukaan lukien kognitiiviset kysymykset, oppimistyyli-asetukset ja sosiaalinen puolueellisuus.

On aika käyttää samaa lähestymistapaa AI: hen. AI: n puolueellisuus tapahtuu, ellei sitä rakenneta alusta alkaen ottaen huomioon. Kriittisin vaihe integroivan integroidun integroidun integroinnin luomisessa on tunnistaa missä ja miten harha tarttuu järjestelmään.

Ensimmäinen osallistavan suunnittelun periaatemme on tunnistaa poissulkeminen. Tässä paljastama opas hajottaa AI-puolueellisuuden erillisiin luokkiin, jotta tuotevalmistajat voivat tunnistaa ongelmat jo varhaisessa vaiheessa, ennakoida tulevia ongelmia ja tehdä parempia päätöksiä matkan varrella. Se antaa joukkueille mahdollisuuden nähdä selvästi missä järjestelmät voivat mennä pieleen, joten he voivat tunnistaa puolueellisuuden ja rakentaa kokemuksia, jotka antavat kaikille AI: n lupauksen.

Viisi tapaa havaita puolueellisuus

Teimme yhteistyötä akateemisten ja teollisuuden ajatusjohtajien kanssa määritelläksesi viisi tapaa havaita vääristymät. Sitten käytimme lapsuuden tilanteita metafoorina kuvaamaan kunkin luokan käyttäytymistä. Miksi? Voimme kaikki liittyä lapsuuden episodeihin puolueellisuudesta, ja se sopii mukavaan metafooriin: AI on lapsenkengissä, ja kuten lastenkin, sen kasvaminen kuvastaa sitä, kuinka me kasvatamme ja kasvatamme sitä.

Jokainen puolueellisuusluokka sisältää lapsuutta kuvaavan metaforin, joka kuvaa sitä, sen määritelmän, tuoteesimerkin ja stressitestin joukkueillesi ja AI-työhösi. Näin painotukset jakautuvat:

Käsittelemällä ensin näitä viittä painotusta voimme luoda osallistavampia tuotteita.

Dataset Bias

Dataset-puolueellisuus on samanlainen kuin pienen lapsen pieni näkymä maailmaan.

Pieni lapsi määrittelee maailman puhtaasti sillä pienellä määrällä, jonka he voivat nähdä. Lopulta lapsi oppii, että suurin osa maailmasta on pienemmän tietoryhmän ulkopuolella, joka on heidän näkökentänsä sisällä. Tämä on tietojoukon virheellisyyden syy: älykkyys, joka perustuu liian pieneen tai homogeeniseen tietoon.

Määritelmä: Kun koneoppimismallien kouluttamiseen käytetyt tiedot eivät edusta asiakaskunnan monimuotoisuutta. Laajamittaiset aineistot ovat AI: n perusta. Samanaikaisesti tietojoukot on usein pelkistetty yleistyksiksi, joissa ei oteta huomioon erilaisia ​​käyttäjiä, ja siksi ne ovat aliedustettuina.

Tuoteesimerkki: Konenäkötekniikat - kuten verkkokamerat käyttäjien liikkumisen seuraamiseksi - toimivat hyvin vain pienille käyttäjien alajoukkoille rodun perusteella (pääasiassa valkoiset), koska lähtökoulutustiedot sulkivat pois muut rodut ja ihon sävyt.

Stressitesti: Jos käytät harjoitteluaineistoa, sisältyyko näyte kaikki asiakkaasi joukkoon? Ja jos ei, oletko testannut tuloksia ihmisten kanssa, jotka eivät kuuluneet otokseen? Entä AI-tiimisi ihmiset - ovatko he osallistavia, monimuotoisia ja herkkiä havaitsemaan puolueellisuus?

Yhdistysten puolueellisuus

Ihmisyhdistykset voivat jatkua AI-koulutuksessa, kuten oletetut sukupuoliroolit.

Kuvittele joitain lapsia, jotka haluavat leikkiä “lääkäriä”. Pojat haluavat lääkäriroolit ja olettavat, että tytöt pelaavat sairaanhoitajia. Tyttöjen on tehtävä tapauksensa oletusten kumoamiseksi. "Hei, tytöt voivat olla myös lääkäreitä!"

Määritelmä: Kun mallin kouluttamiseen käytetyt tiedot vahvistavat ja moninkertaistavat kulttuurisen puolueellisuuden. Koulutettaessa AI-algoritmeja, ihmisen ennakkoluulot voivat olla tiellä koneoppimiseen. Näiden ennakkoluulojen jatkaminen tulevassa vuorovaikutuksessa voi johtaa kohtuuttomiin asiakaskokemuksiin.

Tuote-esimerkki: Kielen käännöstyökalut, jotka tekevät sukupuoleen liittyviä oletuksia (esim. Lentäjät ovat miehiä ja lentoemäntät naisia).

Stressitesti: Tekevätkö tuloksesi yhdistyksiä, jotka jatkavat stereotypioita sukupuolesta tai etnisyydestä? Mitä voit tehdä hajottaaksesi epätoivotut ja epäreilut yhdistykset? Onko aineisto jo luokiteltu ja merkitty?

Automaation bias

Kone yrittää päästä nopeaan, automatisoituun tulokseen. Se ei tiedä mitä ihminen toisesta päästään haluaa.

Kuvittele tyttö, joka saa makeoverin. Tyttö tykkää urheilusta, rakastaa luonnollista ilmettä ja vihaa kaikkea keinotekoista. Kosmetologilla on erilaisia ​​ideoita kauneudesta, hän käyttää tonnia meikkejä ja hieno kampaus. Tulokset tekevät kosmetologista onnelliseksi, mutta kauhistuttavat tyttöä.

Määritelmä: Kun automatisoidut päätökset ohittavat sosiaaliset ja kulttuuriset näkökohdat. Ennustavat ohjelmat voivat automatisoida ihmisten monimuotoisuuden vastaisia ​​tavoitteita. Algoritmit eivät ole vastuussa ihmisille, mutta tekevät päätöksiä, joilla on inhimillisiä vaikutuksia. AI-suunnittelijoiden ja ammattilaisten on pohdittava niiden ihmisten tavoitteita, joihin heidän rakentamansa järjestelmät vaikuttavat.

Tuoteesimerkki: Koristeellisuussuodattimet vahvistavat kasvokuvien eurooppalaista käsitystä kauneudesta, kuten vaaleampi ihonväri.

Stressitesti: Olisiko todelliset, monipuoliset asiakkaat samaa mieltä algoritmistisi päätelmistä? Onko AI-järjestelmä syrjäyttää ihmisten päätökset ja suosiiko automatisoitua päätöksentekoa? Kuinka varmistat, että silmukassa on ihmisen POV?

Vuorovaikutuksen puolueellisuus

AI-chatbotit ovat alttiita haitallisille ihmisten panoksille, ja ne tarvitsevat suojatoimia pysyäkseen loukkaamattomina.

Suosittu lastenpeli on ”Puhelin”. Ryhmän ensimmäinen henkilö kuiskaa lauseen seuraavalle henkilölle, joka sitten kuiskaa sen seuraavalle henkilölle - ja niin edelleen, kunnes viimeinen henkilö kertoo kuulemansa. Asia on nähdä, kuinka tieto muuttuu luonnollisesti niin monien vaihtojen kautta. Mutta sano, että yksi lapsi muuttaa sitä tarkoituksella luoda naurettavampi tulos. Se voi olla hauskempi, mutta henki nähdä, mitä tapahtuu luonnollisesti, on rikki.

Määritelmä: Kun ihmiset vääristävät AI: tä ja luovat puolueellisia tuloksia. Nykyiset chatbotit voivat tehdä vitsejä ja huijata ihmisiä ajattelemaan, että he ovat ihmisiä suurimman osan ajasta. Mutta monet keinot älykkyyden inhimillistämisessä ovat vahingossa vahingoittaneet tietokoneohjelmia, joissa on ihmisen myrkyllisyyttä. Vuorovaikutussuhdetta esiintyy, kun robotit oppivat dynaamisesti ilman suojatoimenpiteitä myrkyllisyyttä vastaan.

Tuoteesimerkki: Ihmiset lisäävät tietoisesti rasistista tai seksististä kieltä chatbottiin kouluttaakseen sen sanomaan loukkaavia asioita.

Stressitesti: Onko sinulla tarkistuksia havaitaksesi haitalliset aikomukset järjestelmääsi kohtaan? Mitä AI-järjestelmäsi oppii ihmisiltä? Suunnittelitko reaaliaikaista vuorovaikutusta ja oppimista varten? Mitä tämä tarkoittaa, mitä se heijastaa takaisin asiakkaille?

Vahvistusvirhe

Kun sama vahvistus tehdään yhä uudelleen, lopputulos on vähemmän monimuotoinen ja vähemmän tutkittava.

Ajattele sitä lasta, joka saa lelun dinosauruksen vuodeksi. Muut perheenjäsenet näkevät dinosauruksen ja antavat hänelle enemmän dinosauruksia. Useiden vuosien ajan ystävät ja perhe olettavat, että lapsi on dinosaurusfanaatikko, ja antaa edelleen enemmän dinosauruksia, kunnes hänellä on valtava kokoelma.

Määritelmä: Kun yksinkertaistettu personointi tekee puolueellisia oletuksia ryhmälle tai yksilölle. Confirmation Bias tulkitsee tietoa tavalla, joka vahvistaa ennakkoluulot. AI-algoritmit palvelevat sisältöä, joka vastaa sitä, mitä muut ihmiset ovat jo valinneet. Tämä sulkee pois tulokset ihmisiltä, ​​jotka ovat tehneet vähemmän suosittuja valintoja. Tietotyöntekijä, joka saa tietoja vain hänen tavoin ajattelevilta ihmisiltä, ​​ei koskaan näe ristiriitaisia ​​näkökulmia ja estää näkemään vaihtoehtoja ja erilaisia ​​ideoita.

Tuoteesimerkki: Ostokset, jotka tarjoavat suosituksia asioista, jotka asiakas on jo ostanut.

Stressitesti: Rakentaako algoritmi ja vahvistaa vain suosittuja asetuksia? Voiko AI-järjestelmäsi kehittyä dynaamisesti asiakkaidesi muuttuessa ajan myötä? Auttaako AI-järjestelmäsi asiakkaitasi saamaan monipuolisemman ja kattavamman kuvan maailmasta?

Tämän pohjamaalin käyttö

Keinotekoisen älykkyyden kokemusten suunnittelijoina ja luojina meidän on ajateltava, miten AI kehittyy ja miten se vaikuttaa todellisiin ihmisiin. Tämä pohjustus on alku pitkälle tielle luoda kokemuksia, jotka palvelevat kaikkia yhtäläisesti.

Jos sovellamme näitä ideoita alkuperäiseen esimerkkiimme afrikkalais-amerikkalaisesta tytöstä, jonka kasvojentunnistusohjelma on tulkinnut väärin, voimme merkitä sen data-aseman puolueeksi: ohjelmisto on koulutettu liian kapeilla tiedoilla. Tunnistamalla ja ymmärtämällä nämä puolueellisuudet alusta alkaen, voimme testata järjestelmän muihin inhimillisiin näkökohtiin nähden ja rakentaa osallistavampia kokemuksia. Voisiko kasvojentunnistusohjelmistomme antaa tietoisesti virheellisiä tietoja? Mitkä muut harhat voivat saastuttaa kokemuksen?

Suurimmalla osalla AI: ssä työskenteleviä ihmisiä on anekdoottinen näyttö tällaisista tilanteista. Kiusalliset, loukkaavat tulokset tahallisesta puolueellisuudesta, jonka me kaikki haluamme tunnistaa ja välttää. Tavoitteenamme on auttaa sinua tunnistamaan taustalla oleva puolueellisuus, joka johtaa näihin tilanteisiin. Aloita näistä kategorioista ja testaa kokemustasi tämäntyyppisten vääristymien suhteen, jotta voit keskittyä toimittamaan AI: n potentiaalia kaikille asiakkaillesi.

Tämän artikkelin avustajia olivat Danielle McClune, Doug Kim ja Elena Dvorkina (kuvat). Inclusive Design -tiimi on kiitollinen kaikille Microsoftin tutkimus- ja suunnittelukumppaneillemme ajatuksia herättävistä keskusteluista ja arvokkaasta tuesta osallistavan tekniikan kehittämisessä.

Lisätietoja Microsoftin osallistavasta suunnittelusta

Pysyäksesi tietävänä Microsoftin suunnittelusta, seuraa meitä Dribbblessa, Twitterissä ja Facebookissa tai liity Windows Insider -ohjelmaan. Ja jos olet kiinnostunut liittymään tiimimme, siirry osoitteeseen aka.ms/DesignCareers.