Sposobnosti umjetne inteligencije eksponencijalno se šire, a umjetna inteligencija sada se koristi u industrijama, od oglašavanja do medicinskih istraživanja. Korištenje AI u osjetljivijim područjima kao što su softver za prepoznavanje lica, algoritmi zapošljavanja i pružanje zdravstvene zaštite potaknuli su raspravu o pristranosti i poštenju.

Pristranost je dobro istraženi aspekt ljudske psihologije. Istraživanje redovito izlaže naše nesvjesne sklonosti i predrasude, a sada vidimo kako AI odražava neke od tih pristranosti u njihovim algoritmima.

Pa, kako umjetna inteligencija postaje pristrana? I zašto je ovo važno?

Kako AI postaje pristran?

Radi jednostavnosti, u ovom ćemo se članku pozvati strojno učenje i duboko učenje algoritmi kao AI algoritmi ili sustavi.

Istraživači i programeri mogu uvesti pristranost u AI sustave na dva načina.

Prvo, kognitivne pristranosti istraživača mogu se slučajno ugraditi u algoritme strojnog učenja. Kognitivne pristranosti su nesvjesne ljudske percepcije koje mogu utjecati na to kako ljudi donose odluke. To postaje značajno pitanje kada se pristranosti odnose na ljude ili skupine ljudi i mogu tim ljudima naštetiti.

Te se pristranosti mogu uvesti izravno, ali slučajno, ili bi istraživači mogli obučiti AI na skupovima podataka koji su i sami pogođeni pristranošću. Na primjer, AI za prepoznavanje lica mogao bi se trenirati pomoću skupa podataka koji uključuje samo svijetloputa lica. U ovom će slučaju AI imati bolje rezultate kada se radi sa svijetloputim licima nego s tamnim. Ovaj oblik pristranosti prema AI poznat je kao negativno nasljeđe.

Drugo, pristranosti mogu nastati kada se AI obučava na nepotpunim skupovima podataka. Na primjer, ako se AI obučava na skupu podataka koji uključuje samo informatičare, to neće predstavljati cijelu populaciju. To dovodi do algoritama koji ne daju točna predviđanja.

Primjeri pristranosti AI iz stvarnog svijeta

Bilo je više nedavnih, dobro prijavljenih primjera pristranosti prema AI ilustriraju opasnost dopuštanja da se te pristranosti uvuku.

Prioritet u zdravstvu sa sjedištem u SAD-u

Godine 2019. osmišljen je algoritam strojnog učenja koji pomaže bolnicama i osiguravajućim društvima da utvrde koji će pacijenti imati najviše koristi od određenih zdravstvenih programa. Na temelju baze podataka s oko 200 milijuna ljudi, algoritam je favorizirao bijele i crne pacijente.

Utvrđeno je da je to bilo zbog pogrešne pretpostavke u algoritmu u pogledu različitih troškova zdravstvene zaštite između crno-bijelih ljudi, a pristranost je na kraju smanjena za 80%.

KOMPASI

Profiliranje korektivnih postupaka za alternativne sankcije ili COMPAS, bio je AI algoritam osmišljen da predvidi hoće li određeni ljudi ponovno uvrijediti. Algoritam je stvorio dvostruko lažne pozitivne rezultate za crne prijestupnike u usporedbi s bijelim prijestupnicima. U ovom su slučaju i skup podataka i model bili manjkavi, što je uvelo tešku pristranost.

Amazon

Algoritam zapošljavanja koji Amazon koristi za utvrđivanje prikladnosti podnositelja zahtjeva utvrđen je 2015. godine kako bi favorizirao muškarce u odnosu na žene. To je bilo zato što je skup podataka gotovo isključivo sadržavao muškarce i njihove životopise, jer su većina zaposlenika Amazona muškarci.

Kako zaustaviti pristranost prema AI

AI već revolucionira naš način rada svaka industrija. Imati pristrane sustave koji kontroliraju osjetljive procese donošenja odluka manje je nego poželjno. U najboljem slučaju smanjuje kvalitetu istraživanja temeljenog na AI. U najgorem slučaju, aktivno šteti manjinskim skupinama.

Postoje primjeri AI algoritama na koje se već koristi pomoć ljudskom odlučivanju smanjenjem utjecaja ljudskih kognitivnih pristranosti. Zbog načina na koji se treniraju algoritmi strojnog učenja, oni mogu biti precizniji i manje pristrani od ljudi u istom položaju, što rezultira pravednijim odlučivanjem.

Ali, kao što smo pokazali, vrijedi i suprotno. Rizici dopuštanja da se umjetna inteligencija zakuha i pojača ljudske pristranosti mogu nadmašiti neke od mogućih koristi.

Na kraju dana, AI je dobar koliko i podaci s kojima je obučen. Razvoj nepristranih algoritama zahtijeva opsežnu i temeljitu prethodnu analizu skupova podataka, osiguravajući da podaci ne sadrže implicitne pristranosti. To je teže nego što zvuči, jer je toliko naših pristranosti nesvjesno i često ih je teško prepoznati.

Izazovi u sprečavanju pristranosti prema AI

U razvoju AI sustava, svaki korak mora se procijeniti za potencijal ugradnje pristranosti u algoritam. Jedan od glavnih čimbenika u sprječavanju pristranosti je osiguravanje da se poštenost, umjesto pristranosti, "ukuha" u algoritam.

Utvrđivanje pravednosti

Pravednost je koncept koji je relativno teško definirati. Zapravo je to rasprava koja nikad nije postigla konsenzus. Da bi stvari bile još teže, pri razvoju sustava AI, pojam poštenosti mora se definirati matematički.

Na primjer, u smislu amazonskog algoritma zapošljavanja, bi li pravednost izgledala kao savršeno razdvajanje muških i ženskih radnika u odnosu 50/50? Ili drugačiji omjer?

Određivanje funkcije

Prvi korak u razvoju AI je točno odrediti što će postići. Ako se koristi primjerom COMPAS, algoritam bi predvidio vjerojatnost ponovnog počinjenja kaznenih djela. Zatim treba odrediti jasne unose podataka kako bi algoritam mogao raditi. To može zahtijevati definiranje važnih varijabli, poput broja prethodnih kaznenih djela ili vrste počinjenih kaznenih djela.

Pravilno definiranje ovih varijabli težak je, ali važan korak u osiguravanju pravednosti algoritma.

Izrada skupa podataka

Kao što smo pokrili, glavni uzrok pristranosti prema AI jesu nepotpuni, nereprezentativni ili pristrani podaci. Kao i slučaj AI prepoznavanja lica, ulazne podatke treba temeljito provjeriti radi pristranosti, prikladnosti i cjelovitosti prije postupka strojnog učenja.

Odabir atributa

U algoritmima se određeni atributi mogu uzeti u obzir ili ne. Atributi mogu uključivati ​​spol, rasu ili obrazovanje - u osnovi sve što može biti važno za zadatak algoritma. Ovisno o odabranim atributima, na točnost predviđanja i pristranost algoritma mogu se ozbiljno utjecati. Problem je što je vrlo teško izmjeriti pristranost algoritma.

AI pristranost nije ovdje da bi ostala

AI pristranost se događa kada algoritmi daju pristrana ili netočna predviđanja zbog pristranih ulaza. Pojavljuje se kada se pristrani ili nepotpuni podaci odražavaju ili pojačavaju tijekom razvoja i treninga algoritma.

Dobra vijest je da ćemo s množenjem financiranja istraživanja AI vjerojatno vidjeti nove metode smanjenja, pa čak i uklanjanja pristranosti prema AI.

E-mail
5 uobičajenih mitova o umjetnoj inteligenciji koji nisu istiniti

Postavimo zapis izravno na neke uobičajene neistine koje okružuju AI.

Pročitajte Dalje

Povezane teme
  • Objašnjena tehnologija
  • Umjetna inteligencija
  • Strojno učenje
O autoru
Jake Harfield (Objavljeno 6 članaka)

Jake Harfield slobodni je pisac sa sjedištem u Perthu u Australiji. Kad ne piše, obično je vani u grmlju fotografirajući lokalne divlje životinje. Možete ga posjetiti na www.jakeharfield.com

Više od Jakea Harfielda

Pretplatite se na naše obavijesti

Pridružite se našem biltenu za tehničke savjete, recenzije, besplatne e-knjige i ekskluzivne ponude!

Još jedan korak…!

Potvrdite svoju e-adresu u e-pošti koju smo vam upravo poslali.

.