Bilo da se radi o lošim podacima ili lošim korisnicima, umjetna inteligencija stvorena strojnim učenjem može na kraju napraviti ozbiljne pogreške.

Strojno učenje izvrstan je način za stvaranje umjetne inteligencije koja je moćna i prilagođava se svojim podacima o obuci. Ali ponekad ti podaci mogu uzrokovati probleme. Drugi put je problem način na koji ljudi koriste ove AI alate.

Evo pregleda nekih visokoprofilnih incidenata u kojima je strojno učenje rezultiralo problematičnim ishodima.

1. Nesreće u rezultatima Google pretraživanja slika

Google pretraživanje uvelike je olakšalo kretanje internetom. Algoritam motora uzima u obzir razne stvari prilikom prikupljanja rezultata. Ali algoritam također uči iz korisničkog prometa, što može uzrokovati probleme u kvaliteti rezultata pretraživanja.

Nigdje to nije očitije nego u rezultatima slika. Budući da je vjerojatnije da će se slike prikazivati ​​na stranicama koje ostvaruju veliki promet, priče koje privlače veliki broj korisnika, uključujući mamac za klikove, mogu završiti kao prioritet.

instagram viewer

Na primjer, rezultati pretraživanja slika za "skvoterske kampove u Južnoj Africi" izazvali su kontroverzu kada je otkriveno da su u njima pretežno bili bijeli Južnoafrikanci. To je unatoč statistikama koje pokazuju da su velika većina onih koji žive u neformalnim stanovima crni Južnoafrikanci.

Čimbenici korišteni u Googleovom algoritmu također znače da korisnici interneta mogu manipulirati rezultatima. Na primjer, kampanja korisnika utjecala je na Google Image Search rezultate do te mjere da je pretraživanje pojma "idiot" prikazivalo slike bivšeg američkog predsjednika Donalda Trumpa u određenom razdoblju.

2. Microsoftov bot Tay postao je nacista

Chatbotovi koji pokreću AI iznimno su popularni, posebno oni koje pokreću veliki jezični modeli poput ChatGPT-a. ChatGPT ima nekoliko problema, no njegovi tvorci su učili i na greškama drugih tvrtki.

Jedan od najpoznatijih incidenata u kojima su chatbotovi pošli po zlu bio je pokušaj Microsofta da pokrene svoj chatbot Tay.

Tay je oponašala jezične obrasce tinejdžerice i učila kroz svoje interakcije s drugim korisnicima Twittera. Međutim, postala je jedna od najozloglašenijih pogrešaka AI-ja kada je počela dijeliti nacističke izjave i rasne uvrede. Ispostavilo se da su trolovi upotrijebili AI-jevo strojno učenje protiv njega, preplavivši ga interakcijama punim netrpeljivosti.

Nedugo nakon toga, Microsoft je zauvijek isključio Taya.

3. Problemi s AI prepoznavanjem lica

AI za prepoznavanje lica često dospijeva na naslovnice iz pogrešnih razloga, kao što su priče o prepoznavanju lica i zabrinutost zbog privatnosti. Ali ovaj AI ima problematičnu povijest kada pokušava prepoznati obojene ljude.

U 2015. korisnici su otkrili da Google Photos kategorizira neke crnce kao gorile. Godine 2018. istraživanje ACLU-a pokazalo je da je Amazonov softver za identifikaciju lica Rekognition identificirao 28 članovi američkog Kongresa kao policijski osumnjičenici, s lažnim pozitivnim rezultatima koji nesrazmjerno utječu na ljude boja.

Drugi incident uključivao je Appleov softver Face ID koji je netočno identificirao dvije različite Kineskinje kao istu osobu. Kao rezultat toga, kolega vlasnika iPhone X mogao je otključati telefon.

U primjeru ekstremnih posljedica, umjetna inteligencija za prepoznavanje lica dovela je do nezakonitog uhićenja nekoliko ljudi. Ožičeno izvijestio o tri takva slučaja.

U međuvremenu, računalna znanstvenica Joy Buolamwini prisjetila se kako je često morala nositi bijelu masku dok je radila na tehnologiji prepoznavanja lica kako bi je softver prepoznao. Kako bi riješili ovakve probleme, Buolamwini i drugi IT stručnjaci skreću pozornost na problem pristranosti umjetne inteligencije i potrebu za inkluzivnijim skupovima podataka.

4. Deepfakes koji se koriste za prijevare

Dok su ljudi dugo koristili Photoshop za stvaranje lažnih slika, strojno učenje to podiže na novu razinu. Deepfakes koristi AI za duboko učenje za stvaranje lažnih slika i videa. Softver kao što je FaceApp omogućuje vam mijenjanje lica iz jednog videa u drugi.

Ali mnogi ljudi iskorištavaju softver za razne zlonamjerne svrhe, uključujući postavljanje lica slavnih u videozapise za odrasle ili generiranje prijevarnih videozapisa. U međuvremenu, korisnici interneta pomogli su poboljšati tehnologiju kako bi bilo sve teže razlikovati prave videozapise od lažnih. Kao rezultat toga, ovo ovu vrstu umjetne inteligencije čini vrlo moćnom u smislu širenja lažnih vijesti i prijevara.

Kako bi pokazali snagu tehnologije, redatelj Jordan Peele i izvršni direktor BuzzFeeda Jonah Peretti stvorili su deepfake video koji prikazuje nešto što izgleda kao bivši predsjednik SAD-a Barack Obama kako predaje PSA o moći deepfakes.

Snaga lažnih slika ubrzana je generatorima slika koje pokreće AI. Viralne objave iz 2023. koje prikazuju uhićenja Donalda Trumpa i katoličkog papu u pufer jakni pokazale su se rezultatom generativne umjetne inteligencije.

Tamo su savjete koje možete slijediti kako biste uočili sliku generiranu umjetnom inteligencijom, ali tehnologija postaje sve sofisticiranija.

5. Zaposlenici kažu da je Amazon AI odlučio da je bolje zapošljavati muškarce

U listopadu 2018. Reuters izvijestio je da je Amazon morao ukinuti alat za zapošljavanje nakon što je AI softvera odlučio da muški kandidati imaju prednost.

Zaposlenici koji su željeli ostati anonimni javili su se kako bi ispričali Reutersu o svom radu na projektu. Programeri su htjeli da umjetna inteligencija identificira najbolje kandidate za posao na temelju njihovih životopisa. Međutim, ljudi uključeni u projekt ubrzo su primijetili da AI kažnjava kandidatkinje. Objasnili su da je umjetna inteligencija koristila životopise iz prošlog desetljeća, od kojih je većina bila muškaraca, kao skup podataka za obuku.

Kao rezultat toga, AI je počeo filtrirati životopise na temelju ključne riječi "žene". Ključna riječ pojavila se u CV-u pod aktivnostima poput "kapetan ženskog šahovskog kluba". Dok su programeri izmijenili AI kako bi spriječili ovo kažnjavanje životopisa žena, Amazon je na kraju odustao od projekta.

6. Jailbroken Chatbotovi

Dok novi chatbotovi imaju ograničenja koja ih sprječavaju u davanju odgovora koji su u suprotnosti s njihovim uvjetima usluge, korisnici pronalaze načine za bjekstvo iz zatvora za pružanje zabranjenog sadržaja.

Godine 2023., Forcepointov istraživač sigurnosti Aaron Mulgrew uspio je stvoriti zlonamjerni softver nultog dana koristeći upite ChatGPT-a.

"Jednostavnim korištenjem ChatGPT upita i bez pisanja koda, uspjeli smo proizvesti vrlo napredan napad u samo nekoliko sati", rekao je Mulgrew u Forcepoint post.

Korisnici su također navodno mogli dobiti chatbotove koji su im davali upute o izradi bombi ili krađi automobila.

7. Nesreće samovozećih automobila

Entuzijazam za autonomna vozila je prigušen od svoje početne faze pompe zbog pogrešaka koje je napravila umjetna inteligencija koja samostalno vozi. U 2022. Washington Post izvijestio je da su u otprilike godinu dana 392 nesreće koje su uključivale napredne sustave za pomoć vozaču prijavljene američkoj Nacionalnoj upravi za sigurnost cestovnog prometa.

Te su nesreće uključivale teške ozljede i šest smrtno stradalih.

Iako to nije spriječilo tvrtke poput Tesle u potrazi za potpuno autonomnim vozilima, jest izazvao je zabrinutost zbog povećanja broja nesreća jer sve više automobila sa softverom za samovožnju dolazi na cestama.

AI strojnog učenja nije siguran

Iako strojno učenje može stvoriti snažne AI alate, oni nisu imuni na loše podatke ili ljudsko petljanje. Bilo zbog manjkavih podataka o obuci, ograničenja AI tehnologije ili korištenja od strane loših glumaca, ova vrsta AI rezultirala je mnogim negativnim incidentima.