Generativna umjetna inteligencija je sjajna, ali uvijek predstavlja svoje informacije s apsolutnim autoritetom. Što je super osim ako se ne halucinira istina.

Halucinacija umjetne inteligencije (AI) zvuči zbunjujuće. Vjerojatno mislite: "Nisu li halucinacije ljudski fenomen?" Pa da, nekada je to bio samo čovjek fenomen sve dok umjetna inteligencija nije počela pokazivati ​​ljudske karakteristike poput prepoznavanja lica, samoučenja i govora priznanje.

Nažalost, AI je preuzeo neke negativne osobine, uključujući halucinacije. Dakle, je li AI halucinacija slična vrsti halucinacije koju doživljavaju ljudi?

Što je AI halucinacija?

Halucinacija umjetne inteligencije događa se kada model umjetne inteligencije generira rezultate koji se razlikuju od očekivanih. Imajte na umu da su neki modeli umjetne inteligencije osposobljeni za namjerno generiranje izlaza koji nisu povezani s bilo kakvim unosom (podacima) iz stvarnog svijeta.

Na primjer, vrhunski AI generatori teksta u umjetnost, kao što je DALL-E 2, može kreativno generirati nove slike koje možemo označiti kao "halucinacije" jer se ne temelje na podacima iz stvarnog svijeta.

instagram viewer

Halucinacija umjetne inteligencije u velikim modelima obrade jezika

Razmotrimo kako bi izgledala AI halucinacija u velikom modelu obrade jezika kao što je ChatGPT. Halucinacija ChatGPT-a rezultirala bi time da vam bot daje netočnu činjenicu s nekom tvrdnjom, tako da biste takve činjenice prirodno uzeli kao istinu.

Jednostavno rečeno, to su izmišljene izjave umjetno inteligentnog chatbota. Evo primjera:

Na daljnji upit, ChatGPT se pojavio s ovim:

AI halucinacija u računalnom vidu

Razmotrimo još jedno polje umjetne inteligencije koje može doživjeti halucinacije umjetne inteligencije: Računalni vid. Kviz u nastavku prikazuje 4x4 montažu s dva entiteta koji izgledaju tako slično. Slike su mješavina čipsa i lišća za roštilj.

Izazov je odabrati čips a da pritom ne pogodite ni jedno lišće u montaži. Računalu bi ova slika mogla izgledati lukavo i ono možda neće moći razlikovati čips od krumpirića za roštilj i lišće.

Evo još jedne montaže s mješavinom pudlica i slika peciva od svinjskog konca. Računalo ih najvjerojatnije ne bi moglo razlikovati, stoga bi se slike miješale.

Zašto se javlja AI halucinacija?

Halucinacije umjetne inteligencije mogu se pojaviti zbog kontradiktornih primjera — ulaznih podataka koji varaju aplikaciju umjetne inteligencije da ih krivo klasificira. Na primjer, kada obučavaju AI aplikacije, programeri koriste podatke (slike, tekst ili druge); ako su podaci promijenjeni ili iskrivljeni, aplikacija drugačije tumači unos, dajući pogrešan izlaz.

Nasuprot tome, čovjek još uvijek može točno prepoznati i identificirati podatke unatoč iskrivljenjima. To možemo označiti kao zdrav razum - ljudska osobina koju umjetna inteligencija još ne posjeduje. U ovom videu pogledajte kako se umjetna inteligencija prevari suparničkim primjerima:

Što se tiče velikih modela temeljenih na jeziku kao što je ChatGPT i njegove alternative, halucinacije mogu nastati zbog netočnog dekodiranja iz transformatora (model strojnog učenja).

U AI, transformator je model dubokog učenja koji koristi samopažnju (semantičke odnose između riječi u rečenica) za stvaranje teksta sličnog onome što bi čovjek napisao koristeći koder-dekoder (ulaz-izlaz) slijed.

Dakle, transformatori, polu-nadzirani model strojnog učenja, mogu generirati novo tijelo teksta (izlaz) iz velikog korpusa tekstualnih podataka korištenih u njegovoj obuci (ulaz). To čini predviđanjem sljedeće riječi u nizu na temelju prethodnih riječi.

Što se tiče halucinacija, ako je jezični model treniran na nedostatnim i netočnim podacima i resursima, očekuje se da bi rezultat bio izmišljen i netočan. Jezični model može generirati priču ili narativ bez logičkih nedosljednosti ili nejasnih veza.

U donjem primjeru od ChatGPT-a je zatraženo da navede riječ sličnu "revolt" i počinje s "b". Evo njegovog odgovora:

Daljnjim ispitivanjem nastavio je davati pogrešne odgovore, s visokom razinom povjerenja.

Pa zašto ChatGPT ne može dati točan odgovor na ove upite?

Može biti da je jezični model neopremljen za rukovanje prilično složenim uputama poput ovih ili onih ne može točno protumačiti upit, ignorirajući upit o davanju slične riječi s određenom abeceda.

Kako prepoznati AI halucinacije?

Sada je očito da aplikacije umjetne inteligencije imaju potencijal halucinirati—generirati odgovore drugačije od očekivanog izlaza (činjenica ili istina) bez ikakve zlonamjerne namjere. A uočavanje i prepoznavanje AI halucinacija ovisi o korisnicima takvih aplikacija.

Evo nekoliko načina za uočavanje AI halucinacija tijekom korištenja uobičajenih AI aplikacija:

1. Veliki modeli obrade jezika

Iako rijetko, ako primijetite gramatičku pogrešku u sadržaju koji proizvodi veliki model obrade, kao što je ChatGPT, to bi trebalo podići obrvu i natjerati vas da posumnjate na halucinaciju. Slično tome, kada sadržaj generiran tekstom ne zvuči logično, ne korelira s danim kontekstom ili se ne podudara s ulaznim podacima, trebali biste posumnjati na halucinaciju.

Korištenje ljudske prosudbe ili zdravog razuma može pomoći u otkrivanju halucinacija, jer ljudi mogu lako prepoznati kada tekst nema smisla ili ne slijedi stvarnost.

2. Računalni vid

Kao grana umjetne inteligencije, strojnog učenja i računalne znanosti, računalni vid osnažuje računala da prepoznaju i obrađuju slike poput ljudskih očiju. Korištenje konvolucijske neuronske mreže, oslanjaju se na nevjerojatnu količinu vizualnih podataka koji se koriste u njihovom treningu.

Odstupanje od obrazaca vizualnih podataka korištenih u treningu rezultirat će halucinacijama. Na primjer, ako računalo nije trenirano sa slikama teniske loptice, moglo bi je identificirati kao zelenu naranču. Ili ako računalo prepozna konja pored ljudske statue kao konja pored pravog čovjeka, tada se dogodila AI halucinacija.

Dakle, da biste uočili halucinaciju računalnog vida, usporedite generirani izlaz s onim što se od [normalnog] čovjeka očekuje da vidi.

3. Automobili koji se sami voze

Kredit za sliku: Ford

Zahvaljujući umjetnoj inteligenciji, samovozeći automobili postupno se infiltriraju na tržište automobila. Pioniri kao što su Tesla Autopilot i Fordov BlueCruise zagovaraju scenu samovozećih automobila. Možete se odjaviti kako i što vidi Teslin autopilot da malo razumijemo kako umjetna inteligencija pokreće samovozeće automobile.

Ako posjedujete jedan od takvih automobila, željeli biste znati halucinira li vaš AI automobil. Jedan znak bit će ako se čini da vaše vozilo odstupa od svojih uobičajenih obrazaca ponašanja tijekom vožnje. Na primjer, ako vozilo naglo zakoči ili skrene bez ikakvog očitog razloga, vaše vozilo s umjetnom inteligencijom možda halucinira.

I sustavi umjetne inteligencije mogu halucinirati

Ljudi i AI modeli različito doživljavaju halucinacije. Kada je riječ o umjetnoj inteligenciji, halucinacije se odnose na pogrešne rezultate koji su miljama udaljeni od stvarnosti ili nemaju smisla u kontekstu danog upita. Na primjer, AI chatbot može dati gramatički ili logički netočan odgovor ili pogrešno identificirati objekt zbog buke ili drugih strukturnih čimbenika.

AI halucinacije ne proizlaze iz svjesnog ili podsvjesnog uma, kao što biste primijetili kod ljudi. Umjesto toga, to je rezultat neadekvatnosti ili nedostatnosti podataka koji se koriste u obuci i programiranju AI sustava.