Uz moderne jezične modele umjetne inteligencije kao što su ChatGPT i Microsoftov Bing Chat koji prave valove diljem svijeta, mnogi su ljudi zabrinuti da će umjetna inteligencija preuzeti svijet.
Iako u doglednoj budućnosti nećemo naići na SkyNet, umjetna inteligencija postaje bolja od ljudi u nekoliko stvari. Tu dolazi do izražaja problem AI kontrole.
Objašnjen problem AI kontrole
Problem kontrole umjetne inteligencije je ideja da će umjetna inteligencija s vremenom postati bolja u donošenju odluka od ljudi. U skladu s ovom teorijom, ako ljudi ne postave stvari ispravno prije, nećemo imati priliku popraviti stvari kasnije, što znači da će AI imati učinkovitu kontrolu.
Trenutačno istraživanje modela umjetne inteligencije i strojnog učenja (ML) u najmanju je ruku godinama daleko od nadmašivanja ljudskih sposobnosti. Međutim, razumno je misliti da će, s obzirom na trenutni napredak, AI nadmašiti ljude u smislu inteligencije i učinkovitosti.
To ne znači da AI i ML modeli nemaju svojih ograničenja. Oni su, uostalom, vezani zakonima fizike i računskom složenošću, kao i procesorskom snagom uređaja koji podržavaju te sustave. Međutim, sigurno je pretpostaviti da su te granice daleko iznad ljudskih sposobnosti.
To znači da je superinteligentan AI sustavi mogu predstavljati veliku prijetnju ako nije ispravno dizajniran sa zaštitnim mjerama za provjeru bilo kakvog potencijalno lažnog ponašanja. Takve sustave treba izgraditi od temelja kako bi se poštovale ljudske vrijednosti i njihova moć držala pod kontrolom. To je ono što problem kontrole znači kada kaže da stvari moraju biti ispravno postavljene.
Ako bi sustav umjetne inteligencije nadmašio ljudsku inteligenciju bez odgovarajućih zaštitnih mjera, rezultat bi mogao biti katastrofalan. Takvi bi sustavi mogli preuzeti kontrolu nad fizičkim resursima jer se mnogi zadaci postižu bolje ili učinkovitije. Budući da su AI sustavi dizajnirani za postizanje maksimalne učinkovitosti, gubitak kontrole može dovesti do ozbiljnih posljedica.
Kada se primjenjuje problem AI kontrole?
Glavni problem je u tome što što je sustav umjetne inteligencije bolji, to je ljudskom nadzorniku teže nadzirati tehnologiju kako bi se osiguralo lako preuzimanje ručne kontrole u slučaju kvara sustava. Osim toga, ljudska sklonost da se oslanjaju na automatizirani sustav veća je kada sustav većinu vremena radi pouzdano.
Sjajan primjer za to je Teslin komplet za samostalnu vožnju (FSD).. Iako se automobil može sam voziti, potrebno je da čovjek drži ruke na upravljaču, spreman preuzeti kontrolu nad automobilom u slučaju kvara sustava. Međutim, kako ovi sustavi umjetne inteligencije postaju pouzdaniji, pažnja čak i najbudljivijih ljudi počet će varirati, a ovisnost o autonomnom sustavu će se povećati.
Dakle, što se događa kada automobili počnu voziti brzinom koju ljudi ne mogu pratiti? Na kraju ćemo predati kontrolu autonomnim sustavima automobila, što znači da će AI sustav kontrolirati vaš život, barem dok ne stignete na odredište.
Može li se problem AI kontrole riješiti?
Postoje dva odgovora na to može li se problem kontrole umjetne inteligencije riješiti ili ne. Prvo, ako pitanje tumačimo doslovno, problem kontrole se ne može riješiti. Ne postoji ništa što možemo učiniti što izravno cilja na ljudsku tendenciju da se oslanja na automatizirani sustav kada on većinu vremena radi pouzdano i učinkovitije.
Međutim, ako se ova tendencija uzme u obzir kao značajka takvih sustava, možemo osmisliti načine za rješavanje problema kontrole. Na primjer, Algoritamsko odlučivanje i problem upravljanja istraživački rad predlaže tri različite metode za rješavanje teškoće:
- Korištenje manje pouzdanih sustava zahtijeva aktivno uključivanje čovjeka u sustav jer manje pouzdani sustavi ne predstavljaju problem kontrole.
- Čekati da sustav prijeđe ljudsku učinkovitost i pouzdanost prije implementacije u stvarnom svijetu.
- Implementirati samo djelomičnu automatizaciju korištenjem dekompozicije zadataka. To znači da su automatizirani samo oni dijelovi sustava koji ne zahtijevaju ljudskog operatera za obavljanje važnog zadatka. To se zove pristup dinamičke/komplementarne raspodjele funkcija (DCAF).
DCAF pristup uvijek stavlja ljudskog operatera na čelo automatiziranog sustava, osiguravajući da njihov unos kontrolira najvažnije dijelove procesa donošenja odluka u sustavu. Ako je sustav dovoljno angažiran da ljudski operater može neprestano paziti, problem kontrole se može riješiti.
Možemo li ikada doista kontrolirati AI?
Kako AI sustavi postaju napredniji, sposobniji i pouzdaniji, nastavit ćemo im prenositi više zadataka. Međutim, problem kontrole umjetne inteligencije može se riješiti uz odgovarajuće mjere opreza i zaštite.
AI već mijenja svijet za nas, uglavnom na bolje. Sve dok je tehnologija pod ljudskim nadzorom, ne bi trebalo biti razloga za brigu.