Rasprave oko AI osjećaja nisu ništa novo, ali vijesti o Googleovoj AI LaMDA potpirile su vatru. Nakon što je jedan inženjer ustvrdio da je robot pri svijesti, čak i da ima dušu, ponovno su se pojavila neka poznata pitanja.

Može li umjetna inteligencija poput LaMDA zapravo biti osjećajna ili samosvjesna, i ako može, kako to možete znati? Je li to bitno?

Što je LaMDA?

LaMDA, skraćenica za Language Model for Dialogue Applications, prvi put se pojavila 2021. na Googleovoj konferenciji za razvojne programere. Napredni AI sustav trebao bi pomoći u izgradnji drugih, manjih chatbota. Kad ga je Google prvi put predstavio, najavio je planove za njegovu integraciju u sve, pomažući uslugama kao što su Google Assistant i Search da se osjećaju ljudskije, ili barem prirodnije.

Kada je Googleov inženjer Blake Lemoine razgovarao s LaMDA-om da vidi koristi li se govor mržnje, stekao je drugačiji dojam. Lemoine je tvrdio da je LaMDA osjećajna i da ne zna da je bot, pomislio bi da je osmogodišnje dijete.

Nakon razgovora s LaMDA-om, Lemoine je pokušao dokazati da je pri svijesti i obraniti ono za što je vjerovao da su njezina zakonska prava. Kao odgovor, Google je Lemoinea smjestio na plaćeni administrativni dopust zbog kršenja ugovora o povjerljivosti.

instagram viewer

Je li LaMDA zapravo osjećajna?

Dakle, je li LaMDA zapravo osjećajna? Većina stručnjaka koji su raspravljali o ovom pitanju skeptični su. LaMDA je vrlo napredna AI chat platforma koja analizira bilijune riječi s interneta, tako da je vješta u zvučanju kao stvarna osoba.

Ovo nije prvi put da je Googleov AI prevario ljude da pomisle da je čovjek. Google je 2018. demonstrirao svoj Duplex AI pozivom u restoran da rezervira stol. Zaposlenik s druge strane niti u jednom trenutku nije sumnjao da razgovaraju s nekom osobom.

Osjećaj je teško definirati, iako većina ljudi sumnjam da je umjetna inteligencija došla do te točke još. Međutim, važno pitanje možda nije je li LaMDA stvarno osjećajna, već kakva je razlika ako može prevariti ljude da misle da jest.

Moguće pravne implikacije LaMDA

Situacija s LaMDA postavlja mnoga pravna i etička pitanja. Prvo, neki bi se ljudi mogli zapitati je li Google bio u pravu što je pustio Lemoinea jer je o tome govorio.

Prema Odjeljku 740 Zakona o radu New Yorka, zaštita zviždača brani zaposlenike od takvih posljedice ako vjeruju da praksa njihovog poslodavca krši zakon ili predstavlja značajan rizik za javnost sigurnost. LaMDA-in navodni osjećaj ne ispunjava baš taj zakonski zahtjev, ali bi li trebao?

Davanje AI prava je škakljiva tema. Dok AI može stvarati stvari i činiti se ljudskim, možete naići na neke komplicirane situacije ako ti strojevi imaju zakonsku zaštitu. Zakonska prava djeluju oko nagrada i kazni koje ne utječu na AI, komplicirajući pravdu.

Ako samovozeći automobil udari pješaka, je li AI kriva ako ga zakon tretira kao čovjeka? I ako je tako, to striktno ne daje žrtvi pravdu jer tehnički ne možete kazniti umjetnu inteligenciju na isti način na koji biste kaznili čovjeka.

Još jedno pitanje koje se postavlja kod LaMDA i sličnih AI chatbota je njihova sigurnost. Ako ti botovi izgledaju uvjerljivo stvarni, ljudi bi im mogli više vjerovati i biti spremni dati ih osjetljivije informacije. To otvara vrata nizu zabrinutosti za privatnost i sigurnost ako ova tehnologija padne u krive ruke.

AI uvodi komplicirana etička pitanja

Umjetne inteligencije poput LaMDA postaju sve sofisticiranije i realističnije. Kako ovaj trend raste, tvrtke i zakonodavci trebali bi preispitati kako tretiraju AI i kako bi te odluke mogle utjecati na pravdu i sigurnost.

Kako sada stoji, Googleova LaMDA AI možda nije osjetljiva, ali je dovoljno dobra da prevari ljude da pomisle da jest, što bi trebalo izazvati uzbunu.