Ideja da tehnologije umjetne inteligencije moraju biti regulirane uobičajen je osjećaj. Većina vlada, razvijači AI proizvoda, pa čak i obični korisnici AI proizvoda slažu se s tim. Nažalost, najbolji način za reguliranje ovog brzo rastućeg područja je neriješena zagonetka.
Ako se ne kontroliraju, AI tehnologije mogu negativno poremetiti naš način života i ugroziti naše postojanje. Ali kako vlade mogu upravljati labirintom izazova koji dolazi s ovim područjem koje se brzo razvija?
1. Propisi o privatnosti i zaštiti podataka
Jedna od primarnih briga s AI tehnologijama je privatnost i sigurnost podataka. Sustavi umjetne inteligencije strojevi su gladni podataka. Potrebni su im podaci za rad, više podataka za učinkovitost i još više podataka za poboljšanje. Iako to nije problem, način na koji se ti podaci dobivaju, njihova priroda i način na koji se obrađuju i pohranjuju jedna je od najvećih tema za razgovor oko propisa AI-ja.
S obzirom na to, logično je da se uvedu strogi propisi o privatnosti podataka koji reguliraju podatke prikupljanje, pohranjivanje i obrada, kao i prava pojedinaca — čiji se podaci koriste — na pristup i kontrolu njihove podatke. Pitanja na koja bi ovi propisi vjerojatno odgovorili su:
- Koje vrste podataka se mogu prikupljati?
- Trebaju li se neki privatni podaci smatrati tabuom u umjetnoj inteligenciji?
- Kako bi AI tvrtke trebale postupati s osjetljivim osobnim podacima, kao što su zdravstveni kartoni ili biometrijski podaci?
- Trebaju li tvrtke AI biti obvezne implementirati mehanizme za pojedince da lako zatraže brisanje ili ispravak svojih osobnih podataka?
- Koje su posljedice za AI tvrtke koje se ne pridržavaju propisa o privatnosti podataka? Kako bi trebalo pratiti usklađenost i kako osigurati provedbu?
- Možda najvažnije, koji bi standard AI tvrtke trebale primijeniti kako bi osigurale sigurnost osjetljive prirode informacija koje posjeduju?
Ova pitanja i nekoliko drugih činili su srž zašto je ChatGPT privremeno zabranjen u Italiji. Ako se ne riješi ova zabrinutost, prostor umjetne inteligencije mogao bi biti divlji zapad za privatnost podataka, a talijanska zabrana mogla bi se pokazati kao predložak za zabrane u drugim zemljama diljem svijeta.
2. Razvoj etičkog okvira umjetne inteligencije
AI tvrtke često se hvale svojom predanošću etičkim smjernicama u razvoju AI sustava. Barem na papiru, svi su oni zagovornici odgovornog razvoja umjetne inteligencije. U medijima su Googleovi rukovoditelji naglasili kako tvrtka ozbiljno shvaća sigurnost i etiku umjetne inteligencije. Slično tome, "Siguran i etičan AI" je mantra za generalnog direktora OpenAI-ja, Sama Altmana. Ovi su prilično vrijedni odobravanja.
Ali tko donosi pravila? Tko odlučuje koje su etičke smjernice umjetne inteligencije dovoljno dobre? Tko odlučuje kako izgleda siguran razvoj umjetne inteligencije? Trenutačno se čini da svaka tvrtka s umjetnom inteligencijom ima vlastiti pristup odgovornom i etičkom razvoju umjetne inteligencije. OpenAI, Anthropic, Google, Meta, Microsoft, svi. Opasno je jednostavno oslanjati se na AI tvrtke da će učiniti pravu stvar.
The posljedice nekontroliranog AI prostora mogu biti katastrofalne. Dopustiti pojedinim tvrtkama da odluče koje će etičke smjernice usvojiti, a koje odbaciti, slično je mjesečarenju na našem putu u apokalipsu umjetne inteligencije. Rješenje? Jasan etički AI okvir koji osigurava:
- Sustavi umjetne inteligencije ne stavljaju nepravedno u nepovoljan položaj niti diskriminiraju pojedince ili određene grupe na temelju rase, spola ili socioekonomskog statusa.
- AI sustavi su sigurni, zaštićeni i pouzdani i smanjuju rizik od neželjenih posljedica ili štetnog ponašanja.
- Sustavi umjetne inteligencije izgrađeni su imajući na umu širi društveni utjecaj tehnologija umjetne inteligencije.
- Da ljudi zadrže konačnu kontrolu nad sustavima umjetne inteligencije i transparentnim donošenjem odluka.
- Sustavi umjetne inteligencije namjerno su ograničeni na načine koji su korisni za ljude.
3. Namjenska regulatorna agencija
Zbog potencijalnog utjecaja na ljudsku civilizaciju, rasprava o sigurnosti umjetne inteligencije obično je usporedna s rizikom od zdravstvene krize ili nuklearne katastrofe. Izbjegavanje potencijalnih nuklearnih incidenata zahtijeva posebnu agenciju poput američkog NRC-a (Nuklearna regulatorna komisija). Izbjegavanje rizika od opasnih zdravstvenih kriza zahtijeva osnivanje FDA (Food and Drug Administration)
Slično tome, kako bi se osiguralo da stvari ne krenu po zlu u području umjetne inteligencije, potrebna je posvećena agencija slična FDA-i i NRC-u jer AI nastavlja agresivno prodirati u sva područja našeg života. Nažalost, pitanje regulacije umjetne inteligencije u zemlji je nezgodno. Rad bilo koje posvećene regulatorne agencije vjerojatno će biti mučno težak bez prekogranične suradnje. Baš kao što američki NRC (Nuklearna regulatorna komisija) treba raditi ruku pod ruku s Međunarodnom organizacijom za atomsku energiju Agencija (IAEA) da bi bila u svom najboljem izdanju, svaka posvećena regulatorna agencija za umjetnu inteligenciju u zemlji također bi trebala međunarodni analog.
Takva bi agencija bila odgovorna za sljedeće:
- Razvoj propisa AI
- Osiguravanje usklađenosti i provedbe
- Nadgledanje procesa etičkog pregleda projekata umjetne inteligencije
- Suradnja i međudržavna suradnja o sigurnosti i etici umjetne inteligencije
4. Rješavanje pitanja autorskih prava i intelektualnog vlasništva
Postojeći zakoni o autorskim pravima i pravni okviri raspadaju se pred umjetnom inteligencijom. Način na koji su alati umjetne inteligencije, posebno generativni alati umjetne inteligencije, dizajnirani, čini ih poput javno odobrenog stroja za kršenje autorskih prava kojemu ne možete učiniti ništa.
Kako? Pa, mnogi od današnjih AI sustava treniraju se korištenjem materijala zaštićenih autorskim pravima. Znate, članci zaštićeni autorskim pravima, pjesme zaštićene autorskim pravima, slike zaštićene autorskim pravima itd. Tako alati vole ChatGPT, Bing AI i Google Bard mogu činiti sjajne stvari koje oni rade.
Iako ovi sustavi očito iskorištavaju intelektualno vlasništvo ljudi, način na koji ovi sustavi umjetne inteligencije to rade ne razlikuje se od čovjeka koji čita knjigu zaštićenu autorskim pravima, sluša pjesme zaštićene autorskim pravima ili gleda slike.
Možete pročitati knjigu zaštićenu autorskim pravima, naučiti nove činjenice iz nje i koristiti te činjenice kao temelj za vlastitu knjigu. Također možete poslušati pjesmu zaštićenu autorskim pravima kao inspiraciju za stvaranje vlastite glazbe. U oba slučaja upotrijebili ste materijale zaštićene autorskim pravima, ali to ne znači nužno da izvedeni proizvod krši autorska prava izvornika.
Iako je ovo logično objašnjenje za objašnjenje nereda koji umjetna inteligencija stvara zakonima o autorskim pravima, ono još uvijek šteti vlasnicima autorskih prava i intelektualnog vlasništva. S obzirom na to, potrebno je propisati:
- Jasno definirati obveze i odgovornosti svih strana uključenih u životni ciklus sustava umjetne inteligencije. To uključuje pojašnjavanje uloga svake strane, od programera umjetne inteligencije do krajnjih korisnika, kako bi se osigurala odgovornost strane se smatraju odgovornima za bilo kakvo kršenje autorskih prava ili kršenje intelektualnog vlasništva koje počini AI sustava.
- Ojačati postojeće okvire autorskih prava i možda uvesti zakone o autorskim pravima specifične za AI.
- Kako bi se osigurala inovacija u prostoru umjetne inteligencije uz zaštitu prava izvornih kreatora, AI propisi bi trebali redefinirati koncepte poštene upotrebe i transformativnog rada u kontekstu Sadržaj generiran umjetnom inteligencijom. Potrebne su jasnije definicije i smjernice kako bi se osiguralo da se prostor umjetne inteligencije može nastaviti poboljšavati uz poštovanje granica autorskih prava. Bitno je uspostaviti ravnotežu između inovacija i očuvanja prava kreatora sadržaja.
- Jasni putevi za suradnju s nositeljima prava. Ako će sustavi umjetne inteligencije ionako koristiti intelektualno vlasništvo ljudi, trebali bi postojati jasni putovi ili okviri za programere i vlasnicima prava na suradnju, posebno u smislu financijskih naknada, ako je izvedeno djelo takvog intelektualnog vlasništva komercijalizirana.
Regulacija umjetne inteligencije očajnički je potrebna popravak
Dok se umjetna inteligencija pojavila kao obećavajuće rješenje za mnoge naše društvene probleme, sama umjetna inteligencija brzo postaje problem koji treba hitno riješiti. Vrijeme je da se odmaknemo, razmislimo i napravimo potrebne popravke kako bismo osigurali pozitivan utjecaj umjetne inteligencije na društvo. Očajnički nam je potrebna hitna rekalibracija našeg pristupa izgradnji i korištenju AI sustava.