Razvoj umjetne inteligencije ubrzano napreduje, ali tko bi trebao voditi AI i njezin utjecaj na svijet?

Ključni zahvati

  • AI treba stroži nadzor jer se ranjivosti kibernetičke sigurnosti i problemi u vezi s privatnošću i dalje pojavljuju.
  • Vlada, tehnološke tvrtke i krajnji korisnici imaju ulogu u reguliranju umjetne inteligencije, ali svaki pristup ima svoja ograničenja.
  • Medijske kuće, neprofitne organizacije, udruge tehnološke industrije, akademske institucije i agencije za provođenje zakona također doprinose regulaciji umjetne inteligencije.

Opća javnost ima različite poglede na umjetnu inteligenciju - neki vjeruju da će strojevi u potpunosti zamijeniti ljudske radnike, dok drugi tvrde da je umjetna inteligencija modni hir. Međutim, jedna stvar oko koje se svi slažu jest da AI treba stroži nadzor.

Unatoč važnosti regulacije umjetne inteligencije, ona je zauzela drugo mjesto u odnosu na obuku. Programeri su toliko opsjednuti izgradnjom sljedećeg najvećeg modela umjetne inteligencije da kibernetičku sigurnost mijenjaju za brzi napredak. Pitanje nije treba li umjetna inteligencija regulaciju; ovisi o tome koje će upravljačko tijelo s odgovarajućim financiranjem, ljudskim resursima i tehnološkim kapacitetom preuzeti inicijativu.

instagram viewer

Dakle, tko bi trebao regulirati AI?

Državna tijela

Razni ljudi, od potrošača do tehnološki čelnici, nadaju se da će vlada regulirati AI. Javno financirane institucije imaju resurse za to. Čak i Elon Musk i Sam Altman, dva glavna pokretača utrke AI, vjeruju da neki brige o privatnosti oko AI previše su opasni da bi ih upravljačka tijela previdjela.

Vlada bi se trebala usredotočiti na zaštitu privatnosti i građanskih sloboda svojih birača ako preuzme regulaciju umjetne inteligencije. Kibernetički kriminalci nastavljaju pronalaziti načine za iskorištavanje AI sustava u svojim shemama. Pojedinci koji nisu dobro upućeni u umjetnu inteligenciju mogli bi se lako prevariti sintetiziranim glasovima, lažnim videozapisima i online profilima kojima upravljaju botovi.

Međutim, jedan od glavnih problema s vladom koja regulira umjetnu inteligenciju je da bi mogla nenamjerno ugušiti inovacije. AI je složena tehnologija koja se razvija. Osim ako službenici koji nadziru smjernice za implementaciju, razvoj i obuku razumiju kako umjetna inteligencija funkcionira, mogli bi donijeti preuranjene, neučinkovite prosudbe.

Razvojni programeri umjetne inteligencije, tehnološke tvrtke i laboratoriji

Uzimajući u obzir potencijalne prepreke koje bi mogle proizaći iz državnog nadzora umjetne inteligencije, mnogi bi radije da tehnološke tvrtke predvode regulaciju. Vjeruju da bi programeri trebali biti odgovorni za tehnologiju koju objavljuju. Samoregulacija im omogućuje poticanje inovacija i fokusiranje na učinkovito unapređenje ovih sustava.

Štoviše, njihovo dubinsko razumijevanje umjetne inteligencije pomoći će im da naprave poštene, informirane smjernice koje daju prednost sigurnosti korisnika bez ugrožavanja funkcionalnosti. Kao i kod svake druge tehnologije, stručnost u industriji pojednostavljuje praćenje. Dodjeljivanje neobučenih službenika da reguliraju tehnologije koje jedva razumiju može predstavljati više problema nego koristi.

Uzmimo za primjer raspravu u Senatu SAD-a 2018. o Facebookovim zakonima o privatnosti podataka. U ovom izvješću autora Washington Post, vidjet ćete da su mnogi zakonodavci zbunjeni osnovnim funkcijama Facebooka. Dakle, osim ako Senat SAD-a ne stvori jedini odjel tehničkih stručnjaka, oni vjerojatno nisu kvalificirani za reguliranje tako naprednog sustava koji se stalno mijenja kao što je AI.

Međutim, glavni problem s tehnološkim tvrtkama koje se same reguliraju jest da bi sumnjive korporacije mogle zlouporabiti svoju moć. Bez uplitanja treće strane, oni su u osnovi slobodni raditi što god žele.

Krajnji korisnici

Neki se boje da će vlada i privatni subjekti zlorabiti sustave umjetne inteligencije. Nisu sigurni u dopuštanje nekolicini upravnih tijela potpune kontrole nad tako moćnim tehnologijama, pogotovo zato što se AI još uvijek razvija. Oni bi se na kraju mogli boriti oko autoriteta radije nego raditi na učinkovitoj regulaciji.

Kako bi ublažili te rizike, skeptici vjeruju da krajnji korisnici zaslužuju slobodu korištenja AI modela kako žele. Kažu da bi se vladina tijela trebala miješati samo kada korisnici umjetne inteligencije krše zakon. To je ambiciozan cilj, ali bi se tehnički mogao postići kada bi programeri otvorenog koda AI dominirali tržišnim udjelima.

Uz to, ova postavka stavlja pojedince koji ne razumiju tehnologiju u nepovoljniji položaj. Korisnici su odgovorni za postavljanje ograničenja unutar svojih sustava—nažalost, nemaju svi resurse za to.

Također je kratkovidno ukloniti zaštićene modele s tržišta. Proliferacija AI modeli otvorenog koda imaju nekoliko pozitivnih i negativnih učinaka; za neke nedostatci nadmašuju prednosti.

Ostali subjekti koji igraju ulogu u regulaciji AI

Iako će veliki subjekti predvoditi regulaciju umjetne inteligencije, postoje tijela koja igraju značajnu ulogu:

Medijske kuće igraju ključnu ulogu u oblikovanju percepcije javnosti o umjetnoj inteligenciji. Oni izvješćuju o razvoju industrije, dijele nove alate, podižu svijest o štetnoj upotrebi umjetne inteligencije i intervjuiraju stručnjake o relevantnim problemima.

Većina činjenica koje krajnji korisnici znaju o umjetnoj inteligenciji zapravo dolaze iz medija. Objavljivanje lažnih podataka, bilo namjerno ili ne, prouzročit će nepopravljivu štetu - ne možete podcijeniti koliko se brzo dezinformacije šire.

2. Nevladine organizacije

Nekoliko neprofitnih organizacija usredotočeno je na zaštitu privatnosti i građanskih sloboda korisnika umjetne inteligencije. Oni educiraju javnost putem besplatnih izvora, zagovaraju nove politike, surađuju s vladinim dužnosnicima i izražavaju zanemarene probleme.

Jedini problem s neprofitnim organizacijama jest da im obično nedostaju resursi. Budući da nisu povezani s vladom, oslanjaju se na privatne poticaje i donacije za svakodnevne operacije. Nažalost, samo nekoliko organizacija dobiva odgovarajuća sredstva.

3. Udruge tehnološke industrije

Udruge tehnološke industrije usmjerene na AI mogu zastupati prava i interese javnosti. Poput neprofitnih organizacija, oni surađuju sa zakonodavcima, predstavljaju zabrinute pojedince, zalažu se za poštene politike i podižu svijest o određenim problemima.

Razlika je, međutim, u tome što su često povezani s privatnim tvrtkama. Njihovi članovi i dalje traže, ali će obično dobiti dovoljno sredstava od svojih matičnih organizacija sve dok daju rezultate.

4. Akademske institucije

Iako AI dolazi s nekoliko rizika, on je inherentno neutralan. Sve predrasude, problemi s privatnošću, sigurnosne pogreške i potencijalne aktivnosti kibernetičkog kriminala potječu od ljudi, tako da umjetna inteligencija sama po sebi nije nešto čega bi se trebali bojati.

Ali vrlo malo njih već razumije kako funkcioniraju moderni AI modeli. Zablude iskrivljuju ljudsku percepciju umjetne inteligencije, održavajući neutemeljene strahove kao što je umjetna inteligencija koja preuzima čovječanstvo ili krade poslove.

Akademske institucije mogle bi popuniti ove obrazovne praznine kroz dostupne resurse. Još uvijek nema previše znanstvenih radova o modernim LLM-ovima i NLP sustavima. Javnost može odgovornije koristiti AI i boriti se protiv kibernetičkog kriminala ako u potpunosti razumije kako funkcionira.

5. Agencije za provođenje zakona

Agencije za provođenje zakona trebale bi očekivati ​​da će se susresti s više Kibernetički napadi omogućeni umjetnom inteligencijom. Proliferacijom generativnih modela, prevaranti mogu brzo sintetizirati glasove, generirati lažne slike, strugati osobne podatke (PII), pa čak i stvoriti potpuno nove osobe.

Većina agencija nije opremljena za rješavanje ovih zločina. Trebali bi ulagati u nove sustave i obučavati svoje službenike o suvremenom kibernetičkom kriminalu; inače će imati problema s hvatanjem ovih prevaranata.

Budućnost regulacije umjetne inteligencije

S obzirom na brzu prirodu umjetne inteligencije, malo je vjerojatno da će je kontrolirati jedno upravno tijelo. Da, tehnološki čelnici imat će veću moć od potrošača, ali različiti subjekti moraju surađivati ​​kako bi upravljali rizicima umjetne inteligencije bez ometanja napretka. Najbolje je sada postaviti mjere kontrole dok je umjetna opća inteligencija (AGI) još uvijek dalek cilj.

Ipak, regulacija umjetne inteligencije jednako je daleka kao i AGI. U međuvremenu, korisnici se moraju pridržavati sigurnosnih praksi u borbi protiv prijetnji koje pokreće umjetna inteligencija. Dobre navike poput ograničavanja ljudi s kojima se povezujete na mreži i osiguravanja vaših digitalnih podataka koji otkrivaju identitet već su od velike važnosti.