Umjetna inteligencija (AI) jednako je kontroverzna koliko i impresivna. Može olakšati mnoge dijelove posla i svakodnevnog života, ali postavlja i neka etička pitanja. Korištenje umjetne inteligencije od strane vlade SAD-a, posebice, kod nekih ljudi izaziva nelagodu.
Postoje mnogi vladini AI projekti koji se danas koriste ili su u razvoju, a neki su učinili mnogo dobrog. Istodobno, oni izazivaju mnogo zabrinutosti za privatnost umjetne inteligencije. Evo detaljnijeg pogleda na ove projekte i što oni znače za javnu privatnost.
Primjeri vladinih AI i projekata automatizacije
Najosnovniji primjeri umjetne inteligencije koje koristi američka vlada uključuju automatizaciju rutinskog uredskog rada. 2019. Seattle je koristio robotska automatizacija procesa (RPA) voditi brigu o unosu podataka i obradi aplikacija. Od tada je grad prošao kroz više od 6000 zaostalih aplikacija i uštedio stotine radnih sati.
Drugi vladini projekti umjetne inteligencije privlačniji su. Vatrogasna služba New Yorka testira pse robote iz
Boston Dynamics za mjerenje oštećenja konstrukcije i otrovnih para prije ulaska vatrogasaca. Prije projekta vatrogasnih robota, njujorška policijska uprava planirala je implementirati iste robote.Policijske uprave i druge vladine agencije diljem zemlje razmatraju korištenje sličnih tehnologija. Međutim, kako ovi vladini projekti umjetne inteligencije rastu, njihovi potencijalni nedostaci privatnosti postali su jasniji.
Je li umjetna inteligencija prijetnja privatnosti i sigurnosti?
Još uvijek je neizvjesno hoćete li u budućnosti vidjeti policijske robote, ali čini se da stvari idu u tom smjeru. Ovi projekti imaju mnogo prednosti, ali zabrinutost za privatnost umjetne inteligencije postaje ozbiljnija kada se radi s vladom. Evo nekih od najvećih problema s ovim tehnologijama.
Umjetna inteligencija se oslanja na prikupljanje i analizu podataka. Kao rezultat toga, više vladinih AI projekata znači da će te agencije prikupljati i pohranjivati dodatne informacije o svojim građanima. Neki ljudi smatraju da sve te informacije prikupljaju narušava njihovu privatnost i krši njihova prava.
Tehnologije poput projekta vatrogasnih pasa posebno su zabrinjavajuće jer mogu učiniti državni nadzor pogrešnim. Agencije kažu da je robot tu da provjerava sigurnosne probleme, ali ne postoji način na koji ljudi mogu reći koje podatke prikuplja. Mogla bi imati kamere i senzore koji skeniraju njihova lica ili prate njihove mobitele, a da oni ne znaju.
Neki ljudi se brinu da će "kul faktor" robota sakriti njihov potencijal nadzora. Policijski roboti u budućnosti mogli bi špijunirati građane bez izazivanja sumnje jer ljudi samo vide novu tehnologiju umjesto kršenja njihove privatnosti.
Nejasne odgovornosti
Ovi projekti AI i automatizacije također postavljaju pitanje odgovornosti. Ako robot napravi grešku koja rezultira štetom, tko je odgovoran za to? Kada državni službenik prekorači svoje granice i povrijedi nečija prava, sudovi ga mogu pozvati na odgovornost, ali što je s robotom?
Ovaj problem možete vidjeti u samovozećim automobilima. Ljudi su teretili proizvođača na temelju zahtjeva za odgovornost za proizvod u nekim slučajevima sudara autopilota, dok drugi krive vozača. U jednom slučaju, Nacionalni odbor za sigurnost u prometu stavio odgovornost i na proizvođača i na vozača, ali o tome se u konačnici mora odlučiti od slučaja do slučaja. Policijski roboti mute vodu na isti način. Ako naruše vašu privatnost, nejasno je treba li kriviti proizvođača, policijsku upravu ili ljudske nadzornike.
Ova zbrka mogla bi usporiti i zakomplicirati sudske postupke. Moglo bi proći neko vrijeme da žrtve kršenja privatnosti ili kršenja njihovih prava dobiju pravdu koju zaslužuju. Novi zakoni i pravni presedan mogli bi razjasniti stvari i riješiti ovaj problem, ali trenutno je to neizvjesno.
Rizici povrede podataka
Umjetna inteligencija koju koristi američka vlada također bi mogla proširiti zabrinutost zbog AI privatnosti koju vidite u privatnom sektoru. Prikupljanje nekih podataka može biti sasvim legalno, ali što više organizacije skupe, to je više u opasnosti. Tvrtka ili vlada ne smiju koristiti informacije za bilo što protuzakonito, ali ljude mogu učiniti ranjivima na kibernetički kriminal.
Bilo ih je više od 28.000 cyber napada protiv američke vlade samo u 2019. Ako agencije posjeduju više privatnih podataka građana, ovi napadi mogli bi utjecati ne samo na vladu. Uspješna povreda podataka mogla bi ugroziti mnoge ljude, a da oni ne znaju. Prekršaji često ostaju neprimijećeni, pa morate provjerite da vaši podaci nisu već na prodaju.
Na primjer, ako policijski robot u budućnosti koristi prepoznavanje lica za traženje kriminalaca, može pohraniti biometrijske podatke mnogih građana. Hakeri koji uđu u sustav mogli bi ukrasti te podatke i iskoristiti ih za provalu u bankovne račune ljudi. Vladini projekti umjetne inteligencije moraju imati snažne mjere kibernetičke sigurnosti ako ne žele ugroziti podatke ljudi.
Vladina umjetna inteligencija ima koristi, ali izaziva zabrinutost
Još uvijek nije jasno kako će američka vlada koristiti umjetnu inteligenciju u budućnosti. Nove zaštite i zakoni mogli bi riješiti te probleme i donijeti sve prednosti umjetne inteligencije bez njezinih rizika. Za sada, međutim, ove zabrinutosti izazivaju neke alarme.
Zabrinutost za privatnost postoji svugdje gdje AI radi. Ova pitanja postaju sve ozbiljnija jer ona igra sve veću ulogu u vladi. Državni projekti umjetne inteligencije mogli bi učiniti mnogo dobrog, ali imaju i značajan potencijal štete.
Microsoft upozorava da bi se "1984" mogla ostvariti za tri godine
Pročitajte dalje
Povezane teme
- Sigurnost
- Umjetna inteligencija
- Privatnost na mreži
O autoru

Shannon je kreator sadržaja koji se nalazi u Philly, PA. Piše u području tehnologije oko 5 godina nakon što je diplomirala IT. Shannon je glavna urednica ReHack Magazina i pokriva teme poput kibernetičke sigurnosti, igranja i poslovne tehnologije.
Pretplatite se na naše obavijesti
Pridružite se našem biltenu za tehničke savjete, recenzije, besplatne e-knjige i ekskluzivne ponude!
Kliknite ovdje za pretplatu