AI alati poput ChatGPT-a su izvrsni, ali postoji nekoliko razloga zbog kojih biste ono što pročitate trebali uzeti s malo rezerve.

AI mijenja svijet kakav poznajemo, a njezin se utjecaj osjeća u svakoj industriji. Međutim, nisu sve te promjene nužno pozitivne. Iako AI nudi uzbudljive nove mogućnosti u mnogim područjima, ne možemo zanemariti činjenicu da mu nedostaje inherentni moralni kompas ili sustav provjere činjenica koji bi vodio donošenje odluka.

Zbog toga biste uvijek trebali provjeriti činjenice sve što vam se kaže dok svijet postaje sve više usmjeren na AI. Određeni alati umjetne inteligencije mogu manipulirati informacijama, potpuno krivo razumjeti kontekst i istovremeno sigurno biti u krivu, zbog čega je slijepo vjerovati umjetnoj inteligenciji loša ideja.

1. AI može pouzdano pogriješiti

Ljudi se sve više oslanjaju na AI chatbotovi za zadatke kao što je pisanje, zakazivanje sastanaka, pa čak i donošenje važnih odluka. Međutim, pogodnost ovih chatbota često ima znatnu cijenu – oni mogu biti u krivu.

instagram viewer

Kako bismo to ilustrirali, zamolili smo ChatGPT da nam ispriča o prvoj knjizi napisanoj za učenje Pythona. Evo kako je odgovorilo:

Jeste li uhvatili grešku? Kad smo prozvali ChatGPT zbog toga, brzo se ispravilo. Nažalost, iako je priznao svoju pogrešku, ovo pokazuje kako AI ponekad može biti potpuno u krivu.

AI chatbotovi imaju ograničene informacije, ali su programirani da odgovore na bilo koji način. Oni se oslanjaju na svoje podatke o obuci, a mogu biti i iz vaših interakcija sa strojnim učenjem. Ako umjetna inteligencija odbije odgovoriti, ne može naučiti niti se ispraviti. To je razlog zašto AI ponekad sigurno griješi; uči na svojim greškama.

Iako je to samo priroda umjetne inteligencije trenutno, možete vidjeti kako to može postati problem. Većina ljudi ne provjerava činjenice svoja Google pretraživanja, a isto je i ovdje s chatbotovima kao što je ChatGPT. To može dovesti do dezinformacija, a već imamo dosta toga za provjeru—što nas dovodi do druge točke.

2. Može se lako upotrijebiti za manipuliranje informacijama

Nije tajna da umjetna inteligencija može biti nepouzdana i sklona pogreškama, no jedna od njezinih najpodmuklijih osobina jest sklonost manipuliranju informacijama. Problem je u tome što umjetnoj inteligenciji nedostaje nijansirano razumijevanje vašeg konteksta, što ga dovodi do toga da iskrivljuje činjenice kako bi odgovarale vlastitim ciljevima.

Upravo se to dogodilo s Microsoftovim Bing Chatom. Jedan je korisnik na Twitteru zatražio vrijeme prikazivanja novog filma Avatar, ali chatbot je odbio dati informacije, tvrdeći da film još nije objavljen.

Naravno, ovo možete lako otpisati kao grešku ili jednokratnu pogrešku. Međutim, to ne mijenja činjenicu da su ovi alati umjetne inteligencije nesavršeni i da bismo trebali postupati oprezno.

3. To može spriječiti vašu kreativnost

Mnogi profesionalci, poput pisaca i dizajnera, sada koriste AI kako bi povećali učinkovitost. Međutim, važno je razumjeti da AI treba promatrati kao alat, a ne kao prečac. Iako ovo drugo svakako zvuči primamljivo, može ozbiljno utjecati na vašu kreativnost.

Kada se AI chatbotovi koriste kao prečac, ljudi imaju tendenciju kopirati i lijepiti sadržaj umjesto da generiraju jedinstvene ideje. Ovaj bi se pristup mogao činiti primamljivim jer štedi vrijeme i trud, ali ne uspijeva angažirati um i promicati kreativno razmišljanje.

Na primjer, dizajneri mogu koristite Midjourney AI za stvaranje umjetnosti, ali oslanjanje isključivo na AI može ograničiti opseg kreativnosti. Umjesto da istražujete nove ideje, možete završiti repliciranjem postojećih dizajna. Ako ste pisac, možete koristite ChatGPT ili druge AI chatbotove za istraživanje, ali ako ga koristite kao prečac za generiranje sadržaja, vaše će vještine pisanja stagnirati.

Korištenje umjetne inteligencije za dopunu vašeg istraživanja razlikuje se od oslanjanja isključivo na nju za stvaranje ideja.

4. AI se lako može zloupotrijebiti

AI je donio brojna otkrića u raznim područjima. Međutim, kao i kod svake druge tehnologije, postoji i rizik zlouporabe koja može dovesti do strašnih posljedica.

Sposobnost umjetne inteligencije da ponizi, uznemirava, zastraši i ušutka pojedince postala je značajan problem. Primjeri zlouporabe umjetne inteligencije uključuju stvaranje deepfakeova i napade uskraćivanja usluge (DoS), između ostalog.

Upotreba deepfake-ova generiranih umjetnom inteligencijom za stvaranje eksplicitnih fotografija žena koje ništa ne sumnjaju uznemirujući je trend. Kibernetički kriminalci također koriste DoS napade vođene umjetnom inteligencijom kako bi spriječili legitimne korisnike da pristupe određenim mrežama. Takvi napadi postaju sve složeniji i sve ih je teže zaustaviti jer pokazuju karakteristike slične ljudskim.

Dostupnost mogućnosti umjetne inteligencije kao biblioteka otvorenog koda omogućila je svakome pristup tehnologijama kao što su prepoznavanje slika i lica. To predstavlja značajan rizik za kibernetičku sigurnost jer bi terorističke skupine mogle koristiti te tehnologije za pokretanje terorističkih napada

5. Ograničeno razumijevanje konteksta

Kao što je ranije spomenuto, umjetna inteligencija ima vrlo ograničeno razumijevanje konteksta, što može biti značajan izazov u donošenju odluka i rješavanju problema. Čak i ako umjetnoj inteligenciji pružite kontekstualne informacije, ona može propustiti nijanse i pružiti netočne ili nepotpune informacije koje mogu dovesti do netočnih zaključaka ili odluka.

To je zato što AI radi na unaprijed programiranim algoritmima koji se oslanjaju na statističke modele i prepoznavanje uzoraka za analizu i obradu podataka.

Na primjer, razmislite o chatbotu koji je programiran za pomoć korisnicima s njihovim upitima o proizvodu. Iako chatbot može odgovoriti na osnovna pitanja o značajkama i specifikacijama proizvoda, može boriti se za pružanje personaliziranih savjeta ili preporuka na temelju jedinstvenih potreba i preferencija korisnika.

6. Ne može zamijeniti ljudski sud

Kada tražite odgovore na složena pitanja ili donosite odluke na temelju subjektivnih preferencija, oslanjanje samo na AI može biti riskantno.

Zamoliti AI sustav da definira koncept prijateljstva ili da bira između dvije stavke na temelju subjektivnih kriterija može biti uzaludna vježba. To je zato što AI nema sposobnost uzimanja u obzir ljudskih emocija, konteksta i nematerijalnih elemenata bitnih za razumijevanje i tumačenje takvih koncepata.

Na primjer, ako tražite od AI sustava da odabere između dvije knjige, on može preporučiti onu s višim ocjene, ali ne može uzeti u obzir vaš osobni ukus, sklonosti čitanju ili svrhu za koju vam je potrebna knjiga.

S druge strane, ljudski recenzent može pružiti nijansiraniju i personaliziraniju recenziju knjige ocjenjujući njezinu književna vrijednost, relevantnost za interese čitatelja i drugi subjektivni čimbenici koji se ne mogu mjeriti objektivno.

Budite oprezni s umjetnom inteligencijom

Iako se AI pokazao nevjerojatno moćnim alatom u raznim područjima, bitno je biti svjestan njegovih ograničenja i potencijalnih pristranosti. Slijepo vjerovati umjetnoj inteligenciji može biti rizično i može imati značajne posljedice jer je tehnologija još uvijek u povojima i daleko je od savršene.

Ključno je imati na umu da je umjetna inteligencija alat, a ne zamjena za ljudsku stručnost i prosudbu. Stoga ga pokušajte koristiti samo kao dodatak istraživanju, ali ne oslanjajte se samo na njega za važne odluke. Sve dok znate nedostatke i odgovorno koristite AI, trebali biste biti u sigurnim rukama.