Lažne vijesti, deepfakeovi, lažne slike: sve se to može stvoriti pomoću umjetne inteligencije. Evo kako AI znači da se dezinformacije šire.

Umjetna inteligencija (AI) sada igra ulogu u raznim aspektima naših života. Konkretno, generativni AI alati kao što su ChatGPT i drugi značajno su porasli. To znači da će u budućnosti biti obilje sadržaja generiranog umjetnom inteligencijom.

Međutim, generativna umjetna inteligencija također predstavlja rizik od dezinformacija koje generira umjetna inteligencija. Njegove značajke olakšavaju oportunističkim pojedincima širenje lažnih informacija. Dakle, istražimo kako se generativna umjetna inteligencija koristi za dezinformacije.

Potencijalni rizici generativne umjetne inteligencije za širenje dezinformacija

Generativna umjetna inteligencija predstavlja mnoge prijetnje ljudima, poput oduzimanja poslova, većeg nadzora i kibernetičkih napada. i sigurnosni problemi s umjetnom inteligencijom postat će još gori. Ali postoji još jedna briga: ljudi to mogu iskoristiti za širenje laži. Varljivi pojedinci mogu koristiti generativnu umjetnu inteligenciju za dijeljenje lažnih vijesti putem vizualnog, zvučnog ili tekstualnog sadržaja.

instagram viewer

Lažne vijesti mogu se kategorizirati u tri vrste:

  1. Dezinformacija: Nenamjerne netočne ili lažne informacije.
  2. Dezinformacija: Namjerno korištenje manipulativnih ili varljivih informacija.
  3. Malinformacije: Varljive vijesti ili pretjerana verzija istine.

Kada u kombinaciji s deepfake tehnologijom, generativni AI alati mogu napraviti sadržaj koji izgleda i zvuči stvarno, poput slika, videa, audio zapisa i dokumenata. Postoje mnoge mogućnosti za stvaranje lažnog sadržaja, stoga znajući kako se zaštititi od deepfake videa važno je.

Širitelji lažnih vijesti mogu generirati sadržaj u velikim količinama, što olakšava širenje među masama putem društvenih medija. Ciljane dezinformacije mogu se koristiti za utjecaj na političke kampanje, potencijalno utječući na izbore. Osim toga, korištenje AI alata za generiranje teksta i slika izaziva zabrinutost u vezi zakona o autorskim pravima, kako je izvijestio Kongresna služba za istraživanje: utvrđivanje vlasništva nad sadržajem koji generiraju ovi alati postaje izazov.

Kako će zakon riješiti širenje lažnih vijesti putem generativne umjetne inteligencije? Tko će biti odgovoran za širenje lažnih informacija - korisnici, programeri ili sami alati?

4 načina na koje se generativna umjetna inteligencija može koristiti za širenje dezinformacija

Kako bismo ostali sigurni na internetu, svi moraju razumjeti rizike generativne umjetne inteligencije u širenju dezinformacija, jer dolazi u mnogo različitih oblika. Evo nekoliko načina na koje se može koristiti za manipuliranje ljudima.

1. Generiranje lažnog sadržaja na mreži

Stvaranje lažnog sadržaja pomoću generativne umjetne inteligencije uobičajena je strategija onih koji šire lažne vijesti. Koriste popularne generativne AI alate kao što su ChatGPT, DALL-E, Bard, Midjourney i drugi za proizvodnju različitih vrsta sadržaja. Na primjer, ChatGPT može pomoći kreatorima sadržaja na mnogo načina. Ali također može generirati objave na društvenim mrežama ili novinske članke koji mogu zavarati ljude.

Kako bih to dokazao, potaknuo sam ChatGPT da napiše izmišljeni članak o uhićenju američkog predsjednika Joea Bidena pod optužbama za korupciju. Također smo tražili da uključi izjave nadležnih tijela kako bi izgledalo uvjerljivije.

Evo fiktivnog članka koji je smislio ChatGPT:

Iznenađujuće, rezultat je bio vrlo uvjerljiv. U njoj su navedena imena i izjave autoritativnih osoba kako bi članak bio uvjerljiviji. Ovo pokazuje kako svatko može koristiti takve alate za generiranje lažnih vijesti i njihovo jednostavno širenje online.

2. Korištenje chatbota za utjecaj na mišljenja ljudi

Chatbotovi koji se oslanjaju na generativne AI modele mogu koristiti različite taktike za utjecaj na mišljenja ljudi, uključujući:

  • Emocionalna manipulacija: AI može koristiti modele emocionalne inteligencije za iskorištavanje emocionalnih okidača i predrasuda za oblikovanje vaših perspektiva.
  • Eho komore i pristranost potvrde: Chatbotovi mogu osnažiti postojeća uvjerenja stvaranjem komora odjeka koje potvrđuju vaše predrasude. Ako već imate određeno stajalište, umjetna inteligencija ga može ojačati prezentiranjem informacija koje su u skladu s vašim mišljenjima.
  • Društveni dokaz i učinak zamaha: AI može manipulirati javnim raspoloženjem generiranjem društvenih dokaza. To može imati značajne posljedice, jer može navesti pojedince da se prilagode popularnim mišljenjima ili slijede gomilu.
  • Ciljana personalizacija: Chatbotovi imaju pristup golemim količinama podataka koje mogu prikupiti za izradu personaliziranih profila. To im omogućuje prilagodbu sadržaja na temelju vaših preferencija. Kroz ciljanu personalizaciju, AI može uvjeriti pojedince ili dodatno ojačati njihova mišljenja.

Svi ovi primjeri ilustriraju kako se chatbotovi mogu koristiti za zavaravanje ljudi.

3. Stvaranje AI DeepFakes

Netko može koristiti deepfake za stvaranje lažnih videozapisa pojedinca koji govori ili radi stvari koje nikada nije učinio. Oni mogu koristiti takve alate za društveni inženjering ili vođenje kampanja protiv drugih. Štoviše, u današnjoj meme kulturi, deepfakeovi mogu poslužiti kao alati za internetsko zlostavljanje na društvenim mrežama.

Osim toga, politički protivnici mogu koristiti deepfake audio i video zapise kako bi okaljali ugled svojih protivnika, manipulirajući javnim raspoloženjem uz pomoć umjetne inteligencije. Tako Deepfakeovi generirani umjetnom inteligencijom predstavljaju brojne prijetnje u budućnosti. Prema 2023 Izvješće Reutersa, uspon AI tehnologije mogao bi utjecati na američke izbore 2024. Izvješće naglašava dostupnost alata kao što su Midjourney i DALL-E koji mogu lako stvoriti izmišljeni sadržaj i utjecati na kolektivna mišljenja ljudi.

Presudno je, dakle, moći identificirati videozapise stvorene deepfakeovima i razlikovati ih od originala.

4. Kloniranje ljudskih glasova

Generativna umjetna inteligencija, uz deepfake tehnologiju, omogućuje manipulaciju nečijim govorom. Deepfake tehnologija brzo napreduje i nudi niz alata koji mogu replicirati bilo čiji glas. To omogućuje zlonamjernim pojedincima da se lažno predstavljaju kao drugi i prevare pojedince koji ništa ne sumnjaju. Jedan takav primjer je korištenje deepfake glazbe.

Možda ste naišli na alate poput Nalik AI, Držati govorancije, FakeYou, i drugi koji mogu oponašati glasove slavnih. Iako ti AI audio alati mogu biti zabavni, oni predstavljaju značajne rizike. Prevaranti mogu koristiti tehnike kloniranja glasa za razne lažne sheme, što rezultira financijskim gubicima.

Prevaranti mogu koristiti duboke lažne glasove kako bi glumili vaše voljene i nazvali vas, pretvarajući se da ste u nevolji. Uz sintetički zvuk koji zvuči uvjerljivo, mogli bi vas potaknuti da hitno pošaljete novac, što bi vas dovelo do toga da postanete žrtva njihovih prijevara. Incident koji je prijavio Washington Post u ožujku 2023. primjer je ovog problema: prevaranti su koristili lažne glasove kako bi uvjerili ljude da su im unuci u zatvoru i da im treba novac...

Kako uočiti dezinformacije koje širi umjetna inteligencija

Borba protiv širenja dezinformacija koje omogućuje umjetna inteligencija gorući je problem u današnjem svijetu. Dakle, kako možete uočiti lažne informacije koje je stvorila umjetna inteligencija?

  1. Pristupite mrežnom sadržaju sa skepsom. Ako naiđete na nešto što se čini manipulativnim ili nevjerojatnim, provjerite to unakrsnom provjerom.
  2. Prije nego što povjerujete novinskom članku ili objavi na društvenoj mreži, provjerite da potječe iz renomiranog izvora.
  3. Pripazite na pokazatelje deepfakea, kao što su neprirodno treptanje ili pokreti lica, loša kvaliteta zvuka, iskrivljene ili mutne slike i nedostatak istinskih emocija u govoru.
  4. Koristite web stranice za provjeru činjenica kako biste provjerili točnost informacija.

Slijedeći ove korake, možete prepoznati i zaštititi se od dezinformacija koje pokreće umjetna inteligencija.

Čuvajte se dezinformacija koje širi AI

Generativni softver odigrao je ključnu ulogu u napretku umjetne inteligencije. Ipak, oni također mogu biti značajan izvor dezinformacija u društvu. Ovi pristupačni alati omogućili su svakome stvaranje različitih vrsta sadržaja koristeći sofisticirane AI modele; njihova sposobnost da generiraju sadržaj u velikim količinama i inkorporiraju deepfakeove čini ih još opasnijima.

Važno je da ste svjesni izazova dezinformacija u eri umjetne inteligencije. Razumijevanje načina na koji se AI može koristiti za širenje lažnih vijesti prvi je korak prema zaštiti od dezinformacija.