Jeste li se pridružili aplikaciji za upoznavanje? Ili tražite ljubav negdje drugdje? Prevaranti vas mogu iskoristiti koristeći umjetnu inteligenciju. Evo kako.

Aplikacije za upoznavanje na mreži oduvijek su bile leglo ljubavnih prijevara. Cyberkriminalci idu više od toga kako bi ukrali novac, osobne podatke i eksplicitne fotografije. Njihove lažne profile pronaći ćete posvuda.

A s proliferacijom generativnih AI alata, ljubavne prijevare postaju još lakše izvesti. Oni smanjuju barijere ulasku. Evo sedam uobičajenih načina na koje romantični prevaranti iskorištavaju AI— plus kako se možete zaštititi.

1. Masovno slanje e-pošte generirane umjetnom inteligencijom

Spam e-poštu sve je teže filtrirati. Ljubavni prevaranti zlorabe generativne AI alate za pisanje pogrešnih, uvjerljivih poruka i stvaranje višestrukih računa u roku od nekoliko sati. Prilaze stotinama gotovo trenutno.

Spam poruke generirane umjetnom inteligencijom vidjet ćete na raznim platformama, ne samo u pristigloj pošti. Uzmi prijevara s krivim brojem

kao primjer. Lopovi masovno šalju slatke selfije ili sugestivne fotografije. A ako netko odgovori, odglumit će to kao nevinu grešku.

Nakon što je netko na vezi, bit će prebačen na drugu platformu za razmjenu poruka (npr. WhatsApp ili Telegram). Većina shema traje tjednima. Prevaranti postupno izgrađuju povjerenje prije nego što traže od meta da se pridruže investicijskim shemama, pokriju svoje račune ili plate putovanja.

Ostanite sigurni u potpunosti izbjegavajući neželjene poruke. Ograničite svoj angažman sa strancima, bez obzira na to kako izgledaju ili što nude.

2. Brzo odgovaranje na više razgovora

Botovi se munjevito šire internetom. Imperva izvještava da su loši botovi činili 30 posto automatiziranog web prometa 2022. Pronaći ćete jednu u roku od nekoliko sekundi nakon što pređete kroz Tinder podudaranja.

Jedan od razloga za ovaj iznenadni porast botova je proliferacija generativnih AI alata. Izbacuju botove na veliko. Samo unesite pravi upit i vaš će alat predstaviti potpuni, učinkovit isječak koda za generiranje botova.

Znajte kada razgovarate s botom. Iako AI koristi prirodan, razgovorni ton, njegov dijalog i dalje zvuči monotono i nespretno. Uostalom, chatbotovi samo slijede obrasce. Može dati slične odgovore na različita pitanja, izjave i zahtjeve.

3. Stvaranje višestrukih identiteta iz ukradenih slika

2 Slike

AI umjetnički generatori manipulirati slikama. Uzmite donju demonstraciju kao primjer. Pustili smo Playground AI iskrenu fotografiju poznate pjevačice—platforma je proizvela tri varijacije u roku od nekoliko sekundi.

Da, imaju mane. Ali imajte na umu da smo koristili besplatni alat koji pokreće zastarjeli model teksta u sliku. Prevaranti proizvode realističnije rezultate sofisticiranim ponavljanjima. Oni mogu brzo prikazati stotine prilagođenih, manipuliranih fotografija iz samo nekoliko uzoraka.

Nažalost, AI slike je teško otkriti. Najbolje bi bilo učiniti a obrnuto pretraživanje slike i prosijati relevantne rezultate.

4. Izrada profila koji izgledaju varljivo autentično

Botovi masovno prilaze žrtvama. Dakle, romantični prevaranti koji preferiraju ciljanu shemu stvaraju samo jedan ili dva profila autentičnog izgleda. Koristit će AI kako bi djelovali uvjerljivo. Generativni AI alati mogu sastaviti opise autentičnog izgleda koji zvuče prirodno i autentično; loša gramatika više neće biti problem.

Evo ChatGPT-a koji predlaže neke hobije za popis na profilu za upoznavanje.

A evo ChatGPT-a koji piše cijelu biografiju za vaš profil za upoznavanje.

Budući da ovaj proces oduzima toliko vremena, zahtijeva i veću dobit. Dakle, prevaranti obično traže više. Nakon što steknu vaše povjerenje, tražit će pomoć s raznim "problemima", poput bolničkih računa, plaćanja kredita ili školarine. Neki će čak tvrditi da će vas posjetiti ako platite njihovu kartu.

Ovi kibernetički kriminalci vješti su u manipuliranju žrtvama. Najbolja je taktika izbjegavati kontakt s njima od samog početka. Ne dopustite im da govore bilo što. Inače biste postupno mogli nasjesti na njihove prijevare i metode rasvjetljavanja.

5. Iskorištavanje tehnologije Deepfake za seksualno iznuđivanje

AI je napredovao deepfake alate alarmantno velikom brzinom. Nove tehnologije smanjuju manje nesavršenosti u deepfake videozapisima, poput neprirodnog treptanja, neujednačenih tonova kože, izobličenog zvuka i nedosljednih elemenata.

Nažalost, te pogreške također služe kao upozorenja. Omogućavanje korisnicima da ih uklone otežava razlikovanje legitimnih i lažnih videozapisa.

Bloomberg pokazuje kako svatko s osnovnim tehničkim znanjem može manipulirati svojim glasom i vizualnim prikazima kako bi kopirao druge.

Osim stvaranja realističnih profila za upoznavanje, prevaranti iskorištavaju alate deepfake za seksualno iznuđivanje. Miješaju javne fotografije i videozapise s pornografijom. Nakon manipuliranja nedopuštenim sadržajem, ucjenjivat će žrtve i tražiti novac, osobne podatke ili seksualne usluge.

Ne popuštajte ako ste na meti. Nazovite 1-800-CALL-FBI, pošaljite dojavu FBI-u ili posjetite svoj lokalni terenski ured FBI-a ako se nađete u ovoj situaciji.

6. Integracija AI modela sa sustavima brutalnog hakiranja

Iako jezični modeli otvorenog koda podržavaju neka poboljšanja umjetne inteligencije, oni su također skloni iskorištavanju. Kriminalci će sve iskoristiti. Ne možete očekivati ​​da ignoriraju algoritam koji stoji iza visoko sofisticiranih jezičnih modela kao što je LlaMA i OpenAssistant.

U ljubavnim prijevarama hakeri često integriraju jezične modele s probijanjem lozinki. NLP i mogućnosti strojnog učenja AI-ja omogućuju sustavima brutalnog hakiranja da brzo i učinkovito proizvedu kombinacije lozinki. Mogli bi čak i donositi informirana predviđanja ako im se pruži dovoljno konteksta.

Nemate kontrolu nad onim što prevaranti rade. Kako biste zaštitili svoje račune, pobrinite se da izradite istinski sigurnu lozinku koji se sastoji od posebnih znakova, alfanumeričkih kombinacija i 14+ znakova.

7. Oponašanje stvarnih ljudi pomoću kloniranja glasa

AI generatori glasa počeli su kao cool igračka. Korisnici bi uzorke pjesama svojih omiljenih izvođača pretvarali u obrade ili čak nove pjesme. Uzmimo Heart on My Sleeve kao primjer. TikTok korisnik Ghostwriter977 napravio super-realističnu pjesmu oponašajući Drakea i The Weeknda, iako je niti jedan umjetnik nije pjevao.

Unatoč šalama i memovima oko toga, sinteza govora je vrlo opasna. Omogućuje kriminalcima izvođenje sofisticiranih napada. Na primjer, romantični prevaranti iskorištavaju alate za kloniranje glasa kako bi pozvali mete i ostavili obmanjujuće snimke. Žrtve koje nisu upoznate sa sintezom govora neće primijetiti ništa neobično.

Zaštitite se od prijevara glasovnih klonova umjetne inteligencije proučavanjem zvuka sintetiziranih izlaza. Istražite ove generatore. Oni samo stvaraju gotovo identične klonove - i dalje ćete uočiti neke nesavršenosti i nedosljednosti.

Zaštitite se od vještačkih prevaranata

Kako generativni alati umjetne inteligencije napreduju, romantični prevaranti razvijat će nove načine za njihovo iskorištavanje. Programeri ne mogu zaustaviti ove kriminalce. Zauzmite proaktivnu ulogu u borbi protiv kibernetičkog kriminala umjesto da samo vjerujete da sigurnosna ograničenja djeluju. I dalje možete koristiti aplikacije za upoznavanje. Ali provjerite poznajete li osobu s druge strane ekrana prije nego što stupite u kontakt s njom.

I pripazite na druge sheme potpomognute umjetnom inteligencijom. Osim ljubavnih prijevara, kriminalci koriste umjetnu inteligenciju za krađu identiteta, cyber iznudu, ucjenu, napade ransomwareom i brutalno hakiranje. Naučite se boriti i protiv ovih prijetnji.