Sve više i više tvrtki zabranjuje ChatGPT na radnom mjestu, ali što stoji iza zabrana?
Unatoč njegovim impresivnim sposobnostima, nekoliko velikih kompanija zabranilo je svojim zaposlenicima korištenje ChatGPT-a.
U svibnju 2023. Samsung je zabranio korištenje ChatGPT-a i drugih generativnih AI alata. Zatim je, u lipnju 2023., Commonwealth Bank of Australia slijedila primjer, zajedno s tvrtkama poput Amazona, Applea i JPMorgan Chase & Co. Neke su bolnice, odvjetničke tvrtke i vladine agencije također zabranile zaposlenicima korištenje ChatGPT.
Dakle, zašto sve više kompanija zabranjuje ChatGPT? Evo pet glavnih razloga.
1. Curenje podataka
ChatGPT zahtijeva veliku količinu podataka za obuku i učinkovit rad. Chatbot je obučen korištenjem ogromne količine podataka izvedenih s interneta i nastavlja se obučavati.
Prema OpenAI stranica za pomoć, svaki podatak, uključujući povjerljive podatke o kupcima, poslovne tajne i osjetljivo poslovanje informacije koje dajete chatbotu podložne su pregledu njegovih trenera, koji mogu koristiti vaše podatke za poboljšanje njihove sustave.
Mnoge tvrtke podliježu strogim propisima o zaštiti podataka. Zbog toga su oprezni u dijeljenju osobnih podataka s vanjskim subjektima jer to povećava rizik od curenja podataka.
Osim toga, OpenAI ne nudi besprijekornu zaštitu podataka i jamstvo povjerljivosti. U ožujku 2023. OpenAI potvrđen bug koji dopušta nekim korisnicima da vide naslove razgovora u povijesti drugih aktivnih korisnika. Iako je ovaj bug ispravljen i OpenAI je pokrenuo bug bounty program, tvrtka ne jamči sigurnost i privatnost korisničkih podataka.
Mnoge organizacije odlučuju ograničiti zaposlenike da koriste ChatGPT kako bi izbjegle curenje podataka, što može naštetiti njihovom ugledu, dovesti do financijskih gubitaka i dovesti u pitanje njihove klijente i zaposlenike rizik.
2. Rizici kibernetičke sigurnosti
Dok nije jasno je li ChatGPT doista sklon rizicima kibernetičke sigurnosti, postoji mogućnost da njegova implementacija unutar organizacije može uvesti potencijalne ranjivosti koje kibernetički napadači mogu iskoristiti.
Ako tvrtka integrira ChatGPT i postoje slabosti u sigurnosnom sustavu chatbota, napadači bi mogli iskoristiti ranjivosti i ubaciti zlonamjerne kodove. Također, sposobnost ChatGPT-a da generira ljudske odgovore zlatno je jaje za phishing napadače koji mogu uzeti preko računa ili lažno predstavljanje legitimnih entiteta kako bi prevarili zaposlenike tvrtke da dijele osjetljive informacija.
3. Izrada personaliziranih chatbota
Unatoč svojim inovativnim značajkama, ChatGPT može proizvesti lažne i pogrešne informacije. Kao rezultat toga, mnoge su tvrtke stvorile AI chatbotove za radne potrebe. Na primjer, Commonwealth Bank of Australia zatražila je od svojih zaposlenika da umjesto toga koriste Gen.ai, chatbot umjetne inteligencije (AI) koji koristi podatke CommBanka za pružanje odgovora.
Tvrtke poput Samsunga i Amazona razvile su napredne modele prirodnog jezika, tako da tvrtke mogu jednostavno stvoriti i implementirati personalizirane chatbotove na temelju postojećih prijepisa. S ovim internim chatbotovima možete spriječiti pravne posljedice i posljedice po ugled povezane s pogrešnim rukovanjem podacima.
4. Nedostatak propisa
U industrijama u kojima tvrtke podliježu regulatornim protokolima i sankcijama, nedostatak regulatornih smjernica ChatGPT-a predstavlja crvenu zastavu. Bez preciznih regulatornih uvjeta koji reguliraju korištenje ChatGPT-a, tvrtke se mogu suočiti s ozbiljnim pravnim posljedicama kada koriste AI chatbot za svoje poslovanje.
Osim toga, nedostatak propisa može umanjiti odgovornost i transparentnost tvrtke. Većina tvrtki može biti zbunjena oko objašnjavanja Procesi donošenja odluka i sigurnosne mjere jezičnog modela umjetne inteligencije svojim kupcima.
Tvrtke ograničavaju ChatGPT, strahujući od mogućeg kršenja zakona o privatnosti i propisa specifičnih za industriju.
5. Neodgovorno korištenje od strane zaposlenika
U mnogim se tvrtkama neki zaposlenici oslanjaju isključivo na ChatGPT odgovore za generiranje sadržaja i obavljanje svojih dužnosti. To rađa lijenost u radnom okruženju i koči kreativnost i inovativnost.
Ovisnost o umjetnoj inteligenciji može spriječiti vašu sposobnost kritičkog razmišljanja. Također može naštetiti kredibilitetu tvrtke, jer ChatGPT često daje netočne i nepouzdane podatke.
Iako je ChatGPT moćan alat, njegovo korištenje za rješavanje složenih upita koji zahtijevaju stručnost za određenu domenu može naštetiti radu i učinkovitosti tvrtke. Neki se zaposlenici možda neće sjetiti provjeriti činjenice i potvrditi odgovore koje daje AI chatbot, tretirajući odgovore kao jedno rješenje za sve.
Kako bi ublažile probleme poput ovih, tvrtke zabranjuju chatbot kako bi se zaposlenici mogli usredotočiti na svoje zadatke i pružiti korisnicima rješenja bez grešaka.
ChatGPT zabrane: bolje spriječiti nego liječiti
Tvrtke koje zabranjuju ChatGPT ukazuju na rizike kibernetičke sigurnosti, etičke standarde zaposlenika i izazove usklađenosti s propisima. Nemogućnost ChatGPT-a da ublaži te izazove dok pruža industrijska rješenja potvrđuje njegova ograničenja i potrebu da se dalje razvija.
U međuvremenu, tvrtke prelaze na alternativne chatbotove ili jednostavno ograničavaju zaposlenike u korištenju ChatGPT kako biste izbjegli moguće povrede podataka i nepouzdane sigurnosne i regulatorne protokole povezane s chatbot.