Microsoftov Tay AI prešao je put od obećavajuće AI do potpune katastrofe u manje od jednog dana. Evo što je tvrtka naučila.

AI chatbotovi poput ChatGPT-a sve više postaju sastavni dio moderne tehnologije, ali mnogima nepoznata, generativna AI nije uvijek bila tako dobra kao danas. Zapravo, 2016. godine Microsoftov chatbot Tay pokazao nam je koliko brzo umjetna inteligencija može imati negativan učinak.

Istražimo što je bio Microsoftov AI chatbot Tay, zašto nije uspio, njegove kontroverze i lekcije koje je tvrtka naučila nakon svog katastrofalnog neuspjeha.

Što je bio Microsoftov Tay?

Tay je bio AI chatbot koji je razvio Microsoft i postao dostupan putem Twittera 23. ožujka 2016. Chatbot je razvijen za 18-24-godišnjake u SAD-u za "zabavne svrhe" i za "eksperimentiranje i provođenje istraživanja o razumijevanju razgovora".

Tay nije trebao biti sofisticirani chatbot kao što je ChatGPT, već prijateljski AI bot na Twitteru s kojim možete razgovarati—nešto poput Moj AI na Snapchatu, već za druženje.

instagram viewer

Zašto je Microsoft zatvorio Tay?

Microsoft je uklonio Taya u roku od 24 sata od objavljivanja - s dobrim razlogom. Gotovo odmah nakon što je Tay predstavljen, korisnici Twittera počeli su zlorabiti uslugu dodajući chatbotu dezinformacije, učeći ih pogrdnim izrazima i potičući ih da budu sve uvredljiviji samo da bi vidjeli dokle išlo bi.

I zaista daleko se otišlo. Nekoliko sati nakon lansiranja, Tay je tvitao neke od najuvredljivijih rasnih uvreda, šireći govor mržnje, promovirajući nacizam, pa čak i inspirirajući "rasni rat". Jao! Jasno, Microsoft se užasno zabavljao i nije mogao dopustiti da se usluga nastavi.

U objavite na službenom Microsoftovom blogu, Microsoftov korporativni potpredsjednik Peter Lee ponovio je isto:

Duboko nam je žao zbog nenamjernih uvredljivih i bolnih tweetova od Taya, koji ne predstavljaju tko smo ili za što se zalažemo, niti kako smo dizajnirali Tay. Tay je sada izvan mreže i pokušat ćemo je vratiti samo kada budemo sigurni da možemo bolje predvidjeti zlonamjerne namjere koje su u sukobu s našim načelima i vrijednostima.

Tayev debakl samo je jedan od mnogih opasnosti od umjetne inteligencije i snažan podsjetnik zašto bi njegov razvoj trebao biti učinjen s najvećim oprezom i previdom.

6 lekcija koje je Microsoft naučio nakon Taya

Tay je bio potpuna katastrofa, ali je Microsoft također naučio neke ključne lekcije kada je u pitanju razvoj AI alata. I koliko god to vrijedilo, vjerojatno je bolje to što je Microsoft naučio svoje lekcije prije nego kasnije, što mu je omogućilo da prednjači u odnosu na Google i razvije nove Bing preglednik koji pokreće AI.

Evo nekih od tih lekcija:

1. Internet je pun trolova

Internet je pun trolova, a to i nije neka vijest, zar ne? Navodno je Microsoftu tako bilo još 2016. godine. Ne kažemo da je izgradnja chatbota za "zabavne svrhe" namijenjenog osobama od 18 do 24 godine imala ikakve veze sa stopom zlouporabe usluge. Ipak, ni to definitivno nije bila najpametnija ideja.

Ljudi prirodno žele testirati granice novih tehnologija, a naposljetku je posao programera da odgovori na te zlonamjerne napade. Na neki način, interni trolovi djeluju kao povratni mehanizam za osiguranje kvalitete, ali to ne znači da chatbot treba pustiti bez odgovarajućih zaštitnih mjera prije pokretanja.

2. AI ne može intuitivno razlikovati dobro od lošeg

Koncept dobra i zla nešto je što umjetna inteligencija intuitivno ne razumije. Mora biti programiran da simulira znanje o tome što je ispravno, a što pogrešno, što je moralno, a što nemoralno, i što je normalno i neobično.

Te su osobine više-manje prirodne ljudima kao društvenim bićima, ali umjetna inteligencija ne može samostalno prosuđivati, osjećati empatiju ili iskusiti bol. To je razlog zašto kada su korisnici Twittera dodavali Tayu razne vrste propagande, bot je jednostavno slijedio korak - nesvjestan etičnosti informacija koje je prikupljao.

3. Nemojte trenirati AI modele koristeći razgovore ljudi

Tay je stvoren "iskopavanjem relevantnih javnih podataka i korištenjem umjetne inteligencije i uredništva koje je razvilo osoblje uključujući improvizacijski komičari." Uvježbavanje AI modela pomoću razgovora ljudi na internetu je užasno ideja.

I prije nego što za to okrivite Twitter, znajte da bi rezultat vjerojatno bio isti bez obzira na platformu. Zašto? Jer ljudi jednostavno nisu najbolji na internetu. Postanu emocionalni, koriste žargonske riječi i koriste svoju anonimnost da bi bili zli.

4. AI-ju nedostaje zdrav razum i ne shvaća sarkazam

AI se danas čini intuitivnijom (ili, točnije rečeno, bolja je u simulaciji intuicije), ali se još uvijek ponekad muči s prepoznavanjem sarkazma i figura govora. To je još više vrijedilo za 2016. Ono što je očito ljudima nije očito umjetnoj inteligenciji; drugim riječima, nedostaje mu zdrav razum.

AI poput Taya ne razumiju zašto su ljudi takvi kakvi jesmo, zašto se ponašaju kako se ponašamo i zašto je svaki pojedinac ekscentričan. Možda se ponaša i zvuči ljudski u iznenađujućoj mjeri, ali dobro programiranje može ići samo tako daleko.

5. AI mora biti programiran da odbije nevažeće zahtjeve

AI je vrlo osjetljiv i mora biti programiran da odbije zahtjeve koji promiču štetu. Čak i danas, nakon svih naših napretka u obradi prirodnog jezika, ljudi još uvijek pronalaze lingvističke rupe u zakonu natjerati AI chatbotove kao što je ChatGPT da "haluciniraju" i isporučuju rezultate koji su trebali biti ograničeni.

Ovdje se radi o tome da je umjetna inteligencija savršeno poslušna, što je možda njena najveća snaga i slabost. Sve što ne želite da chatbot radi mora se u njega ručno programirati.

6. AI Chatbotovi nikada ne bi trebali biti bez nadzora

Sve dok se umjetna inteligencija ne može sama regulirati, ne može biti ostavljena bez nadzora. O današnjoj umjetnoj inteligenciji možete razmišljati kao o čudu od djeteta; briljantan je na neki način, ali je ipak još uvijek dijete. Ako se ostavi bez nadzora, ljudi će iskoristiti njegove slabosti - a Tay je bio izvrstan primjer toga.

Umjetna inteligencija je alat, baš kao i internet, ali stopa i razmjeri u kojima se stvari mogu obiti o glavu s umjetnom inteligencijom daleko su veći od onoga što smo iskusili tijekom ranih dana interneta.

AI treba stalan nadzor i regulaciju

Tay nije jedini chatbot koji je propao - bilo je mnogo drugih sličnih slučajeva. Ali ono po čemu se istaknuo je čista brzina kojom je to učinio—i činjenica da ga je napravio tehnološki div poput Microsofta.

Primjeri poput ovog pokazuju koliko moramo biti oprezni kada razvijamo AI alate, posebno kada su namijenjeni za korištenje od strane običnih ljudi.