Za one od nas koji znaju kako je tugovati, znamo koliko je teško nastaviti dalje—pogotovo ako je gubitak bio nagli. Na mnogo načina može biti zastrašujuće iskustvo shvatiti da počinjete zaboravljati male stvari o svojim voljenima, uključujući njihov glas.

Budući da je tuga univerzalno ljudsko iskustvo, mnogi bi od nas dali sve da ponovno čuju glasove svojih najmilijih, makar i na trenutak. Iz tog razloga, nije ni čudo zašto je Amazon najavio svoj plan za izdavanje značajke Alexa koja bi mogla pomoći ljudima da nastave dalje.

Amazonova Alexa može zvučati kao vaša pokojna voljena osoba

Prema a Reuters javlja, Amazon razvija sustav koji Alexa omogućuje oponašanju ljudskih glasova. Na konferenciji u Las Vegasu, Amazonov Rohit Prasad podijelio je kako bi Amazonov virtualni asistent potencijalno mogao oponašati glas naših najmilijih koristeći samo 60 sekundi zvuka.

Tijekom pandemije, Prasad je rekao da je "toliko od nas izgubilo nekoga koga volimo". Ovime Amazon pronalazi nove načine da "učini da uspomene traju" s Alexom.

U pokušaju da vizualizira kako bi se ta značajka mogla koristiti, Amazonov demo uključivao je prikaz djeteta koje pita: "Alexa, može baka mi je završila čitati Čarobnjaka iz Oza?" Nakon toga, Alexa je pokazala kako modulira svoj glas tako da zvuči kao dječji baka.

Amazon nije službeno objavio datum kada će se pojaviti značajka oponašanja glasa. Međutim, iako je demo povukao nekoliko srdačnih teza, neki skeptici nisu sigurni hoće li ova značajka biti ograničena samo na pomoć ljudima da se zatvore.

Godinama su ljudi upozoravali na sve načine na koje je AI opasan. Ali dok ima mnogo zajedničkih mitovi o umjetnoj inteligenciji koji nisu istiniti, postoje neke prijetnje koje su vrlo stvarne.

Što Amazonova značajka oponašanja glasa znači za korisnike

U novije vrijeme, tema oponašanja glasa bila je žestoka rasprava s porastom duboke lažne tehnologije i mreža umjetne inteligencije koje su dobivale stupanj osjećaja. Osim toga, mnoge tehnološke tvrtke već su svojevoljno ograničile pristup svojoj tehnologiji oponašanja glasa kako bi izbjegli razne rizike kao što su krađa identiteta i prijevara.

Međutim, samo će vrijeme pokazati hoće li Amazonov pokušaj korištenja tehnologije oponašanja glasa doista biti iskorišten za olakšanje bol gubitka voljene osobe ili samo još jedno oruđe koje loši glumci mogu koristiti da iskoriste druge narod.

Iako je gubitak voljene osobe bolno iskustvo, možda postoji bolji način da se ovjekovječi njihova sličnost, što ne uključuje Amazonovog pomoćnika.