Amazon работи върху нова противоречива и доста страховита AI функция за своите Alexa устройства и бъдещи гласови асистенти. Компанията демонстрира новата си технология за генериране на глас на своя интелигентен високоговорител по време на конференцията си MARS, на която Alexa успя да имитира починал човек чрез глас.
TL; DR
- Amazon обявява експериментална функция за глас на изкуствен интелект.
- Гласовата мимикрия позволява на Alexa да генерира гласове на всеки човек.
- Amazon не спомена дали това наистина ще бъде функция в бъдещите му смарт устройства.
Докато дълбоките фалшификати на видео и аудио започват да стават забележими, технологията зад тях все още е донякъде ограничена до компютри от висок клас или скъпи софтуерни решения. Това вероятно ще се промени през следващите години, тъй като все повече компании въвеждат AI, способни да изпълняват такива функции, на обикновените потребители.
- Също интересно: инженерът на Google твърди, че чатботът на компанията е в съзнание
По подобен начин Amazon показа потенциала на това, което неговата AI технология може да направи чрез своя помощник Alexa. На събитието беше показано видео на момче зад камерата, което командва Алекса да продължи да чете книгата Магьосникът от Оз чрез гласа на починалата си баба. Това е донякъде тревожно и впечатляващо в същото време.
- Не пропускайте: интелигентно осветление Philips Perifo и Go
В допълнение, компанията казва, че нейната технология работи и с всеки глас, използвайки по-малко от минута запис. Например всеки може да генерира глас на известна личност, стига да има записан аудиоклип. Има също така възможност потребителите да заменят вокалния звук по подразбиране на Alexa в бъдеще.
Amazon не потвърди дали тази експериментална функция за мимикрия в крайна сметка ще дойде в нейните интелигентни високоговорители. Въпреки това, няма да се изненадаме, ако това стане ключова функция за потребителите на Alexa, като се има предвид, че все повече компании се надпреварват да разработват интелигентни машини и асистенти.
Как бихте използвали гласова мимикрия или аудио фалшификати в бъдеще? Потърсете ни в секцията за коментари.