Неотдавнашният напредък в AI не само донесе по-сложни и по-интелигентни чатботове, но също така донесе значителни предизвикателства, особено с възхода на deepfakes. Въпреки че много от тези рендери с изкуствен интелект са генерирани впоследствие, новият е на ниво с размяна на лице в реално време с изкуствен интелект, която може да се използва по време на видео разговори.
Нов AI проект, наречен Deep-Live-Cam, наскоро придоби популярност онлайн за частта от неговата функция за прилагане на deepfakes върху уеб камери. В същото време това предизвика дискусии относно възможните опасности за сигурността и етичните последици, които създава.
Как Deep-Live-Cam се различава от другите програми за дълбоко фалшифициране
По същество Deep-Live-Cam използва усъвършенствани AI алгоритми, които могат да направят снимка от един източник и да приложат лицето към цел по време на видео разговори на живо, като например на уеб камери. Докато проектът все още е в процес на разработка, първоначалните тестове вече показват тревожни и впечатляващи резултати.
Както е описано по-нататък в Ars Technica, приложението първо чете и разпознава лица от източник и целеви обект. След това използва inswapper модел, за да сменя лицата в реално време, докато друг модел подобрява качеството на лицата и добавя ефекти, които се адаптират към променящите се условия на осветление и изражения на лицето. Този усъвършенстван процес гарантира, че крайният продукт е много реалистичен и не може лесно да бъде разпознат като фалшификат.
Например, един от клиповете, споделен от разработчик, показва реалистично сливане на лицето на изпълнителния директор на Tesla Илон Мъск върху обект. Deepfake дори включва наслагване на очила с рецепта и коса на обекта, което го прави невероятно убедителен. Друг показан пример беше този с лицето на кандидата за вицепрезидент на САЩ Джей Ди Ванс и Марк Зукърбърг от Meta.
Трябва ли да се тревожите за нарастването на приложенията за симулация на AI?
И така, защо това е особено тревожно? Използването на Deel-Live-Cam и други приложения за deepfake в реално време поражда сериозни опасения относно поверителността и сигурността. Представете си, че ваша снимка може да бъде взета от интернет и използвана за измами, измама и други злонамерени дейности без ваше разрешение.
Точно сега се вижда, че недостатъците могат да бъдат адресирани по няколко начина, като например включване на водни знаци при използване на приложението и стабилни методи за откриване. Решението може да се приложи и към други програми и приложения за deepfake.
Интересът към инструмента бързо го отведе в списъка с популярни проекти в GitHub.
Какво мислите за приложенията за симулация на AI в реално време? Имате ли практики за споделяне как да се предпазите от тези потенциални рискове? Бихме искали да чуем вашите отговори в коментарите.
Чрез: Артехника