Появился алгоритм, который меняет речь людей на видео. Их можно заставить говорить что угодно
Исследователи из Стэнфордского и Принстонского университетов создали алгоритм, который искажает речь человека на видео. Для убедительности программа не только подстраивает голос, но и изменяет мимику, а также длину ролика. Как рассказали разработчики, устроена их программа так: из ролика она выделяет аудиодорожку, разделяя речь человека на фонемы. Далее ПО создает 3D модель лица человека, сканируя, как он двигает губами, произнося слова. Затем машина находит висемы — звуки, которые выглядят одинаково при движении губ — и использует их для создания мимики под новые фразы. В итоге из двух произнесенных слов алгоритм создает третье. Чтобы отредактированный голос больше походил на речь модели, исследователи пользуются программой VoCo, которую они представили в 2016 году. Проанализировав небольшой монолог человека, она способна «спародировать» его голос. В ознакомительном ролике исследователи показали демоверсию разработки. Например, одного диктора они «заставили» говорить French toast вместо Napalm в предложении I love the smell of napalm in the morning. Другого диктора и вовсе лишили одного...
Ознакомиться с полным текстом статьи можно перейдя по ссылке источника.
Комментарий редакции
1. Исследователи из Стэнфорда и Принстона разработали алгоритм, который изменяет речь людей на видео, что вызывает серьезные опасения.
2. Программа не только изменяет голос, но и корректирует мимику, подстраивая ее под новые фразы.
3. Алгоритм выделяет аудиодорожку и создает трехмерную модель лица человека, чтобы точно воспроизвести движения губ.
4. Для создания подделанного голоса используется программа VoCo, способная имитировать речь человека после анализа его монолога.
5. В демонстрационном видео исследователи показывают, как возможно заставить дикторов произносить слова, которых они не говорили, а также удалять их речь из роликов.
Вывод:
Статья подчеркивает значимость разработки нового алгоритма, который способен не только изменять речь на видео, но и создавать новые, поддельные сообщения, ставя под сомнение достоверность видео-контента. Этот прогресс вызывает серьезные опасения по поводу манипуляции информацией и может иметь негативные последствия для общественного восприятия.
Вывод редакции:
Тезисы автора соответствуют действительному положению дел, подчеркивая реальные достижения в области технологий обработки видео и аудио. Разработка такого алгоритма открывает как новые горизонты для развлечений и творчества, так и потенциальные угрозы для дезинформации и нарушений приватности.
Мне больше понравилось как прога из людей делает моджахедов, хэ-хэ…