Дипфейки — еще одна область, связанная с искусственным интеллектом, которая сегодня очень беспокоит людей. Возможность, по сути, вложить слова в чужие уста может иметь опасные последствия, но китайская компания Tencent предлагает создать дипфейк любого человека в течение 24 часов за 145 долларов.
Дочерняя компания Tencent, Tencent Cloud, запустила сервис на прошлой неделе, пишет The Reg. Он может создать дипфейк любого человека в высоком разрешении, если у клиента есть как минимум трехминутное живое видео этого человека и 100 произнесенных предложений.
За 145 долларов компания предоставит дипфейк человека, доступный в виде половины тела (по пояс) или всего тела всего за 24 часа. Сервис доступен на китайском и английском языках.
Tencent говорит, что этих людей, созданных искусственным интеллектом, можно использовать в качестве ведущих для рекламных роликов в прямом эфире, которые очень популярны в Китае, а это означает, что реальному человеку не нужно будет платить за размещение. Компания заявила, что творения также могут быть использованы врачами, юристами и другими профессионалами.
Существует несколько вариантов дипфальсификации людей: реалистичные, полуреалистичные и мультяшные стили в 3D или в 2D. Клиенты могут выбрать фон видео и тон цифрового человека, а Tencent Cloud может добавить индивидуальные вопросы и ответы с реалистичными тонами и интонациями.
Генеральный менеджер Tencent Cloud Intelligent Human Products Чен Лэй сказал, что компания стремится создать полностью автоматизированную платформу «AI + Digital Intelligent Human Factory» для создания и продажи дипфейков.
Когда дело касается дипфейков, то Китай - в лидерах. В государственном новостном издании People Daily есть ведущий с искусственным интеллектом по имени Жэнь Сяорун, который сообщает новости 24 часа в сутки, 7 дней в неделю, круглый год. Страна также использовала виртуальные хосты во время зимних Олимпийских игр 2022 года.
Дипфейки вызывают споры с тех пор, как они впервые были использованы для замены лиц актрис фильмов для взрослых голливудскими звездами. Pornhub и Reddit в конце концов запретили их, но с годами дипфейки стали более убедительными. В 2022 году ФБР предупредило, что преступники использовали дипфейки в удаленных собеседованиях на технические должности для кражи конфиденциальных данных. В феврале в TikTok распространилось фейковое видео Джо Рогана, в котором он рекламировал таблетки тестостерона.
Иван Ковалев
VIA