Создание цифрового двойника человека – уже не элемент фантастики, а реальность, ставшая доступной благодаря технологиям искусственного интеллекта. Дипфейк позволяет с помощью нейросетей менять внешность и голос людей на видео и в аудиозаписях, что делает такие фальсификации особенно опасными.
Как поясняют эксперты, дипфейки все чаще используются в мошеннических схемах и информационных атаках. Они могут провоцировать панику, распространять недостоверную информацию и формировать ложные заявления от имени известных людей. Один из подобных случаев уже был зафиксирован в Воронежской области – в сети распространилось поддельное видео с участием губернатора региона.
Чтобы не стать жертвой манипуляции, специалисты рекомендуют:
- Включать критическое мышление и оценивать содержание: характерны ли такие высказывания для спикера?
- Обращать внимание на мимику и движения губ – они могут не совпадать с речью.
- Замечать искажения изображения, неестественные жесты и поведение лица.
- Анализировать фон – он может быть размытым или «дрожать», а освещение на лице отличаться от общего.
- Использовать обратный поиск по кадру – нередко дипфейки делаются на основе реальных видео, доступных в интернете.
Важно помнить: официальные заявления представителей власти публикуются только через проверенные каналы. Для Воронежской области это, в частности, telegram-каналыправительства региона и губернатора Александра Гусева. Отсутствие информации на этих ресурсах – повод усомниться в достоверности ролика.
Ранее РИА «Воронеж» сообщало, что в социальных сетях распространилась информация о возможном запрете использования скважин для водоснабжения садовых участков. Это – фейк, законодательных инициатив, вводящих повсеместный запрет на скважины, не принималось.