Киберэксперт рассказал о 3-х направлениях использования дипфейков мошенниками

Киберэксперт рассказал о 3-х направлениях использования дипфейков мошенниками
Расскажем как именно злоумышленники используют дипфейки, и о развитии этого вида мошенничества и об опасностях для россиян.
Россия
Москва и Московская обл.
Москва

«На сегодняшний день существует три направления использования дипфейков: шантаж с помощью интимных видео, мошенничества с оплатой счетов и переводами посредством видеозвонков и использование образов и видеоизображения без согласия актера», – говорит Дмитрий Овчинников, главный специалист отдела комплексных систем защиты информации компании «Газинформсервис».

«С защитой прав актеров – проблем нет», – уверяет эксперт. Крупные информационные площадки быстро блокируют и удаляют подобный контент, чтобы не получить иск со стороны правообладателя. А вот обеспеченные люди и бухгалтера организаций от подобного не защищены. 

«Сейчас, пока технология еще не пошла в массы, под шантаж попадают владельцы бизнеса или те, у кого есть деньги на выплату по требованию шантажистов. Однако, в будущем, ситуация изменится. По мере того, как скорость производства дипфейков увеличится, а стоимость снизится, под ударом будут находиться и простые обыватели», – говорит Овчинников. Посредством использования взлома социальных сетей и методов социальной инженерии, злоумышленники могут начать шантажировать пользователей на небольшие суммы. А вот метод видеозвонков бухгалтеру организации от «руководителя» с требованием оплатить особый счет – это направление будет еще популярно долгое время. «Несмотря на то, что постепенно произойдет обучение людей и выработка простых мер защиты, поле для деятельности злоумышленников по-прежнему огромное», – заключает киберэксперт Овчинников.

Напоминаем, что недавно в РФ появилась программа для выявления поддельного видеоконтента. Программа, для выявления дипфейков, разработанная специалистами Донского государственного технического университета ДГТУ, выявляет поддельные видеоролики, созданные с помощью технологии DeepFake алгоритма Generative Adversarial Network (GAN). Этот инструмент может с приемлемой точностью обнаруживать на видеокадрах признаки синтезирования лица человека с помощью нейросетей.

RSS
Нет комментариев. Ваш будет первым!

Новости

ITKey получила сертификат ФСТЭК на облачную платформу KeyStack RedLab приняла участие в реализации проекта по обеспечению стабильного и прозрачного обмена данными между 1С и интернет-магазином ​В Рег.облаке появилась защищенная операционная система РЕД ОС для регламентированных ИТ-сред Вебинар: Чего требовать от DLP в 2026-м: взгляд от практика и аналитика

ITKey получила сертификат ФСТЭК на облачную платформу KeyStack


ITKey, российский разработчик и поставщик решений для построения облачной инфраструктуры, объявляет о получении сертификата ФСТЭК России на платформу виртуализации KeyStack. 3 дня назад
ITKey получила сертификат ФСТЭК на облачную платформу KeyStack
ITKey получила сертификат ФСТЭК на облачную платформу KeyStack
RedLab приняла участие в реализации проекта по обеспечению стабильного и прозрачного обмена данными между 1С и интернет-магазином
RedLab приняла участие в реализации проекта по обеспечению стабильного и прозрачного обмена данными между 1С и интернет-магазином
​В Рег.облаке появилась защищенная операционная система РЕД ОС для регламентированных ИТ-сред
​В Рег.облаке появилась защищенная операционная система РЕД ОС для регламентированных ИТ-сред
Вебинар: Чего требовать от DLP в 2026-м: взгляд от практика и аналитика
Вебинар: Чего требовать от DLP в 2026-м: взгляд от практика и аналитика