- Сообщения
- 4.001
- Реакции
- 4.722
По словам экспертов по безопасности, в DarkNete начали набирать популярность сервисы, специализирующихся на создании дипфейков. Дипфейки могут использоваться для различных мошеннических афер, дезинформации и политической пропаганды.
Deepfake (от deeplearning - «глубокое обучение» и fake – «подделка») метод синтеза человеческого изображения на основе искусственного интеллекта. Термин «дипфейк» появился в 2017 году на интернет-площадке Reddit, а в 2020-м уже официально попал в словари. Он используется для объединения и наложения существующих изображений на видео. Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более правдоподобно.
С каждым годом киберпреступления становятся все более изощренными. Мошенники создают фальшивые, но реалистичные видео при помощи нейросетей и с помощью дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. В том числе аферисты могут проникнуть в любую корпоративную или домашнюю сеть и совершить звонок от имени руководителя и обманным путем запросить у сотрудников предоставить пароли и доступы, после чего конфиденциальные данные окажутся в полном распоряжении злоумышленников. Именно поэтому угроза, которую представляют дипфейки, постоянно растет.
Британские криминалисты признали этот вид киберпреступлений одним из самых опасных на ближайшие 15 лет. Уже зарегистрировано несколько крупных преступлений, совершенных с помощью ИИ. В основных случаях мошенники подделывали голоса начальников компаний и требовали с подчиненных перевести крупные суммы денег на сторонние счета. Убытки исчисляются миллионами долларов.
У дипфейков есть отличительные от оригинала особенности. Они могут иметь уловимые человеческим глазом артефакты или небольшие отклонения. Они же и будут являться предупреждающими сигналами тому, что перед вами подделка.