[НОВОСТЬ] Законодатели предложили ввести уголовную ответственность за дипфейки

Юридическая Служба

Юридические консультации
Команда форума
Юридическая Служба
Сообщения
1.715
Реакции
1.976
С предложением ужесточить наказание за преступления, совершенные с использованием искусственного интеллекта, выступили депутаты Госдумы.
Законодатели хотят изменить статью 63 Уголовного кодекса РФ. По их мнению, использование искусственного интеллекта в криминальных целях следует перевести в разряд отягчающих обстоятельств.

С начала этого года ведущие финансовые организации, включая тот же Центробанк, бьют тревогу - мошенники научились имитировать голоса родных жертвы. В ЦБ даже рассказали о такой схеме с имитацией знакомого голоса.

Финансисты объяснили, что мошенники составляют портрет потенциальной жертвы на основании информации, которую сама же намеченная жертва публикует на открытых интернет-ресурсах: о родственниках, друзьях, работе, увлечениях.

Используя технологию ИИ, мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным. Цель всегда одна - выманить у потенциальной жертвы деньги.

Самый известный случай произошел в феврале в Гонконге. Там сотрудник одной компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но, чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании. Но мошенники использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 миллиона долларов.

В реальности распознать подмену голоса или видео на современном этапе сложно, но возможно. Специалисты советуют обращать внимание на аномалии в движениях и деталях. Например, неестественная мимика. Необычное движение глаз. Собеседник с подменного видео редко моргает - деталь интересная.

Специалисты советуют: для того, чтобы ваш голос и лицо не стали образцами для обучения нейронных сетей, надо следовать простым правилам. Не рассказывать много о себе в интернете. Не публиковать в соцсетях массу личных фотографий и видеоматериалов. Быть осторожным при звонках с незнакомых номеров, не спешить отвечать, избегать слов "Да", "Согласен", "Подтверждаю".

Разработчики документа в пояснительной записке подчеркивают, что в последнее время использование дипфейков вызывает все большую тревогу. "Злоумышленники применяют эти инструменты для финансового обмана, шантажа и дискредитации россиян", - пишут авторы.

По статистике силовиков, ущерб от действий кибермошенников в 2024 году в России составил 200 млрд рублей. Это на 36% больше, чем годом ранее. Поэтому, чтобы решить эту проблему, по результатам совещания с членами правительства РФ 5 апреля было принято решение о внесении изменений в российское законодательство.

С уважением, Юридическая служба!
 

Похожие темы

В Госдуму внесено предложение установить уголовное наказание за использование изображений, голосов и биометрических данных людей. Инициативу выдвинул глава комитета по труду, социальной политике и делам ветеранов Ярослав Нилов. Он предложил ввести изменения в Уголовный кодекс РФ, добавив...
Ответы
2
Просмотры
388
В Ульяновске в одной из квартир многоэтажного жилого дома обнаружили убитыми 27-летнюю женщину и двух ее малолетних дочек, четырех и пяти лет. Первой тела нашла бабушка, которая пришла навестить внучек. Ее сын Ильмир М. открыл дверь перепачканный в крови и сначала заявил, что на семью напали...
Ответы
4
Просмотры
894
В МВД РФ крайне обеспокоены тем, что преступники все чаще и эффективнее используют новые технологии, и число их жертв неуклонно растет. К примеру, если в 2022 году на Кубани телефонные аферисты обманом завладели суммой, превышающей три миллиарда рублей, то в минувшем эта цифра оказалась почти...
Ответы
4
Просмотры
415
В Белорецком районе Башкирии правоохранители раскрыли убийство местного фермера и его жены. Правоохранители обнаружили тела 59-летнего мужчины и его 56-летней жены в мешках на берегу реки в нескольких сотнях метров от дома. Также полицейские выяснили, что из дома пропало хранившееся там оружие...
Ответы
2
Просмотры
424
По словам экспертов по безопасности, в DarkNete начали набирать популярность сервисы, специализирующихся на создании дипфейков. Дипфейки могут использоваться для различных мошеннических афер, дезинформации и политической пропаганды. Deepfake (от deeplearning - «глубокое обучение» и fake –...
Ответы
6
Просмотры
853
Назад
Сверху Снизу