Общество

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

В Госдуме считают, что это поможет в борьбе с мошенниками, которые используют новые технологии

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

За дипфейки с помощью подмены голоса или изображения человека предлагают ввести уголовное наказание, включив их в статьи о клевете, краже, мошенничестве и вымогательстве. Виновным будут грозить штрафы до 1,5 млн рублей и до семи лет лишения свободы. С законопроектом, который на этой неделе будет внесен в Госдуму, ознакомились «Известия». Сейчас за использование дипфейков в преступных целях в законодательстве ответственности не предусмотрено.

Вписать в УК

В России могут ввести наказание за противозаконное использование изображения или голоса, а также биометрических данных граждан. Такой законопроект с поправками в статьи Уголовного кодекса РФ («Клевета», «Кража», «Мошенничество», «Вымогательство», «Причинение имущественного ущерба путем обмана или злоупотребления доверием») на этой неделе внесет в Госдуму глава комитета по труду, социальной политике и делам ветеранов Ярослав Нилов. С документом ознакомились «Известия».

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

«Развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса человека, искусственно воссоздающих несуществующие события. Современные программно-аппаратные комплексы, а также использование нейросетей и искусственного интеллекта (технологии «дипфейк», «цифровые маски» и так далее) позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно», — говорится в пояснительной записке.

В документе отмечается, что эти технологии позволяют воспроизводить и иные биометрические персональные данные.

«Законопроектом предлагается ввести в ряд статей Уголовного кодека РФ дополнительный квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и биометрических данных», — подчеркивается в документе.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн рублей или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

— Мы предлагаем ввести более серьезную ответственность по ряду уголовных статей за использование этой технологии. То, что она активно используется, уже было доказано на встрече с президентом в конце прошлого года на прямой линии. Есть много примеров, когда люди остаются без всего из-за подделок их голоса. Поэтому в УК предлагается предусмотреть современные реалии, — пояснил «Известиям» автор законопроекта Ярослав Нилов.

«Известия» направили запросы в правительство, а также в ЦБ с просьбой прокомментировать перспективу поддержки инициативы. В пресс-службах Минцифры и Минюста сообщили, что документ на отзыв не поступал.

В банках «Известиям» ранее сообщали, что ежедневно отслеживают новые способы мошенничества, чтобы эффективно им противодействовать, и не видят серьезных рисков применения дипфейков, поскольку есть технологии, которые проверяют их аутентичность. При этом в ЦБ до этого указывали на угрозу в идентификации банковских клиентов по видео. Об этом регулятор сообщил в отзыве на законопроект Ассоциации банков России. Новыми нормами предлагалось предоставить финансовым организациям возможность удаленно открывать счета гражданам для выдачи ипотечных кредитов.

Нужно или нет

Если дипфейк используется в противоправных действиях, это должно подпадать под уголовную ответственность, заявил «Известиям» первый зампред комитета по информационной политике, информационным технологиям и связи Александр Ющенко (КПРФ).

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

— Неважно, какой инструмент используется для кражи — отмычка или новейшие технологии. Однако я пока не знаком с текстом законопроекта, поэтому воздержусь от его подробных оценок. Давайте дождемся внесения инициативы в Госдуму, — пояснил депутат.

Другой зампред этого же комитета Олег Матвейчев («Единая Россия») в разговоре с «Известиями» отметил, что пока само понятие «дипфейк» не внесено в законодательство.

— Мы внимательно изучим этот документ, но у меня сомнения в том, что мы его поддержим. У нас пока не разработана терминология. Дипфейк сегодня — это понятие журналистское, а не юридическое. Чтобы ввести его в законодательство, нужно четко прописать его научно обоснованную формулировку, — пояснил депутат, отметив, что вопрос необходимо тщательно проработать.

Законопроект в таком виде достаточно актуален и позволит в будущем «остудить пыл» злоумышленников, активно использующих весь спектр современных технологий в корыстных целях, сказал «Известиям» руководитель направления «Разрешение IT&Ip споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле.

По его мнению, расширение ряда статей УК РФ дополнительными квалифицирующими признаками, по сути, позволит правоохранительным органам активнее и адресно привлекать к ответственности виновных.

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

— Сейчас незаконные действия в отношении неограниченного круга лиц с применением искусственно сформированного голоса/изображения или с помощью биометрических данных крайне распространены, при этом из-за невозможности дополнительной квалификации этих деяний в законодательстве далеко не все злоумышленники несут ответственность. Между тем характер ущерба пострадавших зачастую может иметь катастрофические последствия, поэтому размер штрафа до 1,5 млн рублей или введение таких мер, как арест на определенный длительный срок или лишение свободы, можно считать вполне справедливым, — считает эксперт.

Голосовые связи: за дипфейки хотят ввести уголовную ответственность

По данным Positive Technologies, в I квартале 2024 года социальная инженерия использовалась в 85% атак на частных лиц, отметила руководитель исследовательской группы компании Ирина Зиновкина.

— Эволюция социальной инженерии происходит при помощи в том числе искусственного интеллекта. Он помогает злоумышленникам поддерживать иллюзию осмысленного диалога с жертвой, создавая убедительные фишинговые письма и дипфейки голосов, изображений, видео, — пояснила эксперт.

По ее словам, такая технология на данный момент в основном используется как инструмент пропаганды на фоне геополитической обстановки, но уже есть случаи кражи данных и денег граждан.

С учетом развития технологий риски для потребителей, безусловно, с каждым годом возрастают, отметил глава «Общественной потребительской инициативы» Олег Павлов. Логично ввести наказание за противозаконное применение дипфейков, считает эксперт.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Введите ответ *Достигнут лимит времени. Пожалуйста, введите CAPTCHA снова.

Похожие статьи

Кнопка «Наверх»
Для комфортной работы сайта, мы используем файлы cookie!
OK
Политика конфиденциальности