В России готовятся ввести уголовное наказание за создание дипфейков с помощью подмены голоса или изображения человека. Соответствующий законопроект с поправками в Уголовный кодекс РФ на этой неделе внесут в Госдуму, пишут «Известия» со ссылкой на документ.

В пояснительной записке к законопроекту говорится, что развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса человека.

«Современные программно-аппаратные комплексы, а также использование нейросетей и искусственного интеллекта (технологии «дипфейк», «цифровые маски» и так далее) позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно», — отмечается в документе.

В связи с этим депутаты предлагают ввести в ряд статей УК дополнительный квалифицирующий признак — «совершение преступления с использованием изображения или голоса». Речь идет про статьи о мошенничестве, вымогательстве, краже, клевете и имущественном ущербе.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. либо лишения свободы на срок до семи лет.

«Мы предлагаем ввести более серьезную ответственность по ряду уголовных статей за использование этой технологии. То, что она активно используется, уже было доказано на встрече с президентом в конце прошлого года на прямой линии. Есть много примеров, когда люди остаются без всего из-за подделок их голоса. Поэтому в УК предлагается предусмотреть современные реалии», — пояснил автор инициативы, глава комитета по труду, социальной политике и делам ветеранов Ярослав Нилов.

В российском законодательстве пока нет понятия «дипфейк», поэтому депутаты могут не поддержать предложенный законопроект, отметил зампред комитета по информационной политике, информационным технологиям и связи Олег Матвейчев. «Дипфейк сегодня — это понятие журналистское, а не юридическое. Чтобы ввести его в законодательство, нужно четко прописать его научно обоснованную формулировку», — пояснил Матвейчев.

Согласно данным Positive Technologies, в I квартале 2024 года социальная инженерия, в рамках которой применяется искусственный интеллект, использовалась в 85% атак на частных лиц. По словам руководителя исследовательской группы компании Ирины Зиновкиной, технологии искусственного интеллекта помогают злоумышленникам поддерживать иллюзию осмысленного диалога с жертвой, создавая убедительные фишинговые письма и дипфейки голосов, изображений и видео.

На данный момент технология в основном используется как инструмент пропаганды на фоне геополитической обстановки, но уже есть случаи кражи данных и денег граждан с ее помощью, заключила Зиновкина.