Законопроект о борьбе с дипфейками на видео и аудиозаписях готовится к рассмотрению в Госдуме. Депутаты выражают опасения относительно возможностей современных нейросетей, способных создавать реалистичные фейковые изображения и звуковые файлы, что может быть использовано мошенниками. С целью предотвращения распространения такого контента ответственность за разработку законопроекта была возложена на главу комитета Госдумы по информационной политике, информационным технологиям и связи Александра Хинштейна.
С ростом популярности нейросетей все чаще возникает явление дипфейков, которые представляют собой фальшивые фотографии, видеозаписи и аудиоматериалы с высокой степенью реалистичности. В связи с этим, выявление и отличение дипфейков от подлинного контента становится все более сложной задачей.
Олег Матвейчев, заместитель главы комитета, отмечает, что в настоящее время люди широко используют нейросети для создания дипфейков в развлекательных целях, например, для помещения своего фото в различные интересные сцены или изменения своего внешнего облика. Однако он уверен, что в ближайшие три года эта технология начнет активно использоваться мошенниками и теми, кто стремится обмануть систему. Депутат приводит пример, что некоторые студенты уже начали использовать нейросети для написания выпускных дипломов.
Одним из наиболее тревожных сценариев является возможность использования нейросетей для имитации голоса человека. Это может позволить мошенникам звонить близким людям, подражая их голосу, и даже вести разговор от их имени. Например, с использованием дипфейка мошенники могут обратиться к человеку, выдавая себя за его родственника или друга, и убедить его отправить деньги под предлогом срочной необходимости. Это создает реальную угрозу для финансовой безопасности граждан и приводит к повышенной неопределенности и доверие к цифровым коммуникациям.

