Разделы

Бизнес Законодательство Телеком Контент Цифровизация Бизнес-приложения Внедрения ИТ в госсекторе

Госдума решила оградить избирательные компании от влияния искусственного интеллекта

Законопроект о регулировании использования технологий искусственного интеллекта при создании агитационных материалов на выборах внесен в Госдуму 14 августа 2025 г. Документом вносятся поправки в ряд статей закона «О выборах депутатов Госдумы». В частности, вводится понятие предвыборной агитации с использованием искусственного интеллекта. Предлагается разрешить изготавливать агитационные материалы с применением нейронных сетей, а также установить, что Центральная избирательная комиссия сможет определять особые требования к таким материалам.

Внесение законопроекта

14 августа 2025 г. в Государственную Думу (Госдуму) внесен законопроект о регулировании использования искусственного интеллекта (ИИ) в ходе предвыборных кампаний в органы власти, пишут «Ведомости». Отсутствие правил в этой сфере создает риски для легитимности выборов — фейки на основе ИИ способны оказывать значительное влияние на общественное мнение.

Предлагается разрешить изготавливать агитационные материалы с применением ИИ, а также установить, что Центральная избирательная комиссия (ЦИК) сможет определять особые требования к таким материалам.

Проектом предусматривается, что, если в агитационных материалах будет использоваться сгенерированное ИИ изображение человека, это должно быть прямо указано, такая информация должна размещаться в печатных, аудиовизуальных и онлайн-материалах. Аналогичные требования предлагается прописать для публикаций в периодических изданиях: если там используются сгенерированные ИИ изображения людей, это должно быть отмечено.

В Госдуме предложили ограничить влияние искусственного интеллекта на итоги предвыборных кампаний

Документом вносятся поправки в ряд статей закона «О выборах депутатов Госдумы». В частности, вводится понятие предвыборной агитации с использованием ИИ (статья девять). Допускается изготовление с его помощью агитационных материалов, а также генерация ИИ изображений физического лица (статья 62). В действующей редакции разрешено использование в этих случаях изображений физического лица либо политической партией (изображение выдвинутых ею кандидатов), либо своих изображений самим кандидатом.

В пояснительной записке к законопроекту указано, что современные технологии значительно сокращают затраты на создание агитационных материалов и упрощают их производство, однако для предотвращения злоупотреблений цифровыми технологиями требуется четкое регулирование использования ИИ-технологий. Основная цель такого регулирования — избежать обмана избирателей. Видеоролики, созданные с помощью ИИ, часто почти неотличимы от настоящих, поэтому такая продукция должна иметь маркировку.

Это межфракционная инициатива, подготовленная депутатами Дмитрием Гусевым «Справедливая Россия» (СР), Андреем Свинцовым Либерально-демократическая партия (ЛДПР), Александром Ющенко Коммунистическая партия Российской Федерации (КПРФ) (КПРФ) и Ярославом Ниловым.

Начало регулирования

Электоральный юрист Гарегин Митин отмечает, что это первая попытка масштабного регулирования применения ИИ в агитации, и такие изменения, безусловно, оправданы. По его словам, нововведений в проекте немного, а основные функции по регулированию возлагаются на ЦИК. Однако, как подчеркивает юрист, поправки не решают вопросы маркировки агитационных материалов, созданных кандидатами с использованием ИИ-технологий, а также проблему ответственности промпт-инженеров — специалистов, формулирующих запросы для нейронных сетей.

Агитационные материалы к выборам собираются изготавливать с использованием ИИ

Политолог Константин Калачев считает, что на выборах в Госдуму нейронные сети будут использоваться максимально широко, потенциально заменив до половины избирательного штаба кандидатов. «Такая замена сулит преимущества в обработке запросов избирателей и создании контента, но также несет риски: манипулятивные технологии, дипфейки, незаконная обработка персональных данных и подрыв доверия к политической системе из-за перехода политики в виртуальную реальность (VR)», — заявил он в беседе с «Ведомостями».

Необходимость законодательного регулирования

В июле 2025 г. председатель ЦИК России Элла Памфилова публично заявила о необходимости законодательного регулирования применения ИИ в избирательной системе. По ее мнению, отсутствие рамок и правил в этой сфере создает риски для легитимности выборов, поскольку созданные на основе ИИ фейки и дипфейи способны напрямую влиять на общественное мнение избирателей.

«Очень сложно опровергать фейки, сгенерированные ИИ. Порой даже специалисты не могут отличить подделку от реальности. А если в этой гонке не будет четких правил, то мы рискуем столкнуться с масштабной манипуляцией общественным мнением в России», — предупредила председатель ЦИК России Элла Памфилова.

В качестве примера Памфилова привела случай в одном из регионов, где было распространено видео с дипфейком от имени известного кандидата. В ролике он якобы заявлял о снятии своей кандидатуры. «Многие восприняли это как реальное заявление. Хорошо, что наши коллеги вовремя отреагировали», — сказала она.

Элла Памфилова также заявила, что ЦИК активно работает над защитой избирательных процессов от новых угроз. «Не буду подробно рассказывать про кибератаки, фишинг и угрозы устройствам избирателей — не хочу вас пугать. Мы ставим все необходимые преграды и справляемся, как всегда, благодаря умению работать на опережение. Мы умеем ставить себя на место врага: думаем, где он мог бы атаковать, выявляем уязвимые места, нейтрализуем их и закрываем», — подчеркнула она.

Глава ЦИК добавила, что именно поэтому комиссия заинтересована в подготовке и участии волонтеров и наблюдателей от всех партий — это важно для подтверждения достоверности выборов в условиях новых усиливающихся угроз. «Слава Богу, у нас есть все необходимые механизмы для этого. Я уверена, что мы справимся, но системное законодательство, выходящее далеко за рамки электоральных процессов, уже назрело и буквально стучится в двери», — заявила Памфилова.

Антон Денисенко