Директор агентства Gosapp Digital
09.02.2026

Сначала сами создали себе проблему, а теперь пытаемся её решить

 

Директор агентства Gosapp Digital Захар Рубцов – о борьбе с дипфейками в ходе избирательных кампаний.

Не так давно стало известно, что избирательная комиссия Великобритании запускает пилотный проект по борьбе с дипфейками. В чём суть: на период избирательных кампаний кандидатам и партиям хотят дать специальную программу, которая будет автоматически искать фальшивки и поможет быстро их удалить из соцсетей и рекламы. ПО планируют протестировать на ближайших выборах в Шотландии и Уэльсе.

Мы не будем углубляться во все тонкости избирательных процессов туманного Альбиона, но лично меня заинтересовал вопрос: «Почему англичане вообще решили озадачиться этой проблемой?». И вот оказалось, что за последнее время произошло несколько крупных скандалов, связанных с использованием ИИ в политических целях.

Например, в 2024 году американским избирателям звонили по телефону и голосом Джо Байдена (сгенерированным через нейросети) призывали не ходить на праймериз. Мол, сберегите ваш голос для основных выборов. Естественно, фейк быстро разоблачили, но разразился большой скандал. Креативщику демократов, придумавшему сей гениальный ход, тогда грозили чуть ли не уголовным делом.

Или вот Индия, где на выборах в том же 2024-м были десятки дипфейков. В соцсетях и умершие болливудские актёры «поддерживали» партии, и распространялись видео с речами политиков, которые никогда не произносились в действительности. Если верить СМИ, избирательные комиссии получали тогда тонны жалоб.

Таких случаев много по всему миру. Например, Словакия, 2023 год – за два дня до парламентских выборов в сети появилось фейковое аудио, где оппозиционный кандидат обсуждает подтасовку голосов. Канада, 2025 год – в преддверии федеральных выборов мошенники распространили дипфейк-интервью с лидером либералов, где он якобы рекламировал криптовалютную схему и призывал вкладывать деньги.

Все эти кейсы говорят о том, что технология стала доступной и подделать голос или лицо теперь можно за минуты. И важно не забывать о качестве современных дипфейков. Если раньше сгенерированные видео были грубыми и легко разоблачались, то теперь их порой не отличишь от настоящих.

А что у нас в России? Мы пока лишь наблюдаем за общемировыми тенденциями, и они явно вызывают у нас опасения. Как пишут СМИ, сейчас в администрации президента идут обсуждения поправок в избирательное законодательство. Якобы стоит задача придумать механизм для регулирования использования нейросетей в предвыборной агитации. И, будем честны, задача эта крайне нетривиальная.

Представим, что появился закон, обязывающий маркировать предвыборный контент, сгенерированный через ИИ. Отлично, только как это поможет в борьбе с фейками? Мошенники на то и мошенники, что пытаются остаться незамеченными и загружают всё с «левых» аккаунтов. Никто из них, разумеется, ничего маркировать не будет. Думаю, здесь важно посмотреть на опыт Великобритании, которая разрабатывает ПО именно для автоматического выявления фейков (с их последующим удалением). Если эксперимент окажется удачным, технологию начнут применять и в других странах.

В итоге возвращаемся к тезису, с которого я начал: ИИ сначала создал проблему, а теперь его же используют, чтобы её решать. И это, пожалуй, главный урок ближайших лет – кто быстрее адаптируется, тот и выиграет в новой реальности выборов.

socset

 
Партнеры
politgen-min-6 Сначала сами создали себе проблему, а теперь пытаемся её решить
banner-cik-min Сначала сами создали себе проблему, а теперь пытаемся её решить
banner-rfsv-min Сначала сами создали себе проблему, а теперь пытаемся её решить
expert-min-2 Сначала сами создали себе проблему, а теперь пытаемся её решить
partners 6
eac_NW-min Сначала сами создали себе проблему, а теперь пытаемся её решить
insomar-min-3 Сначала сами создали себе проблему, а теперь пытаемся её решить
indexlc-logo-min Сначала сами создали себе проблему, а теперь пытаемся её решить
rapc-banner Сначала сами создали себе проблему, а теперь пытаемся её решить