Искусственный интеллект как угроза свободным выборам

Искусственный интеллект как угроза свободным выборам

В 2024 году политический рельеф ведущих стран мира может быть существенно обновлен в результате предстоящих выборов. Нет никаких сомнений в том, что при этом мы станем свидетелями широкого использования искусственного интеллекта в политических целях.

12 декабря, 2023

Часть 3 статьи 3 Конституции Российской Федерации, 30-летие которой мы отмечаем в этом году, гласит: «Высшим непосредственным выражением власти народа являются референдум и свободные выборы». Свобода, как известно, это такое состояние человека, при котором только он является определяющей причиной своих действий, то есть они не обусловлены непосредственно иными факторами, в том числе социальными и межличностно-коммуникативными. Проще говоря, человек, испытывающий зависимость от чужого мнения, уже не вполне свободен, его выбор определяется не столько внутренними убеждениями, сколько внешним, чаще всего, информационным воздействием.

Подводя итоги выборов в Единый день голосования на круглом столе в Общественной палате РФ, я высказал мысль о необходимости внимательного рассмотрения проблемы негативного воздействия на выбор граждан со стороны искусственных интеллектуальных систем, способных самостоятельно создавать контент, влияющий на поведение человека.

Наиболее полное развитие эта тема получила в консенсус-прогнозе Экспертного института социальных исследований «Искусственный интеллект политики для будущего».

Также весьма подробно и качественно проблема отражена в некоторых зарубежных публикациях. Например: «Насколько вам следует беспокоиться о том, что искусственный интеллект может помешать выборам?» (The Economist) и «Искусственный интеллект и демократия. Как современные технологии используют во время выборов» (Smart Estet).

Рекомендуя указанные источники, тем не менее, полагаю возможным сегодня, в преддверии выборов Президента Российской Федерации, более подробно рассмотреть вопросы защиты электорального суверенитета личности, общества и государства от экспансии искусственного интеллекта.

ФАБРИКА СМЫСЛОВЫХ ГАЛЛЮЦИНАЦИЙ

Любая агитация, пропаганда или реклама имеют своей целью воздействие на сознание потребителей с целью распространения и внедрения собственного информационного продукта. Зачастую при этом информация гиперболизируется, нужным образом искажается в интересах заказчика.

Это очевидно и не требует доказательств. Особую опасность для коллективного разума при этом представляет распространение заведомо ложной информации, которую сегодня принято называть заморским словом «фейк». По-нашему – вранье.

К сожалению, в производстве этой отравы для человеческого интеллекта сегодня может быть активно использован искусственный интеллект. В ближайшем будущем популярные ныне «фабрики смыслов» и «лаборатории образов будущего» заменит искусственный интеллект.

Если раньше общественное мнение зачастую основывалось на экспертных оценках, которые вырабатывались специально обученными политконсультантами, то современные достижения в области генеративного искусственного интеллекта (ИИ) делают возможной синтетическую пропаганду. Дешево, массово, с автоматическим переводом на все языки и микротаргетингом, то есть адресно направляемо каждому избирателю.

Что это такое? На прошлых выборах многие из нас получили адресные послания от имени глав субъектов РФ с призывом прийти на выборы. Это самый простой пример микротаргетинга.

Не следует забывать о том, что искусственный интеллект является самым лучшим шпионом всех времен и народов, способным проникнуть во все ваши тайны и личные секреты.

Эти знания помогают ИИ влиять на личную мотивацию, формировать установки и убеждения, создавая в вашем информационном пространстве нужную среду из виртуальных единомышленников, особенно в комментариях. Сети пропагандистских ботов трудно локализовать, они постоянно обновляются и не оставляют вас в покое.

Таким образом, с помощью искусственного интеллекта избиратели могут быть завалены масштабной персонализированной пропагандой, провоцирующей самые настоящие смысловые галлюцинации.

Синтетическая реальность, искусственно созданная вокруг человека, затягивает сознание в систему ложных ценностей и принципов, в радикальных случаях провоцируя девиантное поведение. Наиболее трагическим проявлением этого являются разного рода колумбайны и шутинги, свидетелями чего мы, к сожалению, все чаще становимся в последнее время.

Эта же технология может применяться и при организации массовых беспорядков, разного рода «цветных революций», провоцируемых на волне инфляции предвыборных ожиданий.

СИНТЕТИЧЕСКАЯ «ПРАВДА»

Расхожее выражение «у каждого своя правда» говорит о том, что человеку свойственно более всего доверять своим ощущениям, тому, что мы сами видим и слышим. С развитием искусственного интеллекта афоризм Козьмы Пруткова «Не верь глазам своим» вновь становится правилом выживания в цифровой среде.

Искусственный интеллект уже обладает возможностью создавать настолько качественную иллюзию, что далеко не всякий специалист высокого уровня может заметить ее отличия от реальности.

Применительно к выборам можно смело утверждать, что обработка видеозаписи с избирательного участка с помощью технологии «Дипфейк» может диаметрально искажать картинку с выборов путем подмены действующих лиц, их голоса и манеры поведения. К примеру, берется видео с реального избирательного участка и на нем появляются лица и действия, способные убедить зрителей в массовых фальсификациях на выборах. В руки голосующим можно вложить пачки бюллетеней, одни и те же лица могут быть показаны на разных участках, убеждая зрителей во вбросах и «каруселях».

Применение ИИ для исследования видеозаписей с избирательных участков, кроме прочего, позволяет сгенерировать данные о явке. Насколько они будут объективны, остается на совести заказчиков этой информации, поскольку на ее перепроверку уйдет больше времени, чем это необходимо для предотвращения процесса «blow up» в социальной системе.

Если представить, что ИИ вдруг получит доступ к данным биллинга, информации с GPS-трекеров, технологии распознавания лиц и сможет обработать эти большие базы данных применительно к процессу голосования, то может быть, без преувеличения, вскрыт ящик Пандоры. Запустятся процессы, ставящие под сомнение само существование механизмов современной демократии.

Гиперреалистичные фейки, изготовленные искусственным интеллектом, вероятнее всего, успеют повлиять на избирателей задолго до того, как поддельные аудио, фото и видео будут официально разоблачены и опровергнуты.

В результате может быть нанесен прицельный удар по легитимности выборов, доверию избирателей к институтам власти и даже к своим собственным согражданам.

АВАТАРЫ

Мало, кто осознал тот печальный факт, что уже сегодня искусственный интеллект способен сгенерировать идеального кандидата в президенты или депутаты, и провести его во власть. В лучшем случае народу могут предложить цифровую копию реального человека, в худшем – полностью синтетического.

Недавно в США продемонстрировали кардинально новый вариант применения искусственного интеллекта в подготовке к выборам. Речь идет о проекте Chat2024-платформе, на которой созданы цифровые копии вероятных кандидатов в президенты США. Эти цифровые аватары 17 ведущих кандидатов созданы с помощью искусственного интеллекта. Пока не сообщаются подробности относительно того, какие конкретно технологии использовали для создания этих цифровых воплощений политиков. Известно, что это большие языковые модели (LLM) вроде ChatGPT. Эти модели были обучены на основе больших массивов данных, полученных из сотни источников, таких как видеозаписи выступлений кандидатов, цитаты в медиа и другие сведения. Пользователи могут спрашивать у цифровых аватаров, что их беспокоит. Вопросы можно задавать как каждому в отдельности, так и всем вместе, к тому же на платформе можно даже смоделировать минидебаты между несколькими цифровыми образами политиков.

То, насколько эти цифровые воплощения совпадают с реальными кандидатами и как они действуют в сложных ситуациях, станет ясно позже. Однако само появление такой идеи создания цифровых копий потенциальных лидеров, к разработке которых был приобщен искусственный интеллект, является большой проблемой для избирателя, который может очарован программным продуктом, имеющим мало общего с реальным лидером, его истинными личностными и деловыми качествами.

Это как со знакомством по Интернету. Первая же встреча в реале может обернуться большим разочарованием, но будет уже поздно. Выборы закончились.

ЗАЩИТНЫЕ РЕШЕНИЯ

Платформы социальных сетей, где распространяется дезинформация, и компании, занимающиеся искусственным интеллектом, периодически заявляют, что они видят эти риски и принимают защитные решения.

OpenAI – компания, стоящая за Chatgpt, к примеру, заявляет, что отслеживает использование своего детища в целях предотвращения операций политического влияния. Социальные сети стали чаще выявлять и блокировать подозрительные аккаунты, используемые в политической рекламе.

Илон Маск заявил, что планирует создать «честную» версию чат-бота с искусственным интеллектом, которая получит название TruthGPT. По его словам, платформа должна стать конкурентом ChatGPT. При этом в чат-боте якобы не будет цензуры.

Также Илон Маск и более тысячи экспертов подписали открытое письмо с призывом приостановить обучение нейросетей. Специалисты призвали ИИ-лаборатории и независимых экспертов в течение этой паузы совместно разработать технологический стандарт, устанавливающий происхождение реальных изображений и видео, а также внедрить общие протоколы безопасности. Это разумно, хотя есть большие сомнения в том, что злоумышленники будут соблюдать эти требования.

Наиболее строгими и одновременно эффективными считаются меры, предпринимаемые в Китае. Там алгоритмы искусственного интеллекта должны быть зарегистрированы в государственном органе и каким-то образом обязаны в своей работе воплощать основные традиционные ценности.

Китай преследует цель использовать технологии искусственного интеллекта для внутренней и внешней безопасности. Так, Госсовет КНР разработал план по внедрению системы социального доверия или «социального кредита». С точки зрения внутренней политики Пекин делает ставку на технологии массового контроля населения с помощью искусственного интеллекта, чтобы поддерживать социальную стабильность в стране и предоставить гарантии сохранения влияния правящей коммунистической партии.

МНЕНИЯ

Центральная избирательная комиссия Российской Федерации, по мнению ее Председателя Эллы Памфиловой, «никуда не денется» от необходимости внедрения технологий искусственного интеллекта в избирательную систему, эти нововведения послужат во благо избирателей. При этом Глава ЦИК России отметила, что к применению ИИ нужно «подходить с умом». «Нужно оценивать все факторы безопасности, двигаться вперед. Все это будет во благо избирателя», – заключила она.

«Даже если вы говорите, что у искусственного интеллекта нет свободы действий, весьма вероятно, что люди будут использовать искусственный интеллект в качестве инструмента на выборах», – заявил в интервью Fox News американский предприниматель, основатель Tesla и SpaceX Илон Маск. Он также выразил мнение, что без государственного надзора быстро развивающийся ИИ может стать «опасностью для общества» и представлять реальную угрозу для будущего человечества.

ВЫВОДЫ

В целом, можно говорить о том, что угрозы использования генеративного ИИ для подрыва основ народовластия в полной мере пока недооценены.

Если на уровне технических специалистов проблемы расширения воздействия искусственного интеллекта на виртуальную реальность в какой-то мере и обсуждаются, то в среде правоведов, философов и электоральных экспертов этические, правовые, когнитивные, коммуникативные, культурные вызовы экспансии ИИ, его влияния на демократию и даже на демографию, не вошли в повестку дня.

Предположения о том, какую разрушительную идею может сгенерировать искусственный интеллект, пока что в основном – удел фантастов, вложивших свои опасения в образ «Скайнета» из фильма Джеймса Кэмерона «Терминатор».

Исполнительный директор Российского фонда свободных выборов, кандидат философских наук Максим Лесков