Обычный вид

Получено вчера — 16 марта 2026 Новая Газета. Европа

МинИИстерство пропаганды. США, Иран и Россия используют в информационных войнах нейросетевые видео. Так еще легче подорвать доверие к реальным новостям


Всего несколько лет назад нейросети с трудом генерировали видео на несколько секунд со знаменитостями, поедающими спагетти, а теперь они массово используются правительствами разных стран для информационных войн. ИИ-сервисы не только помогают определять цели для авиаударов и симулировать боевые действия, но и вводят в заблуждение миллионы людей. Если раньше на это требовались усилия многомиллионных бот-ферм и огромные бюджеты, сейчас достаточно написать простой промпт для генерации нужной картинки или видео и опубликовать его в соцсетях, надеясь на продвижение с помощью алгоритмов. Пропагандистских фейков, сгенерированных с помощью ИИ, не счесть. С их помощью Израиль и ХАМАС обвиняли друг друга в массовых убийствах детей, Иран создает ненастоящие фотографии с новым верховным лидером страны, а в соцсети X публикуют ролики, где американские ВВС якобы бомбят правительственные здания в Тегеране. «Новая-Европа» рассказывает, чем опасна ИИ-пропаганда, почему ее стали чаще использовать правительства разных стран и каково будущее этих технологий.
Москва, 5 марта 2026 года. Фото: Ярослав Чингаев / Агентство «Москва».

Что такое слопаганда и зачем она нужна правительствам?
Пропагандистские фейковые видео, созданные с помощью ИИ, в соцсетях называют слопагандой — от английского слова slop, означающего мусор или помои. С 2024 года нейрослопом называли любые низкокачественные нейровидео, но термин слопаганда появился относительно недавно — примерно в 2025 году.
Слопаганде уже посвящают научные работы. Так, специализирующиеся на ИИ-этике ученые Михал Клинцевич, Марк Алфано и Амир Фард из университетов Нидерландов и Австралии утверждают, что слопаганда отличается от традиционной фейковой пропаганды своими масштабами и возможностью влиять на самую широкую аудиторию. Нейросети позволяют создавать множество новостных сайтов, распространяющих дезинформацию на региональном уровне, — например, нацеленные на жителей конкретных провинций европейских стран или американских штатов. Многие пользователи по умолчанию доверяют «локальным» сайтам больше, чем федеральным или международным, — и могут легко стать жертвами слопаганды.
Сгенерированные нейросетями фотографии или видео могут быть крайне убедительными. В исследовании 2024 года, проведенном учеными Стэнфордского университета, выяснилось, что пропагандистским материалам, созданным с помощью актуальной на тот момент ChatGPT-3, верили около 43,5% респондентов. 40% участников эксперимента, проведенного учеными Чикагского университета в том же 2024-м, смогли верно распознать ИИ-изображения.
Результаты различаются в зависимости от состава участников. Финские исследователи из Оулуского университета пришли к выводу, что большинство молодых жителей страны в состоянии распознать фейковые видео. В то же время людям пожилого возраста сделать это гораздо сложнее — по крайней мере, такую информацию приводят сингапурские ученые из Наньянского технологического университета.
По опросам 2025 года стало известно, что около 25% американцев в основном доверяют информации, сгенерированной чат-ботами, и не перепроверяют их ответы. И 9% жителей США, по данным исследовательского центра Pew Research Center, читают новости с помощью ИИ-сервисов.
Правительства используют эффективность слопаганды в своих интересах. Как утверждает профессор Калифорнийского университета в Беркли Хани Фарид, раньше СМИ легко вычисляли и опровергали вручную созданные фейки. „
Теперь же реалистичных пропагандистских фотографий и видео стало настолько много, что журналисты уже не успевают опровергать каждый отдельный фейк.
Ситуацию осложняет и то, что с помощью ИИ нередко редактируют фрагменты настоящих видео, чтобы ввести зрителей в заблуждение, — например, увеличивают радиус и мощность взрывов от авиаударов или дронов.
Другой важный «плюс» слопаганды — ее массовость и доступность. Правдоподобные фейковые видео создаются в кратчайшие сроки и быстро распространяются с помощью ботов и доверчивых людей. Государства этим пользуются, чтобы скрыть от публики достоверную информацию во время военных конфликтов. Кроме того, в 2026 году обычным пользователям, корпорациям и государствам доступно как никогда много нейросетей и ИИ-сервисов, позволяющих генерировать контент за низкую стоимость.
«Ежедневно создаются сотни тысяч часов видео — как с помощью обычных камер, так и с искусственным интеллектом, — и это просто огромный объем данных, с которым приходится иметь дело. Это, безусловно, замутняет и запутывает нашу информационную среду, затрудняя понимание происходящего и подрывая доверие к происходящему», — рассказал профессор визуальной коммуникации ТиДжей Томсон в комментарии изданию ABC News.
Особенно активно слопаганду применяет Иран. По данным аналитического агентства Cyabra, страна за две недели вооруженного конфликта с США и Израилем задействовала десятки тысяч ботов в соцсетях, публиковавших фейковые ИИ-ролики о достижениях иранской армии. В частности, многие ролики показывали, как иранские ракеты и дроны уничтожали военные объекты и достопримечательности стран Персидского залива вроде ОАЭ и Катара. Такие видео набрали более 145 миллионов просмотров в TikTok, X, YouTube и других соцсетях.
Иран с помощью слопаганды не только добивается усиления паники в регионе, но и пытается убедить зрителей из других стран в том, что ее армия куда сильнее, чем показывают в официальных новостях.
«Использование ИИ-кадров, на которых запечатлены горящие или разрушенные места в Персидском заливе, приобретает все большее значение в стратегии Ирана. Это позволяет стране создать впечатление, что эта война является более разрушительной и, возможно, более дорогостоящей для союзников Америки», — рассказал в комментарии The New York Times доцент Северо-западного университета Катара Марк Джонс.
В обзоре искусственного интеллекта Google ложно утверждается, что сгенерированное ИИ видео иранских ракет, поражающих Тель-Авив, является подлинным. Фото: cкриншот с сайта NewsGuard.

Слопаганда особенно сильна тем, что ИИ-сервисы пока плохо распознают фейки. Например, система Google AI Overviews, дающая краткое саммари по запросу в поисковике, назвала сгенерированные Ираном кадры уничтоженных зданий настоящими. Часто ошибается и чат-бот Grok от соцсети X, принадлежащей Илону Маску. Нейросеть посчитала посты о разрушениях в Тель-Авиве правдивыми и сослалась на несуществующие материалы Reuters, CNN и Euronews.
Пока технологические корпорации не справляются с усилением слопаганды. Единственная компания, обещавшая наказывать пользователей за публикации ИИ-видео без указания источника, — та же X. Представители остальных сервисов вроде Facebook, Instagram и TikTok еще не предприняли никаких действий.
В обзоре искусственного интеллекта Google ложно утверждается, что на изображении с использованием искусственного интеллекта виден «мощный пожар» в посольстве США в Эр-Рияде. Фото: cкриншот с сайта NewsGuard.

Как Россия использует слопаганду во время войны?
Российские пропагандисты распространяют фейки еще с начала вторжения в Украину в 2022 году. Например, представители СНБО заявляли, что РФ с помощью профессиональных студий создает видео с актерами, изображающих украинских военных. Такие ролики снимали в вертикальном формате с помощью дешевых телефонов, чтобы усилить эффект правдоподобности. Также российские бот-фермы в начале вторжения публиковали в TikTok ролики с кадрами из видеоигр и видео времен предыдущих военных конфликтов.
Кадр из видео игры в страйкбол. Видео преподносилось как якобы снятое на войне в Украине. Фото: bbc.com / TikTok.

Но с ростом популярности ИИ-сервисов Россия изменила стратегию и стала публиковать два типа коротких роликов. В первом показывают низкокачественные анимации с нереалистично выглядящими людьми — например, в январе 2026 года опубликовали десятки роликов с тучными людьми в украинской военной форме, которые жаловались на нехватку продовольствия. Как отмечает «РБК-Украина», такие видео подаются как сатира и направлены на деморализацию населения и военнослужащих.
Второй тип нейрофейков куда опаснее — это правдоподобные видео с высокой детализацией, которые можно по невнимательности принять за настоящие. Среди них, скажем, ролики, где украинские военные массово сдаются российской армии или отступают из осажденных городов в Донецкой области.
Заметить признаки генерации в них крайне сложно, так как подобный контент создается с помощью Sora 2 от OpenAI, создавшей ChatGPT. Sora 2 создает правдодобно выглядящих людей и соответствующий картинке звуковой ряд, в том числе и голоса. Несоответствия можно заметить лишь в мелких деталях — визуальных артефактах, в одежде или пропадающих мелких объектах в кадре.
Российская пропаганда использовала Sora 2 для создания фейковых тиктоков с плачущими украинскими солдатами. Так, в одном из роликов показывается молодой парень, утверждающий, что его насильно мобилизовали и отправили воевать в Часов Яр. При этом в видео использовались лица известных российских стримеров — среди них Владимир Буянов под ником Kussia88 и Алексей Губанов, более известный как JesusAVGN.
Слопаганду в соцсетях регулярно публикуют специализированные российские аккаунты с нейтральными названиями, не указывающими на их происхождение, — например, flight_area_zone. Существуют даже целые нейросетевые сайты, связанные с Россией и мимикрирующие под американские новостные издания, — об одном из них написали научную статью ученые из Цюрихского и Клемсконского университета.
Россия также публикует англоязычную слопаганду. Ролик, в котором профессор лондонского Королевского колледжа Алан Рид якобы критиковал Эммануэля Макрона и разоблачал западную цивилизацию, успел набрать популярность в соцсетях, пока на него не обратил внимание сам Рид. Также в TikTok сотни тысяч просмотров набрали нейросетевые видео, на которых польские граждане требовали выхода своей страны из Евросоюза.
Пока что подобные ролики легко разоблачаются журналистами и комментаторами. Но пропаганда РФ проникает всё глубже: в январе нейросети ChatGPT, Copilot, Claude и Gemini в 33% случаев ссылались в своих ответах на вопросы о причинах войны в Украине на информацию, распространяемую российскими властями. Как выяснило аналитическое агентство Newsguard, Кремль еще в 2024 году создал целую сеть по дезинформации под названием «Правда». Боты сети, по оценкам агентства, опубликовали более 3,6 миллиона сгенерированных новостных статей, продвигавших российскую пропаганду.
***
Слопаганда, судя по всему, с нами надолго. Нейросети все лучше справляются с созданием правдоподобных изображений видео, а текстовые чат-боты помогают правительствам быстрее и массовее распространять фейки в соцсетях. „
Нейросети окончательно превратились в инструмент войны, а их создатели как минимум косвенно влияют на исход конфликтов.
Так, недавно Иран заявил, что считает дата-центры Nvidia, Google, Microsoft, IBM и Oracle в Израиле и странах Ближнего Востока легитимными целями для ракетных ударов и дроновых атак.
Из-за роста популярности нейросетей обычным людям все труднее доверять достоверной информации — многие пользователи во всем видят подвох или предпочитают не читать новости. Политические дискуссии и вовсе превратились в обсуждение того, что сгенерировано нейросетями, а что нет. Скажем, в недавнем выступлении израильского премьер-министра Биньямина Нетаньяху пользователи соцсети X увидели признаки генерации ИИ вроде шести пальцев на руках политика.
Кадр из выступлении израильского премьер-министра Биньямина Нетаньяху. Фото: соцсети / X / AustraliaFirstOnly.

Пока же можно сделать вывод, что корпорации практически не мешают распространению слопаганды, а правительства разных стран видят в нейросетях исключительно выгоду.
Получено — 15 марта 2026 Новая Газета. Европа

Генерал ИИ. Пентагон использовал Claude для ударов по Ирану и заключил соглашение с создателем ChatGPT. Как нейросети стали важным оружием в современных войнах?


Для планирования ударов по Ирану командование армии США на Ближнем Востоке задействовало чат-бот Claude от компании Anthropic, сообщило издание Wall Street Journal. Это произошло уже после того, как Пентагон поссорился с компанией-создателем ИИ-инструмента, а Дональд Трамп запретил правительственным учреждениям применять его в работе. Более того, в тот же день создатель ChatGPT и главный конкурент Anthropic — компания OpenAI — объявила о начале сотрудничества с Министерством войны США. В 2026 году нейросети выглядят неотъемлемой частью военных конфликтов. «Новая-Европа» рассказывает, как Белый дом и Пентагон усиливают внешние позиции за счет привлечения технологических корпораций и как искусственный интеллект меняет ход современных войн.
Дым над центральными районами Тегерана после очередного авиаудара, Иран, 2 марта 2026 года. Фото: Abedin Taherkenareh / EPA.

Как армия США использует Claude? И почему создатель чат-бота поссорился с американскими властями?
Массовое использование искусственного интеллекта в американской армии продвигает министр войны (обороны) США Пит Хегсет. Именно под его руководством, по данным Wall Street Journal, Пентагон задействовал Claude от Anthropic в похищении президента Венесуэлы Николаса Мадуро.
После этого Anthropic осудила использование Claude Пентагоном, сославшись на внутренние правила: они запрещают применять чат-бот для разработки вооружений, разведки или насильственных действий.
С тех пор компания конфликтует с американским правительством. Так, 28 февраля Хегсет обвинил Anthropic в высокомерии и предательстве и добавил, что «американские военнослужащие никогда не станут заложниками идеологических прихотей крупных технологических корпораций». Еще жестче высказался президент Трамп, назвавший Anthropic «леворадикальной ИИ-компанией, которой управляют люди, не имеющие представления о реальном мире».
Тем не менее, даже несмотря на официальный запрет со стороны Трампа, Пентагон продолжает использовать Claude. Как заявляют источники WSJ, Claude помогал планировать ракетные удары против иранских объектов, анализировал информацию от разведки и проводил симуляции военных действий. Использовалась ли нейросеть и после начала операции, непонятно.
Со стороны может показаться, что конфликт между Anthropic и американским правительством исключительно идеологический и касается только этических норм использования ИИ в военной сфере. Однако это не так: Anthropic еще в июле 2025-го подписала соглашение о сотрудничестве с Пентагоном на 200 миллионов долларов. „
Директор по цифровым технологиям и искусственному интеллекту Министерства войны США Даг Мэтти открыто заявил, что компания разработает ИИ-инструмент, который поможет американской армии получить преимущество над соперничающими державами.
Осенью 2025 года руководство Anthropic выразило обеспокоенность тем, как Белый дом собирается использовать Claude во внешней политике. А источники издания Semafor рассказали, что принципиальная позиция главы компании Дарио Амодеи о том, что применять нейросети в военных целях не следует, раздражает Белый дом.
Также Anthropic запретила ФБР, Секретной службе и другим ведомствам использовать Claude для слежки и получении разведданных, хотя официально предоставляла свои услуги американским ведомствам для «национальной безопасности». Ситуацию усложняет и то, что именно эта нейросеть, по оценкам Semafor, лучше других справляется со сложными военными задачами.
Генеральный директор Anthropic Дарио Амодеи на слушаниях в подкомитете Сената США по судебной системе, Вашингтон, округ Колумбия, 25 июля 2023 года. Фото: Graeme Sloan / Sipa USA / Vida Press.

Пентагон не может одномоментно отказаться от использования Claude, несмотря на требования Трампа и Хегсета. Источники издания Defence One, близкого к руководству армии США, сообщают, что у специалистов Министерства войны слишком многое завязано именно на нейросети Anthropic. На переход в другие сервисы понадобится как минимум несколько месяцев, а отказаться от Claude сейчас Пентагон попросту не может.
Судя по всему, Амодеи вряд ли согласится пойти на уступки администрации Трампа. В своем январском эссе на личном сайте он пояснил, что ИИ полезен и необходим для демократии, но для него есть черта, которую не готов переступить. „
«Мы не можем игнорировать потенциальную возможность злоупотребления этими технологиями со стороны самих демократических правительств»,
заявил глава Anthropic.
После конфликта с Anthropic Пентагон заключил соглашение с OpenAI. ИИ уже на службе армии США?
Американские военные обратили внимание на развитие искусственного интеллекта еще в 2014 году, при администрации Барака Обамы. Тогда Пентагон предупреждал, что в будущем появятся роботизированные виды вооружений, которые смогут самостоятельно выбирать цели для обстрелов и ракетных атак. В 2017-м ведомство забеспокоилось из-за инвестиций Китая в американские ИИ-стартапы: оно стало опасаться возможного влияния КНР на оборону США. А в 2023 году министерство заговорило о необходимости использования ИИ в военных целях — и через год уже использовало собственную нейросеть Maven для авиаударов по Сирии.
Однако Пентагон с самого начала не планировал самостоятельно заниматься разработкой специализированных нейросетей. Еще в марте 2018-го ведомство предложило американским корпорациям сотрудничать в военной сфере, а в августе того же года объявило развитие искусственного интеллекта своим приоритетом.
На место Anthropic Пентагон уже нашел замену — OpenAI с ChatGPT. Компания уже начала внедрять свои нейросети в закрытую военную сеть и договорилась о ключевых принципах сотрудничества. Как рассказал глава OpenAI Сэм Альтман, у ChatGPT для Пентагона есть только два ограничения — запрет на массовую слежку внутри США и использование нейросети для управления оружием массового поражения. По словам Альтмана, Министерство войны согласилось на эти условия, а сама OpenAI хочет, «чтобы у защищающих США людей были лучшие инструменты для защиты».
Пит Хегсет в Белом доме, Вашингтон, 2 марта 2026 года. Фото: Jim Lo Scalzo / EPA.

Другие корпорации, сотрудничающие с министерством, — Google и Microsoft. Первая принимала участие в создании нейросети Maven и подписала контракт о внедрении сервиса Gemini в сеть Пентагона. В феврале 2026 года сотрудники Google из отдела Deepmind отправили письмо своему руководству о недопустимости военного сотрудничества с американским правительством. Microsoft же еще в 2018 году объявил о соглашении с Пентагоном и прописывает военную сферу как одну из ключевых в стратегии развития своего ИИ Copilot. В 2025 году компания уволила инженера Джо Лопеса, открыто выступившего против политики руководства.
Еще один ключевой поставщик услуг для министерства — миллиардер Илон Маск с его компанией xAI, известной по чат-боту Grok. О сотрудничестве Маска с Пентагоном сообщил лично министр войны Пит Хегсет. Grok используют для анализа секретных данных, разработки оружия и симуляции военных операций.
Издание The Washington Post объясняет, что технологические корпорации США вынуждены идти на сотрудничество с Пентагоном из-за нежелания попасть в немилость администрации Трампа. „
Существует риск, что отказ от контракта приведет к политическим преследованиям и финансовым проблемам. Поэтому Илону Маску, Сэму Альтману и главам Google и Microsoft необходимо выставлять себя лояльными патриотами, чтобы не потерять состояние.
Как армии других стран используют нейросети?
Главную угрозу для Вашингтона представляет Китай, который уже в 2025-м признал необходимость внедрения ИИ для национальной и международной безопасности. Главная техническая корпорация страны Tencent, инвестирующая в нейросети DeepSeek и Kimi, уже попала в список Пентагона как компания, создающая нейросети для Министерства национальной обороны КНР. Еще до этого китайские ученые из Национального университета обороны создали первого в мире виртуального командующего войсками, который полностью копирует стратегию настоящих генералов.
При администрации Джо Байдена председатель КНР Си Цзиньпин открыто заявлял о необходимости ограничивать использование ИИ в военной сфере — например, не допускать нейросети к управлению ядерными боеголовками. Изменилась ли его позиция с приходом Трампа, неизвестно.
Другие страны также активно создают ИИ в целях обороны. Так, КНДР уже создала нейросети для кибернетических атак и получения разведданных. Для обороны искусственный интеллект развивают Южная Корея и Япония. Изучает использование ИИ в военных целях и Евросоюз — правда, у него еще нет собственных разработок.
Палестинец укрывается после авиаудара израильских сил в ходе военной операции в Газе, сектор Газа, 27 сентября 2025 года. Фото: Mohammed Saber / EPA.

Дальше всех, помимо США, в разработке военного ИИ продвинулись Индия и Израиль. Первая использовала собственные нейросети Trinetra, Sanjay и Edge AI, чтобы находить цели для ракетных атак в ходе столкновения с Пакистаном в 2025 году, — причем ИИ успешно справлялся с идентификацией в 94% случаях. Согласно журналистским расследованиям, с 2023-го армия обороны Израиля использовала для определения целей атак в Секторе Газа свою нейросеть, которая, по данным СМИ, допускала ошибки (впрочем, ЦАХАЛ утверждал, что система представляет собой не перечень целей, а базу данных, и отмечал, что армия старается снизить ущерб гражданскому населению).
В 2025-м выяснилось, что израильские военные разработали ИИ для анализа разведданных по Палестине, в основе которого лежали облачные технологии Microsoft. После этого корпорация ограничила доступ к своим сервисам.
***
Нейросети уже прочно вошли в обиход военных ведомств по всему миру. Бывший офицер Сил самообороны Японии Коитиро Такаги еще в 2022 году писал, что ИИ представляют особенную опасность для мировой безопасности из-за отсутствия моральных ограничителей и крайне быстрой реакции — например, нейросеть может запустить боеголовки за считанные секунды, не дожидаясь приказа руководства. Эксперт пришел к выводу, что даже самым совершенным нейросетям нужно регулирование со стороны людей, чтобы предотвращать конфликты.
В будущем нейросети будут важным подспорьем для военных руководителей по всему миру, как минимум из-за возможности быстрого и качественного анализа данных, предсказывает заместитель министра войны США Эмиль Майкл.
В том же 2025 году более пессимистичный прогноз дал глава ИИ-отдела Microsoft Мустафа Сулейман. По его мнению, искусственный интеллект в будущем может стать таким могущественным, что его придется останавливать военным вмешательством. Смогут ли в таком случае военные руководители обойтись без помощи ИИ, вопрос отдельный.

МинИИстерство пропаганды. США, Иран и Россия используют в информационных войнах нейросетевые видео. Так еще легче подорвать доверие к реальным новостям


Всего несколько лет назад нейросети с трудом генерировали видео на несколько секунд со знаменитостями, поедающими спагетти, а теперь они массово используются правительствами разных стран для информационных войн. ИИ-сервисы не только помогают определять цели для авиаударов и симулировать боевые действия, но и вводят в заблуждение миллионы людей. Если раньше на это требовались усилия многомиллионных бот-ферм и огромные бюджеты, сейчас достаточно написать простой промпт для генерации нужной картинки или видео и опубликовать его в соцсетях, надеясь на продвижение с помощью алгоритмов. Пропагандистских фейков, сгенерированных с помощью ИИ, не счесть. С их помощью Израиль и ХАМАС обвиняли друг друга в массовых убийствах детей, Иран создает ненастоящие фотографии с новым верховным лидером страны, а в соцсети X публикуют ролики, где американские ВВС якобы бомбят правительственные здания в Тегеране. «Новая-Европа» рассказывает, чем опасна ИИ-пропаганда, почему ее стали чаще использовать правительства разных стран и каково будущее этих технологий.
Москва, 5 марта 2026 года. Фото: Ярослав Чингаев / Агентство «Москва».

Что такое слопаганда и зачем она нужна правительствам?
Пропагандистские фейковые видео, созданные с помощью ИИ, в соцсетях называют слопагандой — от английского слова slop, означающего мусор или помои. С 2024 года нейрослопом называли любые низкокачественные нейровидео, но термин слопаганда появился относительно недавно — примерно в 2025 году.
Слопаганде уже посвящают научные работы. Так, специализирующиеся на ИИ-этике ученые Михал Клинцевич, Марк Алфано и Амир Фард из университетов Нидерландов и Австралии утверждают, что слопаганда отличается от традиционной фейковой пропаганды своими масштабами и возможностью влиять на самую широкую аудиторию. Нейросети позволяют создавать множество новостных сайтов, распространяющих дезинформацию на региональном уровне, — например, нацеленные на жителей конкретных провинций европейских стран или американских штатов. Многие пользователи по умолчанию доверяют «локальным» сайтам больше, чем федеральным или международным, — и могут легко стать жертвами слопаганды.
Сгенерированные нейросетями фотографии или видео могут быть крайне убедительными. В исследовании 2024 года, проведенном учеными Стэнфордского университета, выяснилось, что пропагандистским материалам, созданным с помощью актуальной на тот момент ChatGPT-3, верили около 43,5% респондентов. 40% участников эксперимента, проведенного учеными Чикагского университета в том же 2024-м, смогли верно распознать ИИ-изображения.
Результаты различаются в зависимости от состава участников. Финские исследователи из Оулуского университета пришли к выводу, что большинство молодых жителей страны в состоянии распознать фейковые видео. В то же время людям пожилого возраста сделать это гораздо сложнее — по крайней мере, такую информацию приводят сингапурские ученые из Наньянского технологического университета.
По опросам 2025 года стало известно, что около 25% американцев в основном доверяют информации, сгенерированной чат-ботами, и не перепроверяют их ответы. И 9% жителей США, по данным исследовательского центра Pew Research Center, читают новости с помощью ИИ-сервисов.
Правительства используют эффективность слопаганды в своих интересах. Как утверждает профессор Калифорнийского университета в Беркли Хани Фарид, раньше СМИ легко вычисляли и опровергали вручную созданные фейки. „

Теперь же реалистичных пропагандистских фотографий и видео стало настолько много, что журналисты уже не успевают опровергать каждый отдельный фейк.
Ситуацию осложняет и то, что с помощью ИИ нередко редактируют фрагменты настоящих видео, чтобы ввести зрителей в заблуждение, — например, увеличивают радиус и мощность взрывов от авиаударов или дронов.
Другой важный «плюс» слопаганды — ее массовость и доступность. Правдоподобные фейковые видео создаются в кратчайшие сроки и быстро распространяются с помощью ботов и доверчивых людей. Государства этим пользуются, чтобы скрыть от публики достоверную информацию во время военных конфликтов. Кроме того, в 2026 году обычным пользователям, корпорациям и государствам доступно как никогда много нейросетей и ИИ-сервисов, позволяющих генерировать контент за низкую стоимость.
«Ежедневно создаются сотни тысяч часов видео — как с помощью обычных камер, так и с искусственным интеллектом, — и это просто огромный объем данных, с которым приходится иметь дело. Это, безусловно, замутняет и запутывает нашу информационную среду, затрудняя понимание происходящего и подрывая доверие к происходящему», — рассказал профессор визуальной коммуникации ТиДжей Томсон в комментарии изданию ABC News.
Особенно активно слопаганду применяет Иран. По данным аналитического агентства Cyabra, страна за две недели вооруженного конфликта с США и Израилем задействовала десятки тысяч ботов в соцсетях, публиковавших фейковые ИИ-ролики о достижениях иранской армии. В частности, многие ролики показывали, как иранские ракеты и дроны уничтожали военные объекты и достопримечательности стран Персидского залива вроде ОАЭ и Катара. Такие видео набрали более 145 миллионов просмотров в TikTok, X, YouTube и других соцсетях.
Иран с помощью слопаганды не только добивается усиления паники в регионе, но и пытается убедить зрителей из других стран в том, что ее армия куда сильнее, чем показывают в официальных новостях.
«Использование ИИ-кадров, на которых запечатлены горящие или разрушенные места в Персидском заливе, приобретает все большее значение в стратегии Ирана. Это позволяет стране создать впечатление, что эта война является более разрушительной и, возможно, более дорогостоящей для союзников Америки», — рассказал в комментарии The New York Times доцент Северо-западного университета Катара Марк Джонс.
В обзоре искусственного интеллекта Google ложно утверждается, что сгенерированное ИИ видео иранских ракет, поражающих Тель-Авив, является подлинным. Фото: cкриншот с сайта NewsGuard.

Слопаганда особенно сильна тем, что ИИ-сервисы пока плохо распознают фейки. Например, система Google AI Overviews, дающая краткое саммари по запросу в поисковике, назвала сгенерированные Ираном кадры уничтоженных зданий настоящими. Часто ошибается и чат-бот Grok от соцсети X, принадлежащей Илону Маску. Нейросеть посчитала посты о разрушениях в Тель-Авиве правдивыми и сослалась на несуществующие материалы Reuters, CNN и Euronews.
Пока технологические корпорации не справляются с усилением слопаганды. Единственная компания, обещавшая наказывать пользователей за публикации ИИ-видео без указания источника, — та же X. Представители остальных сервисов вроде Facebook, Instagram и TikTok еще не предприняли никаких действий.
В обзоре искусственного интеллекта Google ложно утверждается, что на изображении с использованием искусственного интеллекта виден «мощный пожар» в посольстве США в Эр-Рияде. Фото: cкриншот с сайта NewsGuard.

Как Россия использует слопаганду во время войны?
Российские пропагандисты распространяют фейки еще с начала вторжения в Украину в 2022 году. Например, представители СНБО заявляли, что РФ с помощью профессиональных студий создает видео с актерами, изображающих украинских военных. Такие ролики снимали в вертикальном формате с помощью дешевых телефонов, чтобы усилить эффект правдоподобности. Также российские бот-фермы в начале вторжения публиковали в TikTok ролики с кадрами из видеоигр и видео времен предыдущих военных конфликтов.
Кадр из видео игры в страйкбол. Видео преподносилось как якобы снятое на войне в Украине. Фото: bbc.com / TikTok.

Но с ростом популярности ИИ-сервисов Россия изменила стратегию и стала публиковать два типа коротких роликов. В первом показывают низкокачественные анимации с нереалистично выглядящими людьми — например, в январе 2026 года опубликовали десятки роликов с тучными людьми в украинской военной форме, которые жаловались на нехватку продовольствия. Как отмечает «РБК-Украина», такие видео подаются как сатира и направлены на деморализацию населения и военнослужащих.
Второй тип нейрофейков куда опаснее — это правдоподобные видео с высокой детализацией, которые можно по невнимательности принять за настоящие. Среди них, скажем, ролики, где украинские военные массово сдаются российской армии или отступают из осажденных городов в Донецкой области.
Заметить признаки генерации в них крайне сложно, так как подобный контент создается с помощью Sora 2 от OpenAI, создавшей ChatGPT. Sora 2 создает правдодобно выглядящих людей и соответствующий картинке звуковой ряд, в том числе и голоса. Несоответствия можно заметить лишь в мелких деталях — визуальных артефактах, в одежде или пропадающих мелких объектах в кадре.
Российская пропаганда использовала Sora 2 для создания фейковых тиктоков с плачущими украинскими солдатами. Так, в одном из роликов показывается молодой парень, утверждающий, что его насильно мобилизовали и отправили воевать в Часов Яр. При этом в видео использовались лица известных российских стримеров — среди них Владимир Буянов под ником Kussia88 и Алексей Губанов, более известный как JesusAVGN.
Слопаганду в соцсетях регулярно публикуют специализированные российские аккаунты с нейтральными названиями, не указывающими на их происхождение, — например, flight_area_zone. Существуют даже целые нейросетевые сайты, связанные с Россией и мимикрирующие под американские новостные издания, — об одном из них написали научную статью ученые из Цюрихского и Клемсконского университета.
Россия также публикует англоязычную слопаганду. Ролик, в котором профессор лондонского Королевского колледжа Алан Рид якобы критиковал Эммануэля Макрона и разоблачал западную цивилизацию, успел набрать популярность в соцсетях, пока на него не обратил внимание сам Рид. Также в TikTok сотни тысяч просмотров набрали нейросетевые видео, на которых польские граждане требовали выхода своей страны из Евросоюза.
Пока что подобные ролики легко разоблачаются журналистами и комментаторами. Но пропаганда РФ проникает всё глубже: в январе нейросети ChatGPT, Copilot, Claude и Gemini в 33% случаев ссылались в своих ответах на вопросы о причинах войны в Украине на информацию, распространяемую российскими властями. Как выяснило аналитическое агентство Newsguard, Кремль еще в 2024 году создал целую сеть по дезинформации под названием «Правда». Боты сети, по оценкам агентства, опубликовали более 3,6 миллиона сгенерированных новостных статей, продвигавших российскую пропаганду.
***
Слопаганда, судя по всему, с нами надолго. Нейросети все лучше справляются с созданием правдоподобных изображений видео — например, Neo Banana от Google показывает даже более впечатляющие результаты, чем Sora. А текстовые чат-боты помогают правительствам быстрее и массовее распространять фейки в соцсетях. „

Нейросети окончательно превратились в инструмент войны, а их создатели как минимум косвенно влияют на исход конфликтов.
Так, недавно Иран заявил, что считает дата-центры Nvidia, Google, Microsoft, IBM и Oracle в Израиле и странах Ближнего Востока легитимными целями для ракетных ударов и дроновых атак.
Из-за роста популярности нейросетей обычным людям все труднее доверять достоверной информации — многие пользователи во всем видят подвох или предпочитают не читать новости. Политические дискуссии и вовсе превратились в обсуждение того, что сгенерировано нейросетями, а что нет. Скажем, в недавнем выступлении израильского премьер-министра Биньямина Нетаньяху пользователи соцсети X увидели признаки генерации ИИ вроде шести пальцев на руках политика.
Кадр из выступлении израильского премьер-министра Биньямина Нетаньяху. Фото: соцсети / X / AustraliaFirstOnly.

Пока же можно сделать вывод, что корпорации практически не мешают распространению слопаганды, а правительства разных стран видят в нейросетях исключительно выгоду.
❌