Обычный вид

Зайцев нет, свободы тоже. Россияне ищут песни без цензуры на Zaycev.net. Правда, некогда главный сервис для скачивания музыки в рунете стал бледной копией самого себя


16 апреля в музыкальном разделе российского App Store на первое место внезапно вырвалось приложение Zaycev.net — культового российского сайта нулевых, на котором миллионы людей скачивали пиратскую музыку. Внезапный рост загрузок случился и в Google Play, где сервис занял семнадцатое место по скачиваниям. Музыкальное издание The Flow связывает популярность сервиса с возможностью слушать музыку без цензуры. С недавних пор в официальных стримингах вроде «Яндекс Музыки» и «VK Музыке» удаляют все песни с упоминанием наркотиков. Под удар, например, попали треки многих популярных рэперов. Их либо удаляют из музыкальных сервисов, либо редактируют, запикивая запрещенные слова. Zaycev.net вряд ли сохранит статус прибежища для тех, кто не согласен с российской цензурой. Во многом потому, что этот сервис подвергался давлению властей еще задолго до войны в Украине. А его история показывает, как рунет пришел к нынешнему состоянию.
Иллюстрация: «Новая Газета Европа».

Мечта о свободном музыкальном сервисе
Zaycev.net начал работать в 2004 году. Представители сервиса вспоминают, что они начинали путь как андеграундный музыкальный сайт, с которого пользователи могли скачивать музыку в формате mp3. В нулевые возможность скачивать любые песни онлайн была особенно ценной: многие люди слушали музыку на компьютере или на специализированных плеерах вроде iPod или Sony Walkman. Zaycev.net позволял пополнять медиатеку бесплатно, без оцифровывания купленных CD-дисков или кассет.
Других удобных сайтов для скачивания музыки на тот момент просто не было. iTunes Store открылся годом ранее, но песни и альбомы там можно было покупать только с помощью американской кредитной карты. К тому же вся легальная музыка была защищена технологией DRM, не позволявшей копировать песни на большое количество устройств. Известный во всем мире сервис Napster, позволявший делиться музыкальными файлами, закрылся в 2001 году из-за исков о нарушении авторских прав.
Zaycev.net же не имел подобных проблем — и всё благодаря вседозволенности в рунете. Легальные музыкальные сервисы тогда не работали в России, а правообладатели пока не обращали внимания на интернет. Пиратство в стране не просто процветало, а фактически доминировало. В поисковике можно было ввести любую интересовавшую песню и с большой долей вероятности найти ее именно на Zaycev.net.
Так к 2005 году сайт вырос в полноценную соцсеть для ценителей музыки. У сервиса появились логотип с зайцем в наушниках, слоган «Зайцев нет, но есть MP3» и баннеры с рекламой сомнительных товаров для увеличения половых органов. А еще добавили форум с обсуждением хитовых песен, онлайн-чат для всех желающих и раздел с футболками.
Сайт, по словам основателя Артёма Бигильдеева, развивался за счет активных пользователей, которые загружали туда тысячи песен. „
В 2005 году их было около 500 тысяч, через два года — более миллиона, а к 2012 году — 3 млн.
Администрация редко вмешивалась в работу пользователей и лишь изредка проводила чистку, удаляя дубликаты уже существовавших песен. В этом ей помогали сами пользователи — по сути, Zaycev.net с самого начала находился на самоуправлении.
А ведь песни были самые разные. Если зайти в интернет-архив Wayback Machine и посмотреть на скриншоты сайта в разные годы, можно увидеть чуть ли не все жанры, которые были интересны русскоязычным пользователям. В 2006 году, например, в топе сайта находились песни из саундтрека фильма «Тройной Форсаж: Токийский дрифт», занявший второе место на «Евровидении» трек Never Let You Go Димы Билана, клубный ремикс Firestarter от The Prodigy и блатной хит «О том, как женщины ходили жаловаться к богу». Аудитория Zaycev.net тоже была разношерстной: если в любой момент зайти на главную страницу и загрузить все песни топ-чарта, то плейлист получится максимально пестрым.
Zaycev.net в 2008 году. Источник: Wayback Machine.

Безуспешная борьба за место под солнцем
Zaycev.net долгие годы оставался главным музыкальным сайтом рунета. По популярности ему уступали и другие пиратские сайты, и первые легальные сервисы вроде «Яндекс Музыки». На Zaycev.net появилась возможность не только скачивать музыку, но и слушать ее онлайн — так что у многих пользователей не было необходимости переходить из любимого сервиса куда-то еще. Хоть какую-то конкуренцию составлял разве что «ВКонтакте»: соцсеть Павла Дурова первые годы тоже позволяла загружать и скачивать музыку без ограничений.
Всё изменилось к 2010 году, когда Zaycev.net решил подстроиться под правообладателей, легализоваться и заключить контракты с российскими и зарубежными музыкальными лейблами. Сайт и раньше удалял отдельные песни по требованию лейблов. Артём Бигильдеев рассказывал, что легализация была необходима для расширения бизнеса и возобновления контрактов с рекламодателями. К тому же Google пометил сайт как пиратский и перестал показывать его в поисковой выдаче — это тоже повлияло на приток новых посетителей.
Zaycev.net в 2017 году. Источник: Wayback Machine.

Это не помогло, так как правообладатели хотели добиться одного: лишить пользователей возможности загружать музыку. Сайту постоянно угрожали блокировкой и судебными разбирательствами о нарушении авторских прав: например, свои претензии высказывала команда музыканта Сергея Шнурова.
В 2021 году руководители Zaycev.net пошли на беспрецедентный шаг и полностью изменили политику сервиса, запретив выкладывать пользовательскую музыку. „
На сайте осталась только малая часть песен, с которыми не было никаких юридических проблем, — всего 200 тысяч треков из 10 миллионов.
К тому моменту история с Zaycev.net осталась по большей части незамеченной. В рунете уже вовсю доминировали легальные музыкальные стриминговые сервисы, такие как «VK Музыка» (в экосистеме «ВКонтакте») и «Яндекс Музыка» (в экосистеме, соответственно, «Яндекса»).
Да и зарубежных конкурентов хватало: и Apple Music, и YouTube Music, и пришедший позже Spotify. Сейчас пользоваться этими сервисами затруднительно: покупать подписку приходится обходными путями через карты оплаты или посредников на торговых площадках. Формально Apple Music продолжает работать в России, но там тоже цензурируются некоторые песни, например, нельзя послушать восемь треков Noize MC.
Жизнь в капкане
Нынешний Zaycev.net не имеет ничего общего с тем самым Zaycev.net, предлагавшим пользователям огромный каталог нелицензионной музыки. В топ-чартах размещаются песни исполнителей, популярные в TikTok и российском радио: например, Ваня Дмитриенко, Мия Бойка, Betsy и, конечно, бессменные Тимати, «Любэ» и Баста. „
Все песни действительно можно слушать бесплатно. Но для скачивания придется оформлять платную подписку за 99 рублей в месяц. Или посмотреть рекламу — тогда можно скачать три трека в день.
Но делать это, откровенно говоря, незачем. У сервиса нет ни эксклюзивов, ни многих новых зарубежных песен.
Популярность Zaycev.net взлетела во многом благодаря сообщениям в соцсетях о «полном отсутствии цензуры в музыке», но подтверждение этому найти сложно. Взять хоть песни «иноагентов»: например, можно послушать песни Монеточки, но их нельзя скачать, профилей нет ни у Noize MC, ни у Face. На странице Васи Обломова доступна лишь одна его песня «С чего начинается Родина». Да и треки без цензуры не послушаешь: многие песни Славы КПСС — рэпера без «иноагентского статуса», но с зачищенными от упоминания наркотиков треками, — удалены, так что на сайте остались только его коллаборации с другими исполнителями. Кроме того, нет и песен рэпера Pharaoh — на сайте даже отсутствует страничка с его музыкой.
Урезанная библиотека Zaycev.net отражает нынешнюю политику российских властей: слушать можно только ту музыку, которую они признают допустимой. В итоге разрешены лишь русскоязычные песни без нежелательных авторов и какого-либо спорного содержания. И это уже не говоря о заметных пробелах в иностранном каталоге.
А ведь ситуация могла быть другой. Например, под давлением российских властей не сломался самый популярный торрент-сайт Rutracker, который продолжает работать без ограничений с включенным VPN или прокси. Он тоже пытался соблюдать правила игры в российском законодательстве, удаляя книги по требованию правообладателей, но решил после блокировки уйти в подполье и развиваться самостоятельно. То же самое случилось с книжным сайтом Flibusta, куда пользователи загружают миллионы нелегальных книг. Сейчас это основной ресурс для тех, кто хочет читать книги без цензуры и не имеет в библиотеке бумажные версии любимых романов.
Zaycev.net наверняка мог бы работать на пожертвования преданной аудитории и развиваться силами активных пользователей, как это было в середине нулевых. Но, к сожалению, в нынешнем рунете нет не только зайцев, но и идеалистов с мечтами о свободном интернете без ограничений.

Год с Max. Россиян всеми силами пытаются загнать в «национальный мессенджер» — и сделать так, чтобы жить без него было сложно


26 марта 2025 года вышла публичная версия MAX — национального российского мессенджера, который позиционируют как полноценную замену Telegram. В MAX нет сквозного шифрования, приватности и даже возможности создать собственные публичные каналы. А еще его легко взломать — за это сервис даже критиковала ФСБ. Это не помешало российским властям в короткие сроки развернуть масштабную рекламную кампанию по продвижению мессенджера. В стране заодно заблокировали Telegram и WhatsApp, а также ввели «белые списки» интернет-сайтов для мобильной связи в Москве и других городах. «Новая-Европа» кратко рассказывает, что сейчас происходит с MAX: кого и как заставляют пользоваться мессенджером, что без него невозможно делать, какова реальная аудитория сервиса и какие функции в нем планируются.
Фото: Sebastien Bozon / AFP / Scanpix / LETA.

Как россиян загоняют в MAX? И успешно ли?
Мессенджер позиционируют не как возможную альтернативу Telegram, а как обязательное приложение для учебы, работы и бытовой жизни, наравне с «Госуслугами». К концу 2025 года принудительный переход в мессенджер стал по-настоящему массовым.
В основном на MAX заставляют переходить школьников, студентов и бюджетников: врачей и учителей, чиновников и работников госучреждений. Так, 11 марта министр просвещения Сергей Кравцов отчитался, что все российские школы уже перешли на национальный мессенджер и ведут свои чаты только там, а всего сервисом якобы пользуются более 20 млн учителей и учеников. Подтверждения этим данным нет. „
Многие россияне, насколько это возможно, выражают недовольство мессенджером. По данным опроса сайта «Врачи РФ», 70% работников медучреждений выступают против внедрения MAX в систему здравоохранения. По подсчетам технического издания kod.ru, только 17% опрошенных читателей сайта планируют читать новости в MAX — 87% людей хотят и дальше использовать Telegram с помощью VPN. Школьники и студенты колледжей и университетов часто отказываются переходить на MAX
и пересылают всю учебную информацию через другие сервисы, а обучающиеся Тюменского государственного университета даже создали петицию против принудительного использования мессенджера для доступа к университетскому вайфаю. По данным опроса центра «Русское поле», 61% школьников Свердловской области отказались устанавливать MAX, а те, кто это все же сделал, проводят в мессенджере менее часа в день. Тренер сборной России по футболу Валерий Карпин заявил, что не планирует заводить канал для команды в MAX и предпочитает «общаться по старинке».
Фото: Дмитрий Ловецкий / AP / Scanpix / LETA.

Тем не менее власти ищут другие способы заставить россиян перейти с иностранных мессенджеров на национальный MAX. Один из таких способов — запрет на создание и ведение домовых чатов в Telegram. В декабре 2025-го такой закон подписал Путин. Теперь представители управляющих компаний и фондов капремонта обязаны общаться с жителями исключительно через MAX. При несоблюдении компании должны будут платить штрафы. Переход станет обязательным с 1 сентября 2026 года.
С сентября 2025-го чиновников тоже заставят использовать MAX в рабочих целях. Но источники Forbes сомневаются в том, что госслужащие будут активно пользоваться мессенджером, так как за это не предусмотрено ответственности — по крайней мере пока. „
Журналистка Фарида Рустамова рассказала, что российские чиновники не доверяют MAX и покупают для него отдельные телефоны и сим-карты.
Мессенджером всё ещё, судя по всему, не пользуется пресс-секретарь президента Дмитрий Песков, хотя там уже зарегистрировались представитель МИД РФ Мария Захарова, министр обороны Андрей Белоусов и министр финансов Антон Силуанов. Ранее Песков заявил, что Кремлю «негде доносить смыслы», кроме Telegram, и отметил, что MAX не помешала бы конкуренция.
По подсчетам издания «Агентство», менее половины депутатов Госдумы с каналами в Telegram завели каналы в MAX — всего 135 человек. В национальный мессенджер, например, не перешли Владислав Даванков из «Новых людей», Андрей Луговой из ЛДПР, Нина Останина из КПРФ и Сайгидпаша Умаханов из «Единой России». В регионах ситуация другая: скажем, правительство Иркутской области перестало выкладывать новости в телеграм-канале. Губернатор Игорь Кобзев призвал использовать другие каналы коммуникации, в том числе на «Одноклассниках» и MAX.
Российских военных, похоже, пока не заставляют переходить в MAX. На фронте мессенджером не советуют пользоваться, так как он «недостаточно безопасный». Но российские власти явно намерены полностью заблокировать Telegram и в зоне боевых действий. Стань со-участником «Новой газеты» Стань соучастником «Новой газеты», подпишись на рассылку и получай письма от редакции Подписаться
Что уже не сделать без MAX?
За год в мессенджер добавили полноценную интеграцию с «Госуслугами», а Минцифры РФ разрешило подтверждать запросы и проверять возраст через MAX, приравняв его к бумажному паспорту. Тестовый запуск уже прошел в сети магазинов «Пятерочка» и «Перекресток» — вероятно, идентификацию внедрят и в другие продуктовые магазины. Также через MAX уже можно подтверждать наличие льгот для скидки пенсионерам и закрывать больничные листы.
Но у проверки на возраст хотя бы есть альтернативы — например, можно просто показать паспорт. А с конца 2025 года многим россиянам заблокировали вход в мобильное приложение «Госуслуг» — это случается, если не выключить VPN перед использованием сервиса или при установке приложения на новый iPhone. Для входа сайт требует идентификацию через MAX. Ограничение можно обойти, только если входить через компьютер с помощью биометрии или приложений для одноразовых кодов.
Также с 1 июня 2025 года через российский мессенджер переписку с клиентами ведут сотрудники банков и операторов связи: иностранными приложениями им пользоваться уже запрещено. Принудительно на MAX переводят и жителей регионов — среди них Белгородская область. Из-за неработающих пуш-уведомлений о воздушных атаках граждане вынуждены самостоятельно заходить в каналы оповещения в мессенджере.
Через MAX хотят заставить подтверждать «значимые» банковские операции — среди них, например, крупные переводы. Но против идеи выступили крупные банки, посчитавшие идею чрезмерной, а Центробанк посчитал инициативу «преждевременной».
Это не значит, что мессенджер не продолжат интегрировать с государственной системой. Минтруд РФ уже разработал законопроект об обязательном использовании MAX при заключении трудовых договоров и предоставлении справок во всех российских компаниях. Он должен вступить в силу с 1 сентября 2026 года.
Кто сидит в MAX? Что там происходит на самом деле?
Все каналы и чаты мессенджера активно отслеживаются модераторами. Пророссийский блогер Анатолий Шарий сообщил, что 24 марта MAX удалил более 20 тысяч публичных чатов, в которых россияне продавали вещи. По его словам, чаты были безобидными, а мессенджер заблокировал даже бизнес-аккаунт маленького салона, который уже не может отвечать клиентам и вести полноценную запись. Также MAX не только удаляет контент, но и отправляет информацию о пользователях государственным службам. Например, суд в Краснодарском крае оштрафовал жителя Ивана Кажана за фотографию с татуировкой с символикой «АУЕ», запрещенной в России.
Процедура подтверждения возраста покупателя с помощью «Цифрового ID» через мессенджер Max в супермаркете «Ашан». Фото: Светлана Нафикова / АГН «Москва».

Каналы в MAX тоже находятся под пристальным наблюдением. 24 марта мессенджер, например, заблокировал видеоигровой канал «КБ Игры» без объяснения причин, но позже восстановил его — и снова без комментариев. Еще один канал безвозвратно удалили из-за фотографий откровенного содержания, но ничего запрещенного там не было. Издание Digital Report предполагает, что сообщества могли быть заблокированы из-за автоматизированных алгоритмов, которые по ошибке посчитали фотографии порнографией. По политике самого мессенджера сервис перед удалением должен направлять каналу требование удалить контент, нарушающий правила.
Кроме того, использовать MAX даже в личной переписке без ведения каналов и публикации сообщений небезопасно. Пользователи соцсети «Пикабу» заявили, что некоторые фото из чатов в MAX можно найти в открытом доступе без авторизации — у них закрепляется статичная гиперссылка, которую можно ввести в любом браузере и увидеть содержимое. А ещё MAX подписывает пользователей на Z-каналы и не дает возможности отписаться от них — среди них каналы Владимира Соловьева и армии России.
«ВКонтакте» в пресс-релизе отмечает, что за год в MAX зарегистрировались более 107 миллионов пользователей. Так ли это на самом деле, сказать трудно. „
По подсчетам «Агентства», примерно 70% каналов MAX принадлежат госструктурам или связанным с властями компаниям. В основном это муниципальные власти, школы, детсады, администрации и управляющие компании. В среднем один госканал читают всего 220 подписчиков.
Телеграм-канал «ЕЖ Лаб» заявляет, что, несмотря на давление властей, в MAX зарегистрированы всего 196 тысяч публичных каналов — по сравнению с 1,7 миллиона каналов в Telegram. Кроме того, по данным «Коммерсанта», из топ-30 самых популярных каналов Telegram в национальный мессенджер перешло менее половины, аудитория MAX примерно в 60 раз меньше, чем у сервиса Дурова.
По данным издания «Можем объяснить», аудитория Z-каналов при этом практически не растет даже на фоне блокировок и введения «белых списков». Например, у провластного блогера Юрия Подоляки 800 тысяч подписчиков в MAX и 2,8 миллиона в Telegram. Сколько из них составляют боты, неизвестно.
Фото: Василий Кузьмичёнок / АГН «Москва».

Вероятно, власти в курсе сравнительно невысокой популярности MAX в России. Госучреждения и государственные компании с осени 2025 года потратили более 66 миллионов рублей на рекламу в MAX, но в тендерах указывают, что публиковать посты нужно и в Telegram.
Как развивается MAX?
19 марта MAX получил в Роскомнадзоре официальный статус социальной сети. Ведомство объясняет, что это позволит владельцам каналов подавать официальные жалобы на «двойников» и подтверждать подлинность источников. Одновременно с этим в сервисе появились приватные каналы, которые нельзя найти в поиске. Но публичные каналы всё еще могут создавать только юридические лица, индивидуальные предприниматели и владельцы каналов Telegram с более чем 10 тысячами подписчиков.
Незадолго до этого в сервисе появился «безопасный» режим — функция, скрывающая посты и каналы, которые мессенджер посчитал небезопасными. Алгоритмы в «безопасном» режиме не показывают пользователям каналы многих Z-пропагандистов и спикера Совета Федерации Валентины Матвиенко, но канал Минобороны и некоторых военкоров вроде Анастасии Кашеваровой сервис скрывать не стал.
Как утверждает сервис VPN Liberty, в MAX сейчас встроен управляемый бэкдор, то есть сотрудники сервиса могут удаленно менять приложение в смартфоне. Кроме того, в мессенджере есть шпионский модуль, проверяющий подключение к VPN, — он соединяется с WhatsApp и Telegram, чтобы понять, обходит ли телефон ограничения Роскомнадзора.
Фото: Василий Кузьмичёнок / АГН «Москва».

Сейчас у MAX, судя по всему, нет внятного плана развития. Издание Hi-Tech Mail.ru, связанное с «ВКонтакте», утверждает, что мессенджер могут превратить в суперприложение вроде WeChat: в нем должна быть собственная платежная система, маркетплейс, интеграции с сервисами такси и встроенный стриминговый сервис для музыки и видео. В будущем в MAX могут внедрить уведомления о банковских операциях, а глава Верховного Суда Игорь Краснов хочет интегрировать MAX в судопроизводство — например, чтобы граждане получали судебную корреспонденцию в мессенджере.
Внедрят ли эти функции в будущем, неясно. Телеграм-канал «Время закупок» со ссылкой на свои источники заявляет, что у MAX ограничены возможности для развития из-за закона о хранении персональных данных. Все сотрудники переключены на работу с хранением переписок и звонков, а потому у компании нет «лишних рук», чтобы внедрять что-то еще.

МинИИстерство пропаганды. США, Иран и Россия используют в информационных войнах нейросетевые видео. Так еще легче подорвать доверие к реальным новостям


Всего несколько лет назад нейросети с трудом генерировали видео на несколько секунд со знаменитостями, поедающими спагетти, а теперь они массово используются правительствами разных стран для информационных войн. ИИ-сервисы не только помогают определять цели для авиаударов и симулировать боевые действия, но и вводят в заблуждение миллионы людей. Если раньше на это требовались усилия многомиллионных бот-ферм и огромные бюджеты, сейчас достаточно написать простой промпт для генерации нужной картинки или видео и опубликовать его в соцсетях, надеясь на продвижение с помощью алгоритмов. Пропагандистских фейков, сгенерированных с помощью ИИ, не счесть. С их помощью Израиль и ХАМАС обвиняли друг друга в массовых убийствах детей, Иран создает ненастоящие фотографии с новым верховным лидером страны, а в соцсети X публикуют ролики, где американские ВВС якобы бомбят правительственные здания в Тегеране. «Новая-Европа» рассказывает, чем опасна ИИ-пропаганда, почему ее стали чаще использовать правительства разных стран и каково будущее этих технологий.
Москва, 5 марта 2026 года. Фото: Ярослав Чингаев / Агентство «Москва».

Что такое слопаганда и зачем она нужна правительствам?
Пропагандистские фейковые видео, созданные с помощью ИИ, в соцсетях называют слопагандой — от английского слова slop, означающего мусор или помои. С 2024 года нейрослопом называли любые низкокачественные нейровидео, но термин слопаганда появился относительно недавно — примерно в 2025 году.
Слопаганде уже посвящают научные работы. Так, специализирующиеся на ИИ-этике ученые Михал Клинцевич, Марк Алфано и Амир Фард из университетов Нидерландов и Австралии утверждают, что слопаганда отличается от традиционной фейковой пропаганды своими масштабами и возможностью влиять на самую широкую аудиторию. Нейросети позволяют создавать множество новостных сайтов, распространяющих дезинформацию на региональном уровне, — например, нацеленные на жителей конкретных провинций европейских стран или американских штатов. Многие пользователи по умолчанию доверяют «локальным» сайтам больше, чем федеральным или международным, — и могут легко стать жертвами слопаганды.
Сгенерированные нейросетями фотографии или видео могут быть крайне убедительными. В исследовании 2024 года, проведенном учеными Стэнфордского университета, выяснилось, что пропагандистским материалам, созданным с помощью актуальной на тот момент ChatGPT-3, верили около 43,5% респондентов. 40% участников эксперимента, проведенного учеными Чикагского университета в том же 2024-м, смогли верно распознать ИИ-изображения.
Результаты различаются в зависимости от состава участников. Финские исследователи из Оулуского университета пришли к выводу, что большинство молодых жителей страны в состоянии распознать фейковые видео. В то же время людям пожилого возраста сделать это гораздо сложнее — по крайней мере, такую информацию приводят сингапурские ученые из Наньянского технологического университета.
По опросам 2025 года стало известно, что около 25% американцев в основном доверяют информации, сгенерированной чат-ботами, и не перепроверяют их ответы. И 9% жителей США, по данным исследовательского центра Pew Research Center, читают новости с помощью ИИ-сервисов.
Правительства используют эффективность слопаганды в своих интересах. Как утверждает профессор Калифорнийского университета в Беркли Хани Фарид, раньше СМИ легко вычисляли и опровергали вручную созданные фейки. „
Теперь же реалистичных пропагандистских фотографий и видео стало настолько много, что журналисты уже не успевают опровергать каждый отдельный фейк.
Ситуацию осложняет и то, что с помощью ИИ нередко редактируют фрагменты настоящих видео, чтобы ввести зрителей в заблуждение, — например, увеличивают радиус и мощность взрывов от авиаударов или дронов.
Другой важный «плюс» слопаганды — ее массовость и доступность. Правдоподобные фейковые видео создаются в кратчайшие сроки и быстро распространяются с помощью ботов и доверчивых людей. Государства этим пользуются, чтобы скрыть от публики достоверную информацию во время военных конфликтов. Кроме того, в 2026 году обычным пользователям, корпорациям и государствам доступно как никогда много нейросетей и ИИ-сервисов, позволяющих генерировать контент за низкую стоимость.
«Ежедневно создаются сотни тысяч часов видео — как с помощью обычных камер, так и с искусственным интеллектом, — и это просто огромный объем данных, с которым приходится иметь дело. Это, безусловно, замутняет и запутывает нашу информационную среду, затрудняя понимание происходящего и подрывая доверие к происходящему», — рассказал профессор визуальной коммуникации ТиДжей Томсон в комментарии изданию ABC News.
Особенно активно слопаганду применяет Иран. По данным аналитического агентства Cyabra, страна за две недели вооруженного конфликта с США и Израилем задействовала десятки тысяч ботов в соцсетях, публиковавших фейковые ИИ-ролики о достижениях иранской армии. В частности, многие ролики показывали, как иранские ракеты и дроны уничтожали военные объекты и достопримечательности стран Персидского залива вроде ОАЭ и Катара. Такие видео набрали более 145 миллионов просмотров в TikTok, X, YouTube и других соцсетях.
Иран с помощью слопаганды не только добивается усиления паники в регионе, но и пытается убедить зрителей из других стран в том, что ее армия куда сильнее, чем показывают в официальных новостях.
«Использование ИИ-кадров, на которых запечатлены горящие или разрушенные места в Персидском заливе, приобретает все большее значение в стратегии Ирана. Это позволяет стране создать впечатление, что эта война является более разрушительной и, возможно, более дорогостоящей для союзников Америки», — рассказал в комментарии The New York Times доцент Северо-западного университета Катара Марк Джонс.
В обзоре искусственного интеллекта Google ложно утверждается, что сгенерированное ИИ видео иранских ракет, поражающих Тель-Авив, является подлинным. Фото: cкриншот с сайта NewsGuard.

Слопаганда особенно сильна тем, что ИИ-сервисы пока плохо распознают фейки. Например, система Google AI Overviews, дающая краткое саммари по запросу в поисковике, назвала сгенерированные Ираном кадры уничтоженных зданий настоящими. Часто ошибается и чат-бот Grok от соцсети X, принадлежащей Илону Маску. Нейросеть посчитала посты о разрушениях в Тель-Авиве правдивыми и сослалась на несуществующие материалы Reuters, CNN и Euronews.
Пока технологические корпорации не справляются с усилением слопаганды. Единственная компания, обещавшая наказывать пользователей за публикации ИИ-видео без указания источника, — та же X. Представители остальных сервисов вроде Facebook, Instagram и TikTok еще не предприняли никаких действий.
В обзоре искусственного интеллекта Google ложно утверждается, что на изображении с использованием искусственного интеллекта виден «мощный пожар» в посольстве США в Эр-Рияде. Фото: cкриншот с сайта NewsGuard.

Как Россия использует слопаганду во время войны?
Российские пропагандисты распространяют фейки еще с начала вторжения в Украину в 2022 году. Например, представители СНБО заявляли, что РФ с помощью профессиональных студий создает видео с актерами, изображающих украинских военных. Такие ролики снимали в вертикальном формате с помощью дешевых телефонов, чтобы усилить эффект правдоподобности. Также российские бот-фермы в начале вторжения публиковали в TikTok ролики с кадрами из видеоигр и видео времен предыдущих военных конфликтов.
Кадр из видео игры в страйкбол. Видео преподносилось как якобы снятое на войне в Украине. Фото: bbc.com / TikTok.

Но с ростом популярности ИИ-сервисов Россия изменила стратегию и стала публиковать два типа коротких роликов. В первом показывают низкокачественные анимации с нереалистично выглядящими людьми — например, в январе 2026 года опубликовали десятки роликов с тучными людьми в украинской военной форме, которые жаловались на нехватку продовольствия. Как отмечает «РБК-Украина», такие видео подаются как сатира и направлены на деморализацию населения и военнослужащих.
Второй тип нейрофейков куда опаснее — это правдоподобные видео с высокой детализацией, которые можно по невнимательности принять за настоящие. Среди них, скажем, ролики, где украинские военные массово сдаются российской армии или отступают из осажденных городов в Донецкой области.
Заметить признаки генерации в них крайне сложно, так как подобный контент создается с помощью Sora 2 от OpenAI, создавшей ChatGPT. Sora 2 создает правдодобно выглядящих людей и соответствующий картинке звуковой ряд, в том числе и голоса. Несоответствия можно заметить лишь в мелких деталях — визуальных артефактах, в одежде или пропадающих мелких объектах в кадре.
Российская пропаганда использовала Sora 2 для создания фейковых тиктоков с плачущими украинскими солдатами. Так, в одном из роликов показывается молодой парень, утверждающий, что его насильно мобилизовали и отправили воевать в Часов Яр. При этом в видео использовались лица известных российских стримеров — среди них Владимир Буянов под ником Kussia88 и Алексей Губанов, более известный как JesusAVGN.
Слопаганду в соцсетях регулярно публикуют специализированные российские аккаунты с нейтральными названиями, не указывающими на их происхождение, — например, flight_area_zone. Существуют даже целые нейросетевые сайты, связанные с Россией и мимикрирующие под американские новостные издания, — об одном из них написали научную статью ученые из Цюрихского и Клемсконского университета.
Россия также публикует англоязычную слопаганду. Ролик, в котором профессор лондонского Королевского колледжа Алан Рид якобы критиковал Эммануэля Макрона и разоблачал западную цивилизацию, успел набрать популярность в соцсетях, пока на него не обратил внимание сам Рид. Также в TikTok сотни тысяч просмотров набрали нейросетевые видео, на которых польские граждане требовали выхода своей страны из Евросоюза.
Пока что подобные ролики легко разоблачаются журналистами и комментаторами. Но пропаганда РФ проникает всё глубже: в январе нейросети ChatGPT, Copilot, Claude и Gemini в 33% случаев ссылались в своих ответах на вопросы о причинах войны в Украине на информацию, распространяемую российскими властями. Как выяснило аналитическое агентство Newsguard, Кремль еще в 2024 году создал целую сеть по дезинформации под названием «Правда». Боты сети, по оценкам агентства, опубликовали более 3,6 миллиона сгенерированных новостных статей, продвигавших российскую пропаганду.
***
Слопаганда, судя по всему, с нами надолго. Нейросети все лучше справляются с созданием правдоподобных изображений видео, а текстовые чат-боты помогают правительствам быстрее и массовее распространять фейки в соцсетях. „
Нейросети окончательно превратились в инструмент войны, а их создатели как минимум косвенно влияют на исход конфликтов.
Так, недавно Иран заявил, что считает дата-центры Nvidia, Google, Microsoft, IBM и Oracle в Израиле и странах Ближнего Востока легитимными целями для ракетных ударов и дроновых атак.
Из-за роста популярности нейросетей обычным людям все труднее доверять достоверной информации — многие пользователи во всем видят подвох или предпочитают не читать новости. Политические дискуссии и вовсе превратились в обсуждение того, что сгенерировано нейросетями, а что нет. Скажем, в недавнем выступлении израильского премьер-министра Биньямина Нетаньяху пользователи соцсети X увидели признаки генерации ИИ вроде шести пальцев на руках политика.
Кадр из выступлении израильского премьер-министра Биньямина Нетаньяху. Фото: соцсети / X / AustraliaFirstOnly.

Пока же можно сделать вывод, что корпорации практически не мешают распространению слопаганды, а правительства разных стран видят в нейросетях исключительно выгоду.

Генерал ИИ. Пентагон использовал Claude для ударов по Ирану и заключил соглашение с создателем ChatGPT. Как нейросети стали важным оружием в современных войнах?


Для планирования ударов по Ирану командование армии США на Ближнем Востоке задействовало чат-бот Claude от компании Anthropic, сообщило издание Wall Street Journal. Это произошло уже после того, как Пентагон поссорился с компанией-создателем ИИ-инструмента, а Дональд Трамп запретил правительственным учреждениям применять его в работе. Более того, в тот же день создатель ChatGPT и главный конкурент Anthropic — компания OpenAI — объявила о начале сотрудничества с Министерством войны США. В 2026 году нейросети выглядят неотъемлемой частью военных конфликтов. «Новая-Европа» рассказывает, как Белый дом и Пентагон усиливают внешние позиции за счет привлечения технологических корпораций и как искусственный интеллект меняет ход современных войн.
Дым над центральными районами Тегерана после очередного авиаудара, Иран, 2 марта 2026 года. Фото: Abedin Taherkenareh / EPA.

Как армия США использует Claude? И почему создатель чат-бота поссорился с американскими властями?
Массовое использование искусственного интеллекта в американской армии продвигает министр войны (обороны) США Пит Хегсет. Именно под его руководством, по данным Wall Street Journal, Пентагон задействовал Claude от Anthropic в похищении президента Венесуэлы Николаса Мадуро.
После этого Anthropic осудила использование Claude Пентагоном, сославшись на внутренние правила: они запрещают применять чат-бот для разработки вооружений, разведки или насильственных действий.
С тех пор компания конфликтует с американским правительством. Так, 28 февраля Хегсет обвинил Anthropic в высокомерии и предательстве и добавил, что «американские военнослужащие никогда не станут заложниками идеологических прихотей крупных технологических корпораций». Еще жестче высказался президент Трамп, назвавший Anthropic «леворадикальной ИИ-компанией, которой управляют люди, не имеющие представления о реальном мире».
Тем не менее, даже несмотря на официальный запрет со стороны Трампа, Пентагон продолжает использовать Claude. Как заявляют источники WSJ, Claude помогал планировать ракетные удары против иранских объектов, анализировал информацию от разведки и проводил симуляции военных действий. Использовалась ли нейросеть и после начала операции, непонятно.
Со стороны может показаться, что конфликт между Anthropic и американским правительством исключительно идеологический и касается только этических норм использования ИИ в военной сфере. Однако это не так: Anthropic еще в июле 2025-го подписала соглашение о сотрудничестве с Пентагоном на 200 миллионов долларов. „
Директор по цифровым технологиям и искусственному интеллекту Министерства войны США Даг Мэтти открыто заявил, что компания разработает ИИ-инструмент, который поможет американской армии получить преимущество над соперничающими державами.
Осенью 2025 года руководство Anthropic выразило обеспокоенность тем, как Белый дом собирается использовать Claude во внешней политике. А источники издания Semafor рассказали, что принципиальная позиция главы компании Дарио Амодеи о том, что применять нейросети в военных целях не следует, раздражает Белый дом.
Также Anthropic запретила ФБР, Секретной службе и другим ведомствам использовать Claude для слежки и получении разведданных, хотя официально предоставляла свои услуги американским ведомствам для «национальной безопасности». Ситуацию усложняет и то, что именно эта нейросеть, по оценкам Semafor, лучше других справляется со сложными военными задачами.
Генеральный директор Anthropic Дарио Амодеи на слушаниях в подкомитете Сената США по судебной системе, Вашингтон, округ Колумбия, 25 июля 2023 года. Фото: Graeme Sloan / Sipa USA / Vida Press.

Пентагон не может одномоментно отказаться от использования Claude, несмотря на требования Трампа и Хегсета. Источники издания Defence One, близкого к руководству армии США, сообщают, что у специалистов Министерства войны слишком многое завязано именно на нейросети Anthropic. На переход в другие сервисы понадобится как минимум несколько месяцев, а отказаться от Claude сейчас Пентагон попросту не может.
Судя по всему, Амодеи вряд ли согласится пойти на уступки администрации Трампа. В своем январском эссе на личном сайте он пояснил, что ИИ полезен и необходим для демократии, но для него есть черта, которую не готов переступить. „
«Мы не можем игнорировать потенциальную возможность злоупотребления этими технологиями со стороны самих демократических правительств»,
заявил глава Anthropic.
После конфликта с Anthropic Пентагон заключил соглашение с OpenAI. ИИ уже на службе армии США?
Американские военные обратили внимание на развитие искусственного интеллекта еще в 2014 году, при администрации Барака Обамы. Тогда Пентагон предупреждал, что в будущем появятся роботизированные виды вооружений, которые смогут самостоятельно выбирать цели для обстрелов и ракетных атак. В 2017-м ведомство забеспокоилось из-за инвестиций Китая в американские ИИ-стартапы: оно стало опасаться возможного влияния КНР на оборону США. А в 2023 году министерство заговорило о необходимости использования ИИ в военных целях — и через год уже использовало собственную нейросеть Maven для авиаударов по Сирии.
Однако Пентагон с самого начала не планировал самостоятельно заниматься разработкой специализированных нейросетей. Еще в марте 2018-го ведомство предложило американским корпорациям сотрудничать в военной сфере, а в августе того же года объявило развитие искусственного интеллекта своим приоритетом.
На место Anthropic Пентагон уже нашел замену — OpenAI с ChatGPT. Компания уже начала внедрять свои нейросети в закрытую военную сеть и договорилась о ключевых принципах сотрудничества. Как рассказал глава OpenAI Сэм Альтман, у ChatGPT для Пентагона есть только два ограничения — запрет на массовую слежку внутри США и использование нейросети для управления оружием массового поражения. По словам Альтмана, Министерство войны согласилось на эти условия, а сама OpenAI хочет, «чтобы у защищающих США людей были лучшие инструменты для защиты».
Пит Хегсет в Белом доме, Вашингтон, 2 марта 2026 года. Фото: Jim Lo Scalzo / EPA.

Другие корпорации, сотрудничающие с министерством, — Google и Microsoft. Первая принимала участие в создании нейросети Maven и подписала контракт о внедрении сервиса Gemini в сеть Пентагона. В феврале 2026 года сотрудники Google из отдела Deepmind отправили письмо своему руководству о недопустимости военного сотрудничества с американским правительством. Microsoft же еще в 2018 году объявил о соглашении с Пентагоном и прописывает военную сферу как одну из ключевых в стратегии развития своего ИИ Copilot. В 2025 году компания уволила инженера Джо Лопеса, открыто выступившего против политики руководства.
Еще один ключевой поставщик услуг для министерства — миллиардер Илон Маск с его компанией xAI, известной по чат-боту Grok. О сотрудничестве Маска с Пентагоном сообщил лично министр войны Пит Хегсет. Grok используют для анализа секретных данных, разработки оружия и симуляции военных операций.
Издание The Washington Post объясняет, что технологические корпорации США вынуждены идти на сотрудничество с Пентагоном из-за нежелания попасть в немилость администрации Трампа. „
Существует риск, что отказ от контракта приведет к политическим преследованиям и финансовым проблемам. Поэтому Илону Маску, Сэму Альтману и главам Google и Microsoft необходимо выставлять себя лояльными патриотами, чтобы не потерять состояние.
Как армии других стран используют нейросети?
Главную угрозу для Вашингтона представляет Китай, который уже в 2025-м признал необходимость внедрения ИИ для национальной и международной безопасности. Главная техническая корпорация страны Tencent, инвестирующая в нейросети DeepSeek и Kimi, уже попала в список Пентагона как компания, создающая нейросети для Министерства национальной обороны КНР. Еще до этого китайские ученые из Национального университета обороны создали первого в мире виртуального командующего войсками, который полностью копирует стратегию настоящих генералов.
При администрации Джо Байдена председатель КНР Си Цзиньпин открыто заявлял о необходимости ограничивать использование ИИ в военной сфере — например, не допускать нейросети к управлению ядерными боеголовками. Изменилась ли его позиция с приходом Трампа, неизвестно.
Другие страны также активно создают ИИ в целях обороны. Так, КНДР уже создала нейросети для кибернетических атак и получения разведданных. Для обороны искусственный интеллект развивают Южная Корея и Япония. Изучает использование ИИ в военных целях и Евросоюз — правда, у него еще нет собственных разработок.
Палестинец укрывается после авиаудара израильских сил в ходе военной операции в Газе, сектор Газа, 27 сентября 2025 года. Фото: Mohammed Saber / EPA.

Дальше всех, помимо США, в разработке военного ИИ продвинулись Индия и Израиль. Первая использовала собственные нейросети Trinetra, Sanjay и Edge AI, чтобы находить цели для ракетных атак в ходе столкновения с Пакистаном в 2025 году, — причем ИИ успешно справлялся с идентификацией в 94% случаях. Согласно журналистским расследованиям, с 2023-го армия обороны Израиля использовала для определения целей атак в Секторе Газа свою нейросеть, которая, по данным СМИ, допускала ошибки (впрочем, ЦАХАЛ утверждал, что система представляет собой не перечень целей, а базу данных, и отмечал, что армия старается снизить ущерб гражданскому населению).
В 2025-м выяснилось, что израильские военные разработали ИИ для анализа разведданных по Палестине, в основе которого лежали облачные технологии Microsoft. После этого корпорация ограничила доступ к своим сервисам.
***
Нейросети уже прочно вошли в обиход военных ведомств по всему миру. Бывший офицер Сил самообороны Японии Коитиро Такаги еще в 2022 году писал, что ИИ представляют особенную опасность для мировой безопасности из-за отсутствия моральных ограничителей и крайне быстрой реакции — например, нейросеть может запустить боеголовки за считанные секунды, не дожидаясь приказа руководства. Эксперт пришел к выводу, что даже самым совершенным нейросетям нужно регулирование со стороны людей, чтобы предотвращать конфликты.
В будущем нейросети будут важным подспорьем для военных руководителей по всему миру, как минимум из-за возможности быстрого и качественного анализа данных, предсказывает заместитель министра войны США Эмиль Майкл.
В том же 2025 году более пессимистичный прогноз дал глава ИИ-отдела Microsoft Мустафа Сулейман. По его мнению, искусственный интеллект в будущем может стать таким могущественным, что его придется останавливать военным вмешательством. Смогут ли в таком случае военные руководители обойтись без помощи ИИ, вопрос отдельный.

МинИИстерство пропаганды. США, Иран и Россия используют в информационных войнах нейросетевые видео. Так еще легче подорвать доверие к реальным новостям


Всего несколько лет назад нейросети с трудом генерировали видео на несколько секунд со знаменитостями, поедающими спагетти, а теперь они массово используются правительствами разных стран для информационных войн. ИИ-сервисы не только помогают определять цели для авиаударов и симулировать боевые действия, но и вводят в заблуждение миллионы людей. Если раньше на это требовались усилия многомиллионных бот-ферм и огромные бюджеты, сейчас достаточно написать простой промпт для генерации нужной картинки или видео и опубликовать его в соцсетях, надеясь на продвижение с помощью алгоритмов. Пропагандистских фейков, сгенерированных с помощью ИИ, не счесть. С их помощью Израиль и ХАМАС обвиняли друг друга в массовых убийствах детей, Иран создает ненастоящие фотографии с новым верховным лидером страны, а в соцсети X публикуют ролики, где американские ВВС якобы бомбят правительственные здания в Тегеране. «Новая-Европа» рассказывает, чем опасна ИИ-пропаганда, почему ее стали чаще использовать правительства разных стран и каково будущее этих технологий.
Москва, 5 марта 2026 года. Фото: Ярослав Чингаев / Агентство «Москва».

Что такое слопаганда и зачем она нужна правительствам?
Пропагандистские фейковые видео, созданные с помощью ИИ, в соцсетях называют слопагандой — от английского слова slop, означающего мусор или помои. С 2024 года нейрослопом называли любые низкокачественные нейровидео, но термин слопаганда появился относительно недавно — примерно в 2025 году.
Слопаганде уже посвящают научные работы. Так, специализирующиеся на ИИ-этике ученые Михал Клинцевич, Марк Алфано и Амир Фард из университетов Нидерландов и Австралии утверждают, что слопаганда отличается от традиционной фейковой пропаганды своими масштабами и возможностью влиять на самую широкую аудиторию. Нейросети позволяют создавать множество новостных сайтов, распространяющих дезинформацию на региональном уровне, — например, нацеленные на жителей конкретных провинций европейских стран или американских штатов. Многие пользователи по умолчанию доверяют «локальным» сайтам больше, чем федеральным или международным, — и могут легко стать жертвами слопаганды.
Сгенерированные нейросетями фотографии или видео могут быть крайне убедительными. В исследовании 2024 года, проведенном учеными Стэнфордского университета, выяснилось, что пропагандистским материалам, созданным с помощью актуальной на тот момент ChatGPT-3, верили около 43,5% респондентов. 40% участников эксперимента, проведенного учеными Чикагского университета в том же 2024-м, смогли верно распознать ИИ-изображения.
Результаты различаются в зависимости от состава участников. Финские исследователи из Оулуского университета пришли к выводу, что большинство молодых жителей страны в состоянии распознать фейковые видео. В то же время людям пожилого возраста сделать это гораздо сложнее — по крайней мере, такую информацию приводят сингапурские ученые из Наньянского технологического университета.
По опросам 2025 года стало известно, что около 25% американцев в основном доверяют информации, сгенерированной чат-ботами, и не перепроверяют их ответы. И 9% жителей США, по данным исследовательского центра Pew Research Center, читают новости с помощью ИИ-сервисов.
Правительства используют эффективность слопаганды в своих интересах. Как утверждает профессор Калифорнийского университета в Беркли Хани Фарид, раньше СМИ легко вычисляли и опровергали вручную созданные фейки. „

Теперь же реалистичных пропагандистских фотографий и видео стало настолько много, что журналисты уже не успевают опровергать каждый отдельный фейк.
Ситуацию осложняет и то, что с помощью ИИ нередко редактируют фрагменты настоящих видео, чтобы ввести зрителей в заблуждение, — например, увеличивают радиус и мощность взрывов от авиаударов или дронов.
Другой важный «плюс» слопаганды — ее массовость и доступность. Правдоподобные фейковые видео создаются в кратчайшие сроки и быстро распространяются с помощью ботов и доверчивых людей. Государства этим пользуются, чтобы скрыть от публики достоверную информацию во время военных конфликтов. Кроме того, в 2026 году обычным пользователям, корпорациям и государствам доступно как никогда много нейросетей и ИИ-сервисов, позволяющих генерировать контент за низкую стоимость.
«Ежедневно создаются сотни тысяч часов видео — как с помощью обычных камер, так и с искусственным интеллектом, — и это просто огромный объем данных, с которым приходится иметь дело. Это, безусловно, замутняет и запутывает нашу информационную среду, затрудняя понимание происходящего и подрывая доверие к происходящему», — рассказал профессор визуальной коммуникации ТиДжей Томсон в комментарии изданию ABC News.
Особенно активно слопаганду применяет Иран. По данным аналитического агентства Cyabra, страна за две недели вооруженного конфликта с США и Израилем задействовала десятки тысяч ботов в соцсетях, публиковавших фейковые ИИ-ролики о достижениях иранской армии. В частности, многие ролики показывали, как иранские ракеты и дроны уничтожали военные объекты и достопримечательности стран Персидского залива вроде ОАЭ и Катара. Такие видео набрали более 145 миллионов просмотров в TikTok, X, YouTube и других соцсетях.
Иран с помощью слопаганды не только добивается усиления паники в регионе, но и пытается убедить зрителей из других стран в том, что ее армия куда сильнее, чем показывают в официальных новостях.
«Использование ИИ-кадров, на которых запечатлены горящие или разрушенные места в Персидском заливе, приобретает все большее значение в стратегии Ирана. Это позволяет стране создать впечатление, что эта война является более разрушительной и, возможно, более дорогостоящей для союзников Америки», — рассказал в комментарии The New York Times доцент Северо-западного университета Катара Марк Джонс.
В обзоре искусственного интеллекта Google ложно утверждается, что сгенерированное ИИ видео иранских ракет, поражающих Тель-Авив, является подлинным. Фото: cкриншот с сайта NewsGuard.

Слопаганда особенно сильна тем, что ИИ-сервисы пока плохо распознают фейки. Например, система Google AI Overviews, дающая краткое саммари по запросу в поисковике, назвала сгенерированные Ираном кадры уничтоженных зданий настоящими. Часто ошибается и чат-бот Grok от соцсети X, принадлежащей Илону Маску. Нейросеть посчитала посты о разрушениях в Тель-Авиве правдивыми и сослалась на несуществующие материалы Reuters, CNN и Euronews.
Пока технологические корпорации не справляются с усилением слопаганды. Единственная компания, обещавшая наказывать пользователей за публикации ИИ-видео без указания источника, — та же X. Представители остальных сервисов вроде Facebook, Instagram и TikTok еще не предприняли никаких действий.
В обзоре искусственного интеллекта Google ложно утверждается, что на изображении с использованием искусственного интеллекта виден «мощный пожар» в посольстве США в Эр-Рияде. Фото: cкриншот с сайта NewsGuard.

Как Россия использует слопаганду во время войны?
Российские пропагандисты распространяют фейки еще с начала вторжения в Украину в 2022 году. Например, представители СНБО заявляли, что РФ с помощью профессиональных студий создает видео с актерами, изображающих украинских военных. Такие ролики снимали в вертикальном формате с помощью дешевых телефонов, чтобы усилить эффект правдоподобности. Также российские бот-фермы в начале вторжения публиковали в TikTok ролики с кадрами из видеоигр и видео времен предыдущих военных конфликтов.
Кадр из видео игры в страйкбол. Видео преподносилось как якобы снятое на войне в Украине. Фото: bbc.com / TikTok.

Но с ростом популярности ИИ-сервисов Россия изменила стратегию и стала публиковать два типа коротких роликов. В первом показывают низкокачественные анимации с нереалистично выглядящими людьми — например, в январе 2026 года опубликовали десятки роликов с тучными людьми в украинской военной форме, которые жаловались на нехватку продовольствия. Как отмечает «РБК-Украина», такие видео подаются как сатира и направлены на деморализацию населения и военнослужащих.
Второй тип нейрофейков куда опаснее — это правдоподобные видео с высокой детализацией, которые можно по невнимательности принять за настоящие. Среди них, скажем, ролики, где украинские военные массово сдаются российской армии или отступают из осажденных городов в Донецкой области.
Заметить признаки генерации в них крайне сложно, так как подобный контент создается с помощью Sora 2 от OpenAI, создавшей ChatGPT. Sora 2 создает правдодобно выглядящих людей и соответствующий картинке звуковой ряд, в том числе и голоса. Несоответствия можно заметить лишь в мелких деталях — визуальных артефактах, в одежде или пропадающих мелких объектах в кадре.
Российская пропаганда использовала Sora 2 для создания фейковых тиктоков с плачущими украинскими солдатами. Так, в одном из роликов показывается молодой парень, утверждающий, что его насильно мобилизовали и отправили воевать в Часов Яр. При этом в видео использовались лица известных российских стримеров — среди них Владимир Буянов под ником Kussia88 и Алексей Губанов, более известный как JesusAVGN.
Слопаганду в соцсетях регулярно публикуют специализированные российские аккаунты с нейтральными названиями, не указывающими на их происхождение, — например, flight_area_zone. Существуют даже целые нейросетевые сайты, связанные с Россией и мимикрирующие под американские новостные издания, — об одном из них написали научную статью ученые из Цюрихского и Клемсконского университета.
Россия также публикует англоязычную слопаганду. Ролик, в котором профессор лондонского Королевского колледжа Алан Рид якобы критиковал Эммануэля Макрона и разоблачал западную цивилизацию, успел набрать популярность в соцсетях, пока на него не обратил внимание сам Рид. Также в TikTok сотни тысяч просмотров набрали нейросетевые видео, на которых польские граждане требовали выхода своей страны из Евросоюза.
Пока что подобные ролики легко разоблачаются журналистами и комментаторами. Но пропаганда РФ проникает всё глубже: в январе нейросети ChatGPT, Copilot, Claude и Gemini в 33% случаев ссылались в своих ответах на вопросы о причинах войны в Украине на информацию, распространяемую российскими властями. Как выяснило аналитическое агентство Newsguard, Кремль еще в 2024 году создал целую сеть по дезинформации под названием «Правда». Боты сети, по оценкам агентства, опубликовали более 3,6 миллиона сгенерированных новостных статей, продвигавших российскую пропаганду.
***
Слопаганда, судя по всему, с нами надолго. Нейросети все лучше справляются с созданием правдоподобных изображений видео — например, Neo Banana от Google показывает даже более впечатляющие результаты, чем Sora. А текстовые чат-боты помогают правительствам быстрее и массовее распространять фейки в соцсетях. „

Нейросети окончательно превратились в инструмент войны, а их создатели как минимум косвенно влияют на исход конфликтов.
Так, недавно Иран заявил, что считает дата-центры Nvidia, Google, Microsoft, IBM и Oracle в Израиле и странах Ближнего Востока легитимными целями для ракетных ударов и дроновых атак.
Из-за роста популярности нейросетей обычным людям все труднее доверять достоверной информации — многие пользователи во всем видят подвох или предпочитают не читать новости. Политические дискуссии и вовсе превратились в обсуждение того, что сгенерировано нейросетями, а что нет. Скажем, в недавнем выступлении израильского премьер-министра Биньямина Нетаньяху пользователи соцсети X увидели признаки генерации ИИ вроде шести пальцев на руках политика.
Кадр из выступлении израильского премьер-министра Биньямина Нетаньяху. Фото: соцсети / X / AustraliaFirstOnly.

Пока же можно сделать вывод, что корпорации практически не мешают распространению слопаганды, а правительства разных стран видят в нейросетях исключительно выгоду.
❌