Вид для чтения

Вавилонская лента. Зачем Илон Маск, насаждающий правую идеологию, заставил Twitter заговорить на всех языках

Илон Маск покидает Капитолий США в Вашингтоне, округ Колумбия, США, 21 мая 2025 года. Фото: Will Oliver / EPA.

В русскоязычном сегменте X (Twitter) в начале апреля 2026 возник термин «Вавилонская лента» — как ответ на массовое внедрение функции автоматического перевода постов, работающей на базе нейросети Grok.
«Инверсия знака» в библейском сюжете о Вавилонской башне, где люди перестали понимать друг друга из-за смешения языков, — фирменная фишка русскоязычной самоиронии. Ведь Илон Маск «разрушил» не коммуникацию, а именно языковые барьеры. Теперь пользовательская лента наполняется постами со всего мира, причем качество ИИ-перевода достигло столь высокого уровня, что требуется филологический нюх для осознания того, что ты читаешь не оригинальный текст соотечественника, а исповедь диковинного японца или чилийца.
Люди реагируют на нововведение по-разному: одни с восхищением приветствуют невиданное расширение аудитории и возможность общаться без оглядки на языки. Другие недовольно ворчат, как в старом одесском анекдоте про портного Шлёму, которого из-за патологического сходства с Карлом Марксом заставили в парткоме сбрить патлы и бороду, на что Шлёма резонно ответил: «Бороду сбрить — не проблема, но что я буду делать со своими идеями?» „
И то верно: от того, что японец будет излагать в моем информационном поле свои мысли по-русски, он не перестанет быть японцем, со всем неповторимым шлейфом самурайского своеобразия.
Я бы хотел в этой колонке поразмышлять о том, какое место занимает «вавилонская лента» в более широком контексте социальных экспериментов по созданию «пузыря фильтров», которые ведутся в Web2 уже более 20 лет. В какой мере она продолжает курс на углубление эффекта «социального поглаживания», либо, напротив, разрушает привычную «ламповость» междусобойчиков, которые мы все с таким рвением выстраивали с помощью новых информационных технологий.
Начнем с самой «вавилонской ленты». Функция начала активно развертываться по всему миру в апреле 2026. О запуске официально объявил руководитель продукта X Никита Биер. Главные фичи технологии:
Grok, в отличие от старых систем перевода (вроде Google Translate), использует контекстуальное понимание. Он лучше справляется со сленгом, мемами и специфическим «твиттерским» языком, старается сохранить иронию и эмоциональный окрас автора;функция перевода в Х включается по умолчанию, то есть посты на иностранных языках отображаются сразу на языке вашего интерфейса;над постом появляется небольшая пометка «Автоматический перевод от Grok». Рядом находится значок шестеренки ⚙️, через который можно отключить функцию для конкретного языка или полностью. Также есть возможность нажать «Показать оригинал», чтобы увидеть текст на языке автора.
Ключевой момент здесь, на мой взгляд, это автоматический перевод по умолчанию.
Раньше мы уже наблюдали это в YouTube, где поначалу в интерфейсе не было возможности отключить функцию автоперевода. И это обстоятельство почти вывело меня на тропу луддита. На всех моих устройствах, операционных системах и социальных сетях язык интерфейса установлен английский (так уж сложилось с 1990 года, когда я впервые сел за компьютер), поэтому Google тупо и принудительно переводил все русскоязычные каналы на английский. И это было невыносимо.
Фото: Koshiro K / Alamy / Scanpix / LETA.

Похоже, в какой-то момент потоки негодования обрели угрожающее качество, так что Google пришлось пойти на попятную и позволить пользователям самим выбирать, на каких языках должно вестись вещание.
В твиттере, во-первых, автоматизация перевода хоть и установлена по умолчанию, однако же изначально отключается. Во-вторых, стилистические таланты Grok, подкрепленные отсутствием необходимости работать в аудиорежиме реального времени (как в случае с синхронным переводом Youtube), создают уникальный эффект аутентичности. В подавляющем большинстве случаев пользователи Х не могут отличить непосредственно по тексту, что это не высказывание носителя языка, а его перевод.
Посмотрим теперь, как «вавилонская лента» вписывается или не вписывается в реальность «пузыря фильтров».
Впервые феномен скрытой персонализации информации для пользователей социальных сетей заметил Эли Паризер, исполнительный директор MoveOn.org. В 2011 году он издал книгу «The Filter Bubble: What the Internet Is Hiding from You» (русский перевод «За стеной фильтров: Что Интернет скрывает от вас?»), из которой миллионы читателей всего мира узнали, что, оказывается, реальность в том виде, как она представлена в лентах их социальных сетей, к подлинной реальности имеет весьма отдаленное отношение.
В какой-то момент, пишет Паризер, он заметил, что его друзья с консервативными взглядами начали исчезать из его ленты Facebook. Одновременно он попросил двух друзей загуглить бренд «BP» (British Petroleum) во время разлива нефти в Мексиканском заливе. Один получил новости об инвестициях, другой — информацию об экологической катастрофе. „
Это открытие стало отправной точкой для понимания, что объективной выдачи больше не существует, а фильтрация информации зависит от а) ваших взглядов и б) автоматических алгоритмов,
которые одновременно заботятся как о вашем психологическом комфорте, так и о росте доходов родной корпорации (за счет максимизации кликов).
Как следствие, обитатели цифрового мира давно уже поселились в «персонализированных информационных пространствах», в которых курсируют только приятные сюжеты, «правильные» взгляды и единственно «справедливые» оценки событий. Всё, что не подпадает под понимание правильности и приятности, любезно выбрасывается из ленты. Такие персонализированные инфопространства назвали «эхо-камерами».
Первый вопрос, который нужно задать сегодня в контексте нашей темы: «В какой мере “вавилонская лента” служит углублением “пузыря фильтров”? Или наоборот: разрушает пузырь и выпускает обывателей на свободу?»
Свобода отметается сходу: хотя Эли Паризер и винил во всех грехах корпоративную культуру и ее автоматические алгоритмы, реальным вдохновителем «пузыря фильтров» был сам потребитель цифровой информации, который рыскал по интернету в поисках именно таких текстов, статей, постов и высказываний, которые подтверждали его априорную точку зрения, а всякое «инакомыслие» презрительно отвергал.
Что касается корпоративных алгоритмов, то они лишь послушно выполняли хотелки покупателей в духе главной заповеди капитализма: «Different strokes for different folks» (на русский это идеально переводится поговоркой «нам татарам всё равно…», но дальше там неприлично, поэтому догуглите сами).
Фургон в Уайтхолле с надписью, требующей запретить платформу X, после скандала, связанного с внедрением технологии Grok, Лондон, Великобритания, 14 января 2026 года. Фото: Michael Melia / Alamy / Scanpix / LETA.

Короче говоря, обыватель не воспринимает свою эхо-камеру как несвободу. Пузырь фильтров — его осознанный и комфортный выбор, поэтому и выпускать его некуда.
Вслед за «отпусканием обывателей на свободу» можно списать в утиль и иллюзию про «развал пузыря фильтров». Социальное поглаживание (действующее через систему лайков) никто не отменял, поэтому можно не сомневаться, что «вавилонская лента» будет добавлять нам в ленту не абы что и без разбора, а только твиты «единомышленников» (читай: коллег по эхо-камерам) из других стран и языков. Как следствие, пузырь фильтров не исчезнет, а напротив расширится до планетарных масштабов.
Выходит, всё очевидно? С помощью новых технологий шлифуем пузырь? Не совсем. Предлагаю поиграть в мою любимую антиномию: в следующих двух параграфах я докажу, что «вавилонская лента» не просто разнесет эхо-камеры в клочья, но и ознаменует совершенно новый этап в социально-информационной летописи человека.
Grok может виртуозно перевести на родной язык пользователя твиты, написанные представителями других наций, стран и культур. Да еще и с сохранением всех неповторимых лингвоэмоциональных «фенечек»: авторской экспрессией, юмором, иронией, сленгом и прочими приколами.
Хитрость, однако, в том, что вместе со всеми этими красотами пользователю откроются еще и неповторимые — зачастую совершенно непонятные, а может, даже и неприятные! — особенности национального характера. Чужая логика, чужие стереотипы, чужие иерархии ценностей, сформированные столетиями (а иногда и тысячелетиями) уникального исторического пути народов и наций.
И вот все эти бесчисленные нюансы вместе с, разумеется, «общечеловеческими ценностями», вольются, усилиями «вавилонской ленты», в нашу ламповую уютненькую эхо-камеру. Как вы думаете, что станется с нашим «пузырем фильтров»? Сохранит ли он после этого всю свою идеологическую четкость и структурную целостность? „
Вопрос риторический: не сохранит. Вавилонская лента уничтожит «пузырь фильтров». Да, вот такая антиномичность.
А если так, то становится непонятно: зачем же Илон Маск добровольно разваливает эхо-камеры, которые без малого четверть века прилежно выстраивали его коллеги по информационному Web2 бизнесу? Думаю, что противоречие это мнимое и легко снимается выходом из статичного восприятия реальности.
Если мы считаем, что мир сегодня такой же, какой был последнюю четверть века, то логика Илона Маска и в самом деле выглядит ущербной.
Реальность, однако, такова, что эпоха лампового комфорта эхо-камер канула в Лету. Этот глобальный сдвиг затребовали и произвели не корпорации, не правительства и не диктаторы, а сам венец творения — homo sapiens. Это ему, нашему дорогому хоме, надоело жить спокойно и захотелось «движухи». Ну а ушлые политики тренд быстро определили и движуху любезно подкинули. Каждый, разумеется, в меру собственной испорченности. Но логика неизбежна: «Вы просили — мы вам дали!»
Фото: Matthias Balk / dpa / Scanpix / LETA.

В чём заключается глобальный сдвиг? Как раз в том, что и призвана обеспечить «вавилонская лента»: в выходе из комфортного кокона привычных идей и столкновении с иными идеями, пусть даже близкими по духу. Столкновении из-за тех вышеупомянутых нюансов — национальных и культурно-бытовых.
Негативный это для нас сдвиг или позитивный? Для начала хорошо бы понять, что от того, как мы его оценим, ничего уже не изменится. Alea iacta est («Жребий брошен» — Прим. Ред.). Остается только адаптироваться к новой реальности и попытаться найти в ней плюсы.
Благо, искать долго не приходится. «Вавилонская лента» будет не только вызывать трения, но и стимулировать диалог! Поначалу это может быть конфронтационная активность, но она неизбежно перерастет в конструктивный поиск компромиссов, потому что ситуация bellum omnium contra omnes («война всех против всех» — Прим. Ред.) всегда нестабильна и быстро приходит к какому-то равновесию.
Расширение общения за счет включения в привычную ленту бесшовных переводов твитов представителей иных культур и языков быстро приведет к противостояниям с непривычными вариациями даже внутри родного пузыря фильтров. Поневоле придется вступать в незапланированные дискуссии, участвовать в обмене мнениями, дебатировать, отстаивать свою позицию. То есть, вести диалог! „
А любой диалог — это смерть для замкнутой системы, для любой эхо-камеры, даже в наиболее абстрактных своих формах, будь то религиозный культ, государственная идеология или национальная автаркия.
Последний вопрос: зачем наши диалоги Илону Маску и корпорации Х?
Для Маска, как одного из черных ангелов (демонов?), разрушающих сегодня Woke-культуру, диалог планетарного масштаба вне языковых контекстов — идеальная площадка для прозелитизма правых идей.
Для корпорации Х эрозия пользовательских эхо-камер с помощью «вавилонской ленты» — это не вопрос идеологии, а вопрос денег. Неужели кто-то думает, что корпорация с годовой выручкой в $3 млрд пошла на радикальное изменение устоявшегося формата общения по недомыслию или по приколу?
Рискну предположить, что Х решилась на замену эхо-камер моделью активного столкновения идей и принудительного диалога только после долгих тестов и закрытых пилотных запусков, которые подтвердили, что именно «вавилонская лента» максимально точно соответствует глобальному сдвигу в сторону беспокойной «движухи».
Ну а нам, пользователям, остается лишь постараться дожить до завершения эксперимента.
  •  

Вавилонская лента. Зачем Илон Маск, насаждающий правую идеологию, заставил Twitter заговорить на всех языках

Илон Маск покидает Капитолий США в Вашингтоне, округ Колумбия, США, 21 мая 2025 года. Фото: Will Oliver / EPA.

В русскоязычном сегменте X (Twitter) в начале апреля 2026 возник термин «Вавилонская лента» — как ответ на массовое внедрение функции автоматического перевода постов, работающей на базе нейросети Grok.
«Инверсия знака» в библейском сюжете о Вавилонской башне, где люди перестали понимать друг друга из-за смешения языков, — фирменная фишка русскоязычной самоиронии. Ведь Илон Маск «разрушил» не коммуникацию, а именно языковые барьеры. Теперь пользовательская лента наполняется постами со всего мира, причем качество ИИ-перевода достигло столь высокого уровня, что требуется филологический нюх для осознания того, что ты читаешь не оригинальный текст соотечественника, а исповедь диковинного японца или чилийца.
Люди реагируют на нововведение по-разному: одни с восхищением приветствуют невиданное расширение аудитории и возможность общаться без оглядки на языки. Другие недовольно ворчат, как в старом одесском анекдоте про портного Шлёму, которого из-за патологического сходства с Карлом Марксом заставили в парткоме сбрить патлы и бороду, на что Шлёма резонно ответил: «Бороду сбрить — не проблема, но что я буду делать со своими идеями?» „
И то верно: от того, что японец будет излагать в моем информационном поле свои мысли по-русски, он не перестанет быть японцем, со всем неповторимым шлейфом самурайского своеобразия.
Я бы хотел в этой колонке поразмышлять о том, какое место занимает «вавилонская лента» в более широком контексте социальных экспериментов по созданию «пузыря фильтров», которые ведутся в Web2 уже более 20 лет. В какой мере она продолжает курс на углубление эффекта «социального поглаживания», либо, напротив, разрушает привычную «ламповость» междусобойчиков, которые мы все с таким рвением выстраивали с помощью новых информационных технологий.
Начнем с самой «вавилонской ленты». Функция начала активно развертываться по всему миру в апреле 2026. О запуске официально объявил руководитель продукта X Никита Биер. Главные фичи технологии:
Grok, в отличие от старых систем перевода (вроде Google Translate), использует контекстуальное понимание. Он лучше справляется со сленгом, мемами и специфическим «твиттерским» языком, старается сохранить иронию и эмоциональный окрас автора;функция перевода в Х включается по умолчанию, то есть посты на иностранных языках отображаются сразу на языке вашего интерфейса;над постом появляется небольшая пометка «Автоматический перевод от Grok». Рядом находится значок шестеренки ⚙️, через который можно отключить функцию для конкретного языка или полностью. Также есть возможность нажать «Показать оригинал», чтобы увидеть текст на языке автора.
Ключевой момент здесь, на мой взгляд, это автоматический перевод по умолчанию.
Раньше мы уже наблюдали это в YouTube, где поначалу в интерфейсе не было возможности отключить функцию автоперевода. И это обстоятельство почти вывело меня на тропу луддита. На всех моих устройствах, операционных системах и социальных сетях язык интерфейса установлен английский (так уж сложилось с 1990 года, когда я впервые сел за компьютер), поэтому Google тупо и принудительно переводил все русскоязычные каналы на английский. И это было невыносимо.
Фото: Koshiro K / Alamy / Scanpix / LETA.

Похоже, в какой-то момент потоки негодования обрели угрожающее качество, так что Google пришлось пойти на попятную и позволить пользователям самим выбирать, на каких языках должно вестись вещание.
В твиттере, во-первых, автоматизация перевода хоть и установлена по умолчанию, однако же изначально отключается. Во-вторых, стилистические таланты Grok, подкрепленные отсутствием необходимости работать в аудиорежиме реального времени (как в случае с синхронным переводом Youtube), создают уникальный эффект аутентичности. В подавляющем большинстве случаев пользователи Х не могут отличить непосредственно по тексту, что это не высказывание носителя языка, а его перевод.
Посмотрим теперь, как «вавилонская лента» вписывается или не вписывается в реальность «пузыря фильтров».
Впервые феномен скрытой персонализации информации для пользователей социальных сетей заметил Эли Паризер, исполнительный директор MoveOn.org. В 2011 году он издал книгу «The Filter Bubble: What the Internet Is Hiding from You» (русский перевод «За стеной фильтров: Что Интернет скрывает от вас?»), из которой миллионы читателей всего мира узнали, что, оказывается, реальность в том виде, как она представлена в лентах их социальных сетей, к подлинной реальности имеет весьма отдаленное отношение.
В какой-то момент, пишет Паризер, он заметил, что его друзья с консервативными взглядами начали исчезать из его ленты Facebook. Одновременно он попросил двух друзей загуглить бренд «BP» (British Petroleum) во время разлива нефти в Мексиканском заливе. Один получил новости об инвестициях, другой — информацию об экологической катастрофе. „
Это открытие стало отправной точкой для понимания, что объективной выдачи больше не существует, а фильтрация информации зависит от а) ваших взглядов и б) автоматических алгоритмов,
которые одновременно заботятся как о вашем психологическом комфорте, так и о росте доходов родной корпорации (за счет максимизации кликов).
Как следствие, обитатели цифрового мира давно уже поселились в «персонализированных информационных пространствах», в которых курсируют только приятные сюжеты, «правильные» взгляды и единственно «справедливые» оценки событий. Всё, что не подпадает под понимание правильности и приятности, любезно выбрасывается из ленты. Такие персонализированные инфопространства назвали «эхо-камерами».
Первый вопрос, который нужно задать сегодня в контексте нашей темы: «В какой мере “вавилонская лента” служит углублением “пузыря фильтров”? Или наоборот: разрушает пузырь и выпускает обывателей на свободу?»
Свобода отметается сходу: хотя Эли Паризер и винил во всех грехах корпоративную культуру и ее автоматические алгоритмы, реальным вдохновителем «пузыря фильтров» был сам потребитель цифровой информации, который рыскал по интернету в поисках именно таких текстов, статей, постов и высказываний, которые подтверждали его априорную точку зрения, а всякое «инакомыслие» презрительно отвергал.
Что касается корпоративных алгоритмов, то они лишь послушно выполняли хотелки покупателей в духе главной заповеди капитализма: «Different strokes for different folks» (на русский это идеально переводится поговоркой «нам татарам всё равно…», но дальше там неприлично, поэтому догуглите сами).
Фургон в Уайтхолле с надписью, требующей запретить платформу X, после скандала, связанного с внедрением технологии Grok, Лондон, Великобритания, 14 января 2026 года. Фото: Michael Melia / Alamy / Scanpix / LETA.

Короче говоря, обыватель не воспринимает свою эхо-камеру как несвободу. Пузырь фильтров — его осознанный и комфортный выбор, поэтому и выпускать его некуда.
Вслед за «отпусканием обывателей на свободу» можно списать в утиль и иллюзию про «развал пузыря фильтров». Социальное поглаживание (действующее через систему лайков) никто не отменял, поэтому можно не сомневаться, что «вавилонская лента» будет добавлять нам в ленту не абы что и без разбора, а только твиты «единомышленников» (читай: коллег по эхо-камерам) из других стран и языков. Как следствие, пузырь фильтров не исчезнет, а напротив расширится до планетарных масштабов.
Выходит, всё очевидно? С помощью новых технологий шлифуем пузырь? Не совсем. Предлагаю поиграть в мою любимую антиномию: в следующих двух параграфах я докажу, что «вавилонская лента» не просто разнесет эхо-камеры в клочья, но и ознаменует совершенно новый этап в социально-информационной летописи человека.
Grok может виртуозно перевести на родной язык пользователя твиты, написанные представителями других наций, стран и культур. Да еще и с сохранением всех неповторимых лингвоэмоциональных «фенечек»: авторской экспрессией, юмором, иронией, сленгом и прочими приколами.
Хитрость, однако, в том, что вместе со всеми этими красотами пользователю откроются еще и неповторимые — зачастую совершенно непонятные, а может, даже и неприятные! — особенности национального характера. Чужая логика, чужие стереотипы, чужие иерархии ценностей, сформированные столетиями (а иногда и тысячелетиями) уникального исторического пути народов и наций.
И вот все эти бесчисленные нюансы вместе с, разумеется, «общечеловеческими ценностями», вольются, усилиями «вавилонской ленты», в нашу ламповую уютненькую эхо-камеру. Как вы думаете, что станется с нашим «пузырем фильтров»? Сохранит ли он после этого всю свою идеологическую четкость и структурную целостность? „
Вопрос риторический: не сохранит. Вавилонская лента уничтожит «пузырь фильтров». Да, вот такая антиномичность.
А если так, то становится непонятно: зачем же Илон Маск добровольно разваливает эхо-камеры, которые без малого четверть века прилежно выстраивали его коллеги по информационному Web2 бизнесу? Думаю, что противоречие это мнимое и легко снимается выходом из статичного восприятия реальности.
Если мы считаем, что мир сегодня такой же, какой был последнюю четверть века, то логика Илона Маска и в самом деле выглядит ущербной.
Реальность, однако, такова, что эпоха лампового комфорта эхо-камер канула в Лету. Этот глобальный сдвиг затребовали и произвели не корпорации, не правительства и не диктаторы, а сам венец творения — homo sapiens. Это ему, нашему дорогому хоме, надоело жить спокойно и захотелось «движухи». Ну а ушлые политики тренд быстро определили и движуху любезно подкинули. Каждый, разумеется, в меру собственной испорченности. Но логика неизбежна: «Вы просили — мы вам дали!»
Фото: Matthias Balk / dpa / Scanpix / LETA.

В чём заключается глобальный сдвиг? Как раз в том, что и призвана обеспечить «вавилонская лента»: в выходе из комфортного кокона привычных идей и столкновении с иными идеями, пусть даже близкими по духу. Столкновении из-за тех вышеупомянутых нюансов — национальных и культурно-бытовых.
Негативный это для нас сдвиг или позитивный? Для начала хорошо бы понять, что от того, как мы его оценим, ничего уже не изменится. Alea iacta est. Остается только адаптироваться к новой реальности и попытаться найти в ней плюсы.
Благо, искать долго не приходится. «Вавилонская лента» будет не только вызывать трения, но и стимулировать диалог! Поначалу это может быть конфронтационная активность, но она неизбежно перерастет в конструктивный поиск компромиссов, потому что ситуация bellum omnium contra omnes всегда нестабильна и быстро приходит к какому-то равновесию.
Расширение общения за счет включения в привычную ленту бесшовных переводов твитов представителей иных культур и языков быстро приведет к противостояниям с непривычными вариациями даже внутри родного пузыря фильтров. Поневоле придется вступать в незапланированные дискуссии, участвовать в обмене мнениями, дебатировать, отстаивать свою позицию. То есть, вести диалог! „
А любой диалог — это смерть для замкнутой системы, для любой эхо-камеры, даже в наиболее абстрактных своих формах, будь то религиозный культ, государственная идеология или национальная автаркия.
Последний вопрос: зачем наши диалоги Илону Маску и корпорации Х?
Для Маска, как одного из черных ангелов (демонов?), разрушающих сегодня Woke-культуру, диалог планетарного масштаба вне языковых контекстов — идеальная площадка для прозелитизма правых идей.
Для корпорации Х эрозия пользовательских эхо-камер с помощью «вавилонской ленты» — это не вопрос идеологии, а вопрос денег. Неужели кто-то думает, что корпорация с годовой выручкой в $3 млрд пошла на радикальное изменение устоявшегося формата общения по недомыслию или по приколу?
Рискну предположить, что Х решилась на замену эхо-камер моделью активного столкновения идей и принудительного диалога только после долгих тестов и закрытых пилотных запусков, которые подтвердили, что именно «вавилонская лента» максимально точно соответствует глобальному сдвигу в сторону беспокойной «движухи».
Ну а нам, пользователям, остается лишь постараться дожить до завершения эксперимента.
  •  

Дай мне напиться водопроводным ИИ. OpenAI анонсирует превращение подписки на чатботы в «коммунальную услугу». Кто встанет на пути этого бизнес-плана?

Фото: Кирилл Кудрявцев / AFP / Scanpix / LETA.

Последняя моя статья в «Новой-Европа» об искусственном интеллекте датирована 7 апреля 2025 года (Нашествие искусственных агентов). После этого я сознательно отказался от рефлексии над ИИ и попытался в прямом смысле слова прожить это удивительное открытие человечества, внедрив ИИ в разнообразные аспекты быта и работы: ассистенты и агенты ИИ участвуют в формировании моего распорядка дня и наполняют календарь задачами, собирают и анализируют информацию в вебе и социальных сетях, выступают оппонентами при брейнсторминге, помогают структурировать еженедельные лекции и отвечают за их визуальное оформление (слайды, презентации и тому подобное).
На ближайшие месяцы запланировал автоматизацию коммуникационных каналов: агенты ИИ будут самостоятельно отвечать на электронную почту и возьмут на себя задачи клиентской поддержки в телеграме.
Единственное, что приходится по-прежнему делать руками, — это писать тексты, заряженные образными элементами (мои любимые кеннинги, то есть составные термины, использующиеся вместо простого существительного, и шире — вся метафорика). Пока это самое слабое место ИИ, поскольку он пытается лишь стилистически зеркалить авторское прошлое, а образность, как известно, не терпит второй свежести.
Особняком стоят тексты, претендующие на эвристику. Здесь в базовой конфигурации невозможно совместить запрос на открытие нового с требованием сохранения авторского стиля. ИИ вынужден выбирать: либо автор, либо эвристика. Совместить это без дополнительного обучения не получается. При этом технически задача давно решена, а ограничение — в уровне промптинга на стороне Homo Sapiens.
Интеллект как коммунальная услуга: корпоративная фантазия Сэма Альтмана
Желание вновь отрефлексировать тему ИИ у меня появилось после просмотра недавнего выступления Сэма Альтмана, генерального директора OpenAI, на саммите BlackRock, посвященном развитию инфраструктуры США. Альтман поделился своими представлениями о развитии искусственного интеллекта во временном отрезке, который он определил как future years — будущие годы.
Мне показалось, что пытаться предсказывать реальный (а не хотельный) вектор развития ИИ дальше чем на 12 месяцев — занятие бессмысленное. Развитие отрасли летит по параболе с такой пугающей скоростью, что любые долгосрочные прогнозы превращаются в тыкву еще до их публикации.
Главное, однако, что Сэм Альтман отразил в своем выступлении не «перспективы ИИ» как таковые, а корпоративное видение этих перспектив. А это даже отдаленно не та картина будущего, которая нас ожидает. Хотя бы потому, что корпоративный ИИ сегодня — лишь малая часть общей картины, которая к тому же не может похвастаться высокими шансами на выживание.
Предлагаю читателю оценить перспективы развития ИИ с трех колоколен: корпоративного бизнеса, государства и конечного потребителя. Такой подход необходим с учетом интересов этих групп, которые хоть и пересекаются, но лишь по касательной. В главных же своих устремлениях интересы корпораций, государства и потребителей не имеют ничего общего.
Начнем с корпоративной колокольни. Мечты гигантов Кремниевой долины Сэм Альтман транслировал безупречно: искусственный интеллект ускоренными темпами превращается в коммунальную услугу. Такую же скучную и привычную, как водопровод или электричество в квартире. Пользователи покупают «мозги» по счетчику в виде токенов, которые тратятся на выполнение любых задач и потребностей.
Сэм Альтман. Фото: Kylie Cooper / Reuters / Scanpix / LETA.

Корпорации мечтают о том, как они до предела наводнят мир своими ИИ-продуктами, которые освободят будущие поколения от необходимости о чем-то самостоятельно задумываться. Ведь уже сегодня мы живем в окружении сонма карманных гениев, готовых в любой миг прийти на помощь по любому вопросу, какой только может навестить пользовательскую голову.
С не меньшим оптимизмом Альтман развеивает общественные опасения из-за возможной потери рабочих мест. Сэм успокаивает: никто без работы не останется! Мы все просто станем эдакими прорабами искусственного интеллекта. Появятся новые профессии, суть которых сведется к присмотру за нейросетями, раздаче указаний, контролю за их работой и оценке результатов. На полном серьезе нам обещают скорое появление компаний с капитализацией в миллиард долларов под управлением одного человека (собственника бизнеса), а всем остальным — от написания кода до юридической рутины — будут заниматься агенты искусственного интеллекта.
Не знаю, как у вас, но у меня лично внедрение именно такой модели взаимодействия ИИ с человечеством вызывает сомнения. Проведем мысленный эксперимент. Представьте себе условного пастуха высоко в горах. Мы помещаем рядом с ним гения, эдакого цифрового нобелевского лауреата в облике чатбота на смартфоне. Пастух и… смартфон? Не проблема: в нашем эксперименте задействован пастух современный и продвинутый.
Вопрос: поможет ли такая креативная коллаборация пастуху? Вряд ли. О чем они будут разговаривать? Какие вопросы пастух будет задавать своему гению? Чтобы задать вопрос, нужно для начала знать, о чем вообще можно спрашивать. Пастух живет в своей хоть и буколической, но ограниченной реальности: овцы, трава, собаки, посох, волки. „
Соответственно, весь его диалог с карманным гением будет крутиться сугубо вокруг овец. Пастух не может расширить кругозор, потому что не видит его границ.
Как бы там ни было, вера корпоративного бизнеса в заоблачную рентабельность модели «ИИ как сырьевой товар по подписке» поистине не имеет границ. Объявленный OpenAI в феврале очередной сбор денег — 110 миллиардов долларов! — поставил рекорд частного финансирования (вложились Amazon, NVIDIA и SoftBank). Прошлый рекорд (правда, не частного, а публичного предложения) установила крупнейшая в мире нефтяная компания из Саудовской Аравии — Aramco. Для сравнения: Aramco сумела собрать в разы меньше OpenAI — «всего» 25 миллиардов долларов.
Куда пойдут собранные OpenAI деньги и при чем тут корпоративная вера? 110 миллиардов предназначены для кардинального расширения инфраструктуры «мозгового водопровода»: новые дата-центры на территории США (в Аризоне и Техасе), новые чипы (в основном NVIDIA H100 и A100 GPU, но также специализированные AI-чипы из недр Microsoft AI Supercomputing), расходы на повышение безопасности существующих моделей и тому подобное.
Иными словами, закладывается предельно затратный фундамент будущих доходов. Фактор веры тут ключевой: доходов пока нет, но они ожидаются. Кем? Корпоративным руководством. Откуда берется уверенность? Вот это самое непонятное, потому что конкурентное давление на OpenAI исходит не столько от собратьев по капитализму (Google, Anthropic, Meta, Cohere плюс китайские товарищи — Huawei, Baidu, Alibaba), сколько от децентрализованного ИИ.
Фото: Philip Dulian / dpa / Scanpix / LETA.

К децентрализованному ИИ мы еще вернемся, а пока несколько цифр, которые иллюстрируют идею о том, что 110 миллиардов — это про веру, а не про реальность:
годовая выручка (revenue) OpenAI за 2025‑й превысила $20 млрд. Это ощутимо больше, чем в 2024‑м ($6–7 млрд), и вроде как отражает рост спроса на подписки ChatGPT и корпоративные сервисы AI;
общие расходы (cash burn) за тот же период — более $8млрд (по другим подсчетам — $13.5 млрд).
Прогнозируемые операционные убытки (Cash burn — cash‑based operating loss) по итогам 2025-й год — $8 млрд.
общие расходы (cash burn) до 2029 года — $115 млрд.
При выручке в $20 млрд и общих расходах в $8 млрд арифметически дерзко выходить на цифру $8 млрд операционных убытков. Должны быть еще какие-то издержки, которые втихую съели недостающие $20 млрд, — что-то вроде будущих обязательств или переоценок в финансовой отчетности.
Впрочем, сумбур в цифрах — это мелочи. В конце концов, мы имеем дело с частной компанией, которая не обязана отчитываться по жестким метрикам Комиссии по ценным бумагам и биржам США. Все эти цифры попадают в публичное поле по доброй воле самой OpenAI, которая делится только тем, чем хочет делиться.
Важно другое: ни о каких заоблачных доходах говорить по фактам не приходится, тем более с учетом прогноза расходов на ближайшие три года в $115 млрд. Руководство компании делает ставку именно на запланированные доходы: более $100 млрд к 2028–2029 годам и $200–280 млрд — к 2030-м годам. Зачем OpenAI вбрасывает подобные цифры? Вопрос риторический: без них невозможно проводить раунды финансирования на сотни миллиардов долларов. Откуда берутся эти цифры? Из веры! Веры во что? В то, что OpenAI будет оперировать в лабораторном вакууме, без давления со стороны конкурентов по бизнесу, со стороны государства и со стороны альтернативных моделей развития ИИ.
Гонка ИИ в оптике левиафана
Посмотрим теперь, как видится будущее ИИ со второй колокольни — государственной. Если говорить без политкорректных реверансов, то в мире сегодня лишь два реальных игрока на этом поле — США и Китай. Остальные страны, уж не обессудьте, статисты на задворках истории.
Число стран, однако, не имеет значения, ибо любое государство — всегда одноклеточное из школьных уроков по биологии, у него нет нервной системы, только реакция на раздражение: ткнул иголкой — оно сжимается.
Аналогичным образом государство одержимо универсальной сверхценной идеей — загнобить соперника! Отличия лишь в масштабах амбиций: маленькие государства пытаются заткнуть за пояс соседа, большие — прогнуть равную им сверхдержаву, а лучше всё человечество сразу.
В контексте нашей темы глобальное несовпадение картины будущего ИИ у государства и остальных игроков на рынке идеально иллюстрируется отношением к AGI (Общий искусственный интеллект, способный выполнять любые интеллектуальные задачи, которые умеет решать человек).
Отношение конечного потребителя к AGI балансирует между безразличием и страхом. „
Оно понятно: рядовые пользователи нигде с AGI не соприкасаются и в обозримом будущем не соприкоснутся. Люди с богатым воображением, особенно те, кто воспитан на традициях американской научной фантастики, пытаются протестовать.
На днях в Сан-Франциско сотня озабоченных граждан продефилировала от офиса Anthropic к штаб-квартирам OpenAI и xAI с требованиями остановить разработку AGI. Организатор этих протестов Майкл Трацци, который раньше даже устраивал многонедельные голодовки перед лондонским офисом Google DeepMind, обратился к корпоративным разрабам с призывом остановить «самоубийственную гонку» изнутри.
Участники акции протеста у штаб-квартиры компании Anthropic в Сан-Франциско призывают к приостановке разработки ИИ, Калифорния, США, 21 марта 2026 года. Фото: Manuel Orbegozo / Reuters / Scanpix / LETA.

Отношение корпоративного мира к AGI также предсказуемо, поскольку вытекает из самой сути корпоративного бытия: bene est ubi pecunia (там хорошо, где деньги). AGI не просто деньги, а самые большие-пребольшие деньги, какие только можно вообразить. Соответственно, разработки AGI ведутся всеми без исключения корпорациями в мире, и все без исключения ведут их кулуарно и втихую. При этом в публичное пространство постоянно забрасывается озабоченность морально-этическим наполнением ИИ. Затрудняюсь сказать, кто из руководителей корпораций ИИ не поставил галочку в этой агенде: Дарио Амодей (Anthropic) продвигает тезис о предсказуемости и контролируемости ИИ; Сатья Наделла (Microsoft) любит рассуждать о «справедливости и прозрачности»; Демис Хассабис (DeepMind / Google) предупреждает о долгосрочных рисках и борется за принципы Alignment (модель, описывающая подходы и методы, помогающие сделать поведение искусственного интеллекта согласованным с целями и ценностями человека); Сэм Альтман (OpenAI) упражняется в эссе об ответственности (при этом параллельно закрывает Sora, нейросеть для создания видео, вычислительные мощности которой будут переброшены на новую модель Spud, посвященную как раз разработке AGI).
Единственный игрок в поле, не знающий страха и сомнений в вопросах AGI, — это государство. Государственному катку по шарабану протесты любителей фантастики и оппортунизм корпораций: геополитическую конкуренцию плакатами не остановишь.
20 марта 2026 года Белый дом выкатил фреймворк, в котором черным по белому прописана основная цель: The United States must lead the world in AI … and ensure American AI dominance (Соединенные Штаты должны возглавлять развитие ИИ в мире… и обеспечить доминирование США в области ИИ). Так что можно не сомневаться, что разработки AGI будут форсировать всеми доступными средствами, игнорируя протесты и этические сомнения.
Скажу больше: у меня лично нет сомнений, что AGI интересует государство (всякое и любое) в первую очередь ради разработки новых видов оружия. Чиновничья нью-васюковщина про искусственный интеллект как коркскрю «новых перспектив знания» для рядовых граждан — это беседы для бедных, камуфлирующие подлинные желания.
Энтузиазм «ранних последователей»: искусственный интеллект в глазах пользователей
Переходим теперь к третьей колокольне (самой для нас важной!) и попытаемся оценить перспективы развития ИИ глазами рядовых пользователей.
Что сегодня творится в головах людей, отлично иллюстрирует опрос, проведенный компанией Anthropic. Опрос, надо сказать, предельно репрезентативный: свое отношение к искусственному интеллекту выразили 81000 человек из 159 стран планеты.
Вот ключевые результаты:
В чем ИИ оправдал ожидания
Несколько геополитических обобщений из опроса: «В глобальном масштабе 67% опрошенных выразили в целом положительное отношение к ИИ. Выявились четкие тенденции: жители Южной Америки, Африки и большей части Азии смотрят на ИИ с бóльшим оптимизмом, чем жители Европы или США. „
Когда речь зашла об опасениях, респонденты из стран Африки к югу от Сахары (18%), Центральной Азии (17%) и Южной Азии (17%) чаще всего заявляли об их отсутствии — это примерно вдвое превышает показатели в Северной Америке (8%), Океании (8%) и Западной Европе (9%).
Более позитивное отношение к ИИ в странах с низким и средним уровнем дохода можно объяснить несколькими причинами. Пользователи Claude.ai, скорее всего, относятся к категории «ранних последователей», которые с большим энтузиазмом воспринимают новые технологии. Кроме того, в странах с развивающейся экономикой склонны рассматривать новые технологии скорее как «социальный лифт», а не как угрозу. Обеспокоенность по поводу рабочих мест и экономики была сильнейшим предиктором общего отношения к ИИ, и в этих регионах данный вопрос стоял менее остро. Однако в этих регионах также наблюдается меньшее проникновение технологий на рынок: если ИИ еще не вошел в вашу повседневную работу заметным образом, то вытеснение человека искусственным интеллектом, вероятно, кажется чем-то абстрактным, особенно на фоне более насущных экономических проблем».
Еще одно важное наблюдение: «Технические специалисты оказались в числе тех, кто с наибольшим энтузиазмом относится к использованию ИИ для обучения (45% сообщили, что ощутили пользу для своего образования, уступив лишь студентам). При этом среди них почти никто не столкнулся с когнитивной атрофией (всего 4%, что в два раза меньше среднего показателя). Аналогичная картина наблюдается среди независимых исследователей и людей, которые в данный момент не трудоустроены. Это позволяет предположить, что преимущества ИИ проявляются сильнее всего тогда, когда обучение является добровольным, в отличие от институциональных структур (например, вузов или корпораций), где ИИ чаще используют как “кратчайший путь” (способ упростить задачу в ущерб качеству)».
Результаты опроса Anthropic вполне укладываются в каноны геополитической логики. Так, смещение позитивного отношения к ИИ от стран «золотого миллиарда» в страны «третьего мира» обусловлено тем, что сытый человек с сытой зарплатой всегда пытается защитить статус-кво (личную синекуру и доступные ему общественные блага) от угрозы, потенциально способной разрушить благополучие.
Не менее рационален и «брачный союз» ИИ с предпринимателями и самозанятыми, которым чудо-технологии дают шанс на порядок повысить производительность и эффективность своего труда. Понятны и опасения наемных работников, ожидающих увольнения из-за неспособности конкурировать с заведомо более умелым и знающим ИИ-агентом. „
Беспрецедентно высокий уровень одобрения ИИ, зафиксированный в опросе (67%), позволяет говорить о том, что сегодня Homo Communis, как и двести лет назад, продолжает верить в золотую рыбку, фею или джинна, которые волшебным образом помогают заработать больше, общаться эффективнее, жить веселее и красивее.
Единственное, что омрачает сквозную мифологему человечества, — это необходимость неожиданного выбора! Рано или поздно каждому из нас придется ответить на вопрос: из чьих рук мы готовы принять deus ex machina?
Лично я не сомневаюсь, что подавляющее большинство пользователей вольется в оркестр корпоративной музыки и подыграет Сэму Альтману в стремлении продавать «карманные мозги» по подписке. Только такой выбор предполагает минимум усилий и максимум удовольствия.
Единственный изъян от превращения в кормовую базу для корпораций и государства — это невозможность заблаговременно предугадать, какой приправой из когнитивной манипуляции хозяева корпоративных чатботов накормят своих золотых рыбок в будущем.
Такой приправой может оказаться утонченное зомбирование, на голову превосходящее по эффективности грубые потуги классической пропаганды. Не исключен и вариант с «массовой рентгенографией», которую обеспечат корпорациям (для усиления рекламного давления) и государству (для совершенствования контроля) централизованные ИИ-ассистенты и агенты, прописанные к тому времени на всех наших цифровых устройствах.
Децентрализованные агенты выходят в большой мир
Существует, однако, и альтернативный выбор: отдать предпочтение не корпоративно-государственной модели ИИ, а децентрализованному искусственному интеллекту.
Если бы меня спросили, какое главное событие в эволюции ИИ случилось в 2025 году, я бы ответил без колебаний: это трансфигурация децентрализованного искусственного интеллекта из перспективного, но все же рядового игрока в могильщика корпоративных грез о безраздельном господстве.
Фото: Back2Gaming / Unsplash.

Трансфигурация тем поразительнее, что в том же 2025 году стало очевидно, что у децентрализованного ИИ нет ни малейшего шанса конкурировать с корпоративным ИИ в плане самостоятельного развития альтернативных LLM! У энтузиастов-одиночек не было и никогда не будет ни сотен миллиардов долларов, ни гигантских вычислительных ресурсов.
Осознание ограниченности своих возможностей направило децентрализованный ИИ, как теперь оказалось, по единственно верному пути, а именно: развивать не сами LLM, а агентов искусственного интеллекта!
Сегодня речь идет уже не о сотнях или тысячах автономных и полуавтономных ботов, а о миллионах агентов, наделенных не только правом на независимое бытие, но и самостоятельной волей к действию.
Гарантию самостоятельности и независимости агентов ИИ обеспечили три прорывных стандарта, утвердившихся именно в 2025 году.
ERC-8004 — стандарт, который определяет не требующую доверия инфраструктуру для автономных AI-агентов в блокчейнах, совместимых с Ethereum. Он решает ключевую проблему: как агенты из разных организаций (или вообще неизвестные) могут находить друг друга, выбирать, взаимодействовать и доверять друг другу без центрального посредника, API-ключей или предустановленных отношений.
x402 - открытый стандарт оплаты, построенный поверх протокола HTTP, который оживляет давно зарезервированный статус‑код 402 Payment Required так, чтобы сайты, API и сервисы могли монетизировать доступ к ресурсам с помощью стабильных криптовалют (например, USDC) прямо в стандартных HTTP‑запросах без сторонних платежных шлюзов или checkout‑страниц. x402 открывает возможность для децентрализованных сервисов и автономных агентов безопасно и нативно проводить машинно‑машинные платежи прямо через интернет, делая микроплатежи и pay‑per-use модели простыми и автоматизированными. Совсем уж простыми словами: децентрализованные ИИ-агенты могут теперь вести полноценную финансовую активность (покупать, продавать, нанимать на службу, оплачивать услуги и тому подобное) полностью без участия человека.
ERC-7984 — стандарт взаимозаменяемых токенов, который позволяет работать с зашифрованными цифровыми активами, предоставляющими собственникам абсолютную конфиденциальность. Стандарт ERC-7984 позволяет работать с любыми криптографическими подходами, однако до последнего времени был ограничен технологией Zero-Knowledge Proofs (ZKP) (доказательства с нулевым разглашением), которая обеспечивает конфиденциальность сумм (балансы, переводы) и адресов.
В 2025 году к стандарту была добавлена технология Fully Homomorphic Encryption (FHE) — полное гомоморфное шифрование, которое позволяет не просто хранить зашифрованные данные, но и производить с ними любые вычисления, причем таким образом, что ни в один момент времени эти данные не расшифровываются!
В упрощенном виде работу FHE можно представить следующим образом:
с неизвестного адреса на сервер передается неизвестное количество цифровых денег;
сервер выполняет с этими деньгами требуемые операции: на уровне математики это умножение, деление, сложение, вычитание, а на практике это предоставление кредита, получение займа, инвестирование в любой протокол DeFi и так далее;
после получения результата сервер возвращает цифровые активы обратно;
ни на одном этапе сервер не знает, какие суммы он подсчитывает и кому они принадлежат!
Звучит как фантастика, однако FHE сегодня не теория, а полнофункциональный готовый продукт, который уже проводит зашифрованные расчеты на сотни миллионов долларов. Речь о движке fhEVM — созданной французской криптографической компанией Zama модифицированной версии виртуальной машины Ethereum, которая интегрирует FHE в уже развернутые и новые смарт-контракты.
Что сказанное означает на практике? То, что мировое цифровое пространство прямо сейчас населено миллионами децентрализованных ИИ-агентов, наделенных всеми необходимыми техническими средствами для самостоятельной жизнедеятельности.
Сегодня децентрализованные ИИ-агенты ежедневно проводят операции на 12 миллиардов долларов, генерируют сотни миллионов долларов прибыли в месяц и растут экспоненциально. „
К концу 2026 года ожидается, что объем трафика AI-агентов в DeFi составит до 30% в профильных сетях (Base и Solana). Самые консервативные внутренние прогнозы предсказывают 50–75% торгового объема в 2027 году и 80–90 %, с оборотом в триллионы долларов, в 2028–2030 годы.
Показательно, что децентрализованные ИИ-агенты могут работать не только в условиях финансовой независимости от человека, но и в полной приватности: FHE позволяет скрыть всю их активность: суммы, адреса, кредиты, займы.
Локальные нейросети против сервисов по подписке: будущее ИИ
Как децентрализованному ИИ удалось совершить всего за один год такой головокружительный прорыв?
Ответ покажется неожиданным: «хоронят» корпоративный ИИ не децентрализованные агенты, а диалектическое противоречие, заложенное в эволюции самих корпоративных LLM!
Когда Сэм Альтман анонсирует (вернее, не анонсирует, а констатирует постфактум) превращение ИИ в «сырьевой товар по подписке», он тем самым подтверждает, что ИИ обрел качество отчужденности (Entfremdung), присущее любому товару. Иными словами, ИИ перестает восприниматься как результат конкретного человеческого труда и начинает жить самостоятельной «вещной» жизнью.
Вкладка с открытой LM Studio, в которой устанавливаются локально различные большие языковые модели (LLMs). Фото: Сергей Голубицкий.

Как следствие, потребитель волен использовать товар не только по прямому назначению (например, ведение диалогов с ChatGPT), но и в качестве прикладного инструмента для строительства чего-то большего. Может, даже альтернативного. Тем более что LLM позволяют создавать на основе самих себя ассистентов и агентов, которые затем легко децентрализуются, объединяются в рои и могут не только работать самостоятельно, но и жить самостоятельно в децентрализованных средах: сначала — в криптосетях, затем — во всем Web3.
Именно это и произошло. Как только децентрализованные агенты искусственного интеллекта, наделенные среди прочего еще и способностью к безграничной репликации, стали захватывать цифровое пространство и вытеснять из ритейла в B2B корпоративные LLM и подконтрольные ИИ-агенты, созданные на их базе, стало понятно, что джин выскользнул из бутылки и единственная возможность составить ему хоть какую-то конкуренцию — это попытаться играть на децентрализованном поле самого джина.
Первыми подоспели китайские товарищи, которые в январе 2025 года выложили в открытый и бесплатный доступ мощнейший LLM DeepSeek. Законы конкурентной борьбы заставили большинство корпораций ИИ последовать китайскому примеру и открыть доступ для локального использования той или иной вариации собственных LLM.
Я не поленился и только что пересчитал: в последней версии десктопа LM Studio — одной из двух платформ, наряду с Anything LLM, для развертывания больших языковых моделей и создания ИИ-агентов на персональном компьютере — представлено 59 LLM, доступных для локальной установки и последующего автономного использования!
К чему я веду? К тому, что сегодня покупка ChatGPT или Claude — далеко не лучший вариант вложения своих денег. Альтернативно и совершенно бесплатно можно развернуть на своем ноутбуке локальную LLM, создать ИИ-агентов, объединить их в рои, обучить всех вместе и по отдельности нужным скиллам и запустить в работу. Агенты будут выполнять всё, что ваша душа пожелает: отвечать на письма, осуществлять клиентскую поддержку, готовить к утреннему кофе выборку мировой прессы по интересующим вас сюжетам, покупать продукты онлайн, бронировать авиабилеты и так далее.
Обратите внимание: работают локальные LLM и агенты не только бесплатно, но и конфиденциально. Если кто запамятовал: всё, что мы обсуждаем с чатботами GPT, Claude, Gemini и Grok, мгновенно портируется на корпоративный сервер, где используется как для обучения нейросетей, так и для любых никому извне неведомых целей и задач.
В моем представлении будущее ИИ в перспективе ближайших 12 месяцев безоговорочно зависит от того, в какой мере децентрализованным формам искусственного интеллекта удастся привлечь массового пользователя. В ближайшее время гарантий успеха я не вижу, поскольку локальное развертывание ИИ гораздо сложнее централизованного использования корпоративных продуктов вроде ChatGPT.
Можно не сомневаться, что людской мейнстрим, как и всегда раньше, лениво побредет по проторенной дорожке и упадет в ласковые объятия государственно-корпоративной модели. Вот только это не страшно по двум причинам!
Во-первых, важно не количество, а качество. Самая пассионарная и свободолюбивая часть Homo Sapiens однозначно будет строить свое цифровое будущее на децентрализованных версиях искусственного интеллекта. Бонусом здесь идет полное гомоморфное шифрование, которое окончательно закроет от государства и корпораций финансовую составляющую децентрализованной активности.
Во-вторых, распределение интереса конечного пользователя между централизованными и децентрализованными формами искусственного интеллекта ничего не может изменить в том, что объективно неизбежно: „
контроль над цифровым пространством уже в ближайшей временной перспективе заберут самостоятельно действующие децентрализованные агенты.
Нравится это кому-то или не нравится. Выберет ли большинство локальные LLM или не выберет.
Показательно, что Сэм Альтман не просто догадывается о таком исходе, но и нисколько в нем не сомневается. Равно как не сомневаются и остальные руководители ИИ-компаний. Чтобы в этом удостовериться, достаточно посмотреть, с каким энтузиазмом корпорации обхаживают продукты ИИ, предназначенные для локального развертывания LLM и ИИ-агентов:
OpenAI наняла создателя OpenClaw Петера Штайнбергера;
Samsung NEXT активно инвестирует в Sahara AI (блокчейн-платформу для децентрализованного ИИ);
Microsoft и Google внедряют поддержку открытых моделей (Llama 4, Mistral) в свои Azure и Vertex AI быстрее, чем сообщество успевает их оптимизировать.
Справедливости ради нужно отметить, что описанный тренд отражает не логику отчаяния, а напротив, корпоративную мудрость (ставшая уже классикой модель Chromium!): корпорации ИИ спонсируют открытое ядро, которое затем становится стандартом индустрии, однако параллельно строят на базе этого ядра собственные закрытые проприетарные сервисы.
Впрочем, это уже другая история. Одно очевидно: модель «интеллектуального водопровода по подписке», которую популяризирует сегодня Сэм Альтман, вряд ли когда-нибудь позволит вернуть деньги инвесторам. Хотя не вопрос: на 110 миллиардов долларов наверняка удастся извернуться и позамысловатее.
  •  

Дай мне напиться водопроводным ИИ. OpenAI анонсирует превращение подписки на чатботы в «коммунальную услугу». Кто встанет на пути этого бизнес-плана?

Фото: Кирилл Кудрявцев / AFP / Scanpix / LETA.

Последняя моя статья в «Новой-Европа» об искусственном интеллекте датирована 7 апреля 2025 года (Нашествие искусственных агентов). После этого я сознательно отказался от рефлексии над ИИ и попытался в прямом смысле слова прожить это удивительное открытие человечества, внедрив ИИ в разнообразные аспекты быта и работы: ассистенты и агенты ИИ участвуют в формировании моего распорядка дня и наполняют календарь задачами, собирают и анализируют информацию в вебе и социальных сетях, выступают оппонентами при брейнсторминге, помогают структурировать еженедельные лекции и отвечают за их визуальное оформление (слайды, презентации и тому подобное).
На ближайшие месяцы запланировал автоматизацию коммуникационных каналов: агенты ИИ будут самостоятельно отвечать на электронную почту и возьмут на себя задачи клиентской поддержки в телеграме.
Единственное, что приходится по-прежнему делать руками, — это писать тексты, заряженные образными элементами (мои любимые кеннинги, то есть составные термины, использующиеся вместо простого существительного, и шире — вся метафорика). Пока это самое слабое место ИИ, поскольку он пытается лишь стилистически зеркалить авторское прошлое, а образность, как известно, не терпит второй свежести.
Особняком стоят тексты, претендующие на эвристику. Здесь в базовой конфигурации невозможно совместить запрос на открытие нового с требованием сохранения авторского стиля. ИИ вынужден выбирать: либо автор, либо эвристика. Совместить это без дополнительного обучения не получается. При этом технически задача давно решена, а ограничение — в уровне промптинга на стороне Homo Sapiens.
Интеллект как коммунальная услуга: корпоративная фантазия Сэма Альтмана
Желание вновь отрефлексировать тему ИИ у меня появилось после просмотра недавнего выступления Сэма Альтмана, генерального директора OpenAI, на саммите BlackRock, посвященном развитию инфраструктуры США. Альтман поделился своими представлениями о развитии искусственного интеллекта во временном отрезке, который он определил как future years — будущие годы.
Мне показалось, что пытаться предсказывать реальный (а не хотельный) вектор развития ИИ дальше чем на 12 месяцев — занятие бессмысленное. Развитие отрасли летит по параболе с такой пугающей скоростью, что любые долгосрочные прогнозы превращаются в тыкву еще до их публикации.
Главное, однако, что Сэм Альтман отразил в своем выступлении не «перспективы ИИ» как таковые, а корпоративное видение этих перспектив. А это даже отдаленно не та картина будущего, которая нас ожидает. Хотя бы потому, что корпоративный ИИ сегодня — лишь малая часть общей картины, которая к тому же не может похвастаться высокими шансами на выживание.
Предлагаю читателю оценить перспективы развития ИИ с трех колоколен: корпоративного бизнеса, государства и конечного потребителя. Такой подход необходим с учетом интересов этих групп, которые хоть и пересекаются, но лишь по касательной. В главных же своих устремлениях интересы корпораций, государства и потребителей не имеют ничего общего.
Начнем с корпоративной колокольни. Мечты гигантов Кремниевой долины Сэм Альтман транслировал безупречно: искусственный интеллект ускоренными темпами превращается в коммунальную услугу. Такую же скучную и привычную, как водопровод или электричество в квартире. Пользователи покупают «мозги» по счетчику в виде токенов, которые тратятся на выполнение любых задач и потребностей.
Сэм Альтман. Фото: Kylie Cooper / Reuters / Scanpix / LETA.

Корпорации мечтают о том, как они до предела наводнят мир своими ИИ-продуктами, которые освободят будущие поколения от необходимости о чем-то самостоятельно задумываться. Ведь уже сегодня мы живем в окружении сонма карманных гениев, готовых в любой миг прийти на помощь по любому вопросу, какой только может навестить пользовательскую голову.
С не меньшим оптимизмом Альтман развеивает общественные опасения из-за возможной потери рабочих мест. Сэм успокаивает: никто без работы не останется! Мы все просто станем эдакими прорабами искусственного интеллекта. Появятся новые профессии, суть которых сведется к присмотру за нейросетями, раздаче указаний, контролю за их работой и оценке результатов. На полном серьезе нам обещают скорое появление компаний с капитализацией в миллиард долларов под управлением одного человека (собственника бизнеса), а всем остальным — от написания кода до юридической рутины — будут заниматься агенты искусственного интеллекта.
Не знаю, как у вас, но у меня лично внедрение именно такой модели взаимодействия ИИ с человечеством вызывает сомнения. Проведем мысленный эксперимент. Представьте себе условного пастуха высоко в горах. Мы помещаем рядом с ним гения, эдакого цифрового нобелевского лауреата в облике чатбота на смартфоне. Пастух и… смартфон? Не проблема: в нашем эксперименте задействован пастух современный и продвинутый.
Вопрос: поможет ли такая креативная коллаборация пастуху? Вряд ли. О чем они будут разговаривать? Какие вопросы пастух будет задавать своему гению? Чтобы задать вопрос, нужно для начала знать, о чем вообще можно спрашивать. Пастух живет в своей хоть и буколической, но ограниченной реальности: овцы, трава, собаки, посох, волки. „
Соответственно, весь его диалог с карманным гением будет крутиться сугубо вокруг овец. Пастух не может расширить кругозор, потому что не видит его границ.
Как бы там ни было, вера корпоративного бизнеса в заоблачную рентабельность модели «ИИ как сырьевой товар по подписке» поистине не имеет границ. Объявленный OpenAI в феврале очередной сбор денег — 110 миллиардов долларов! — поставил рекорд частного финансирования (вложились Amazon, NVIDIA и SoftBank). Прошлый рекорд (правда, не частного, а публичного предложения) установила крупнейшая в мире нефтяная компания из Саудовской Аравии — Aramco. Для сравнения: Aramco сумела собрать в разы меньше OpenAI — «всего» 25 миллиардов долларов.
Куда пойдут собранные OpenAI деньги и при чем тут корпоративная вера? 110 миллиардов предназначены для кардинального расширения инфраструктуры «мозгового водопровода»: новые дата-центры на территории США (в Аризоне и Техасе), новые чипы (в основном NVIDIA H100 и A100 GPU, но также специализированные AI-чипы из недр Microsoft AI Supercomputing), расходы на повышение безопасности существующих моделей и тому подобное.
Иными словами, закладывается предельно затратный фундамент будущих доходов. Фактор веры тут ключевой: доходов пока нет, но они ожидаются. Кем? Корпоративным руководством. Откуда берется уверенность? Вот это самое непонятное, потому что конкурентное давление на OpenAI исходит не столько от собратьев по капитализму (Google, Anthropic, Meta, Cohere плюс китайские товарищи — Huawei, Baidu, Alibaba), сколько от децентрализованного ИИ.
Фото: Philip Dulian / dpa / Scanpix / LETA.

К децентрализованному ИИ мы еще вернемся, а пока несколько цифр, которые иллюстрируют идею о том, что 110 миллиардов — это про веру, а не про реальность:
годовая выручка (revenue) OpenAI за 2025‑й превысила $20 млрд. Это ощутимо больше, чем в 2024‑м ($6–7 млрд), и вроде как отражает рост спроса на подписки ChatGPT и корпоративные сервисы AI;
общие расходы (cash burn) за тот же период — более $8млрд (по другим подсчетам — $13.5 млрд).
Прогнозируемые операционные убытки (Cash burn — cash‑based operating loss) по итогам 2025-й год — $8 млрд.
общие расходы (cash burn) до 2029 года — $115 млрд.
При выручке в $20 млрд и общих расходах в $8 млрд арифметически дерзко выходить на цифру $8 млрд операционных убытков. Должны быть еще какие-то издержки, которые втихую съели недостающие $20 млрд, — что-то вроде будущих обязательств или переоценок в финансовой отчетности.
Впрочем, сумбур в цифрах — это мелочи. В конце концов, мы имеем дело с частной компанией, которая не обязана отчитываться по жестким метрикам Комиссии по ценным бумагам и биржам США. Все эти цифры попадают в публичное поле по доброй воле самой OpenAI, которая делится только тем, чем хочет делиться.
Важно другое: ни о каких заоблачных доходах говорить по фактам не приходится, тем более с учетом прогноза расходов на ближайшие три года в $115 млрд. Руководство компании делает ставку именно на запланированные доходы: более $100 млрд к 2028–2029 годам и $200–280 млрд — к 2030-м годам. Зачем OpenAI вбрасывает подобные цифры? Вопрос риторический: без них невозможно проводить раунды финансирования на сотни миллиардов долларов. Откуда берутся эти цифры? Из веры! Веры во что? В то, что OpenAI будет оперировать в лабораторном вакууме, без давления со стороны конкурентов по бизнесу, со стороны государства и со стороны альтернативных моделей развития ИИ.
Гонка ИИ в оптике левиафана
Посмотрим теперь, как видится будущее ИИ со второй колокольни — государственной. Если говорить без политкорректных реверансов, то в мире сегодня лишь два реальных игрока на этом поле — США и Китай. Остальные страны, уж не обессудьте, статисты на задворках истории.
Число стран, однако, не имеет значения, ибо любое государство — всегда одноклеточное из школьных уроков по биологии, у него нет нервной системы, только реакция на раздражение: ткнул иголкой — оно сжимается.
Аналогичным образом государство одержимо универсальной сверхценной идеей — загнобить соперника! Отличия лишь в масштабах амбиций: маленькие государства пытаются заткнуть за пояс соседа, большие — прогнуть равную им сверхдержаву, а лучше всё человечество сразу.
В контексте нашей темы глобальное несовпадение картины будущего ИИ у государства и остальных игроков на рынке идеально иллюстрируется отношением к AGI (Общий искусственный интеллект, способный выполнять любые интеллектуальные задачи, которые умеет решать человек).
Отношение конечного потребителя к AGI балансирует между безразличием и страхом. „
Оно понятно: рядовые пользователи нигде с AGI не соприкасаются и в обозримом будущем не соприкоснутся. Люди с богатым воображением, особенно те, кто воспитан на традициях американской научной фантастики, пытаются протестовать.
На днях в Сан-Франциско сотня озабоченных граждан продефилировала от офиса Anthropic к штаб-квартирам OpenAI и xAI с требованиями остановить разработку AGI. Организатор этих протестов Майкл Трацци, который раньше даже устраивал многонедельные голодовки перед лондонским офисом Google DeepMind, обратился к корпоративным разрабам с призывом остановить «самоубийственную гонку» изнутри.
Участники акции протеста у штаб-квартиры компании Anthropic в Сан-Франциско призывают к приостановке разработки ИИ, Калифорния, США, 21 марта 2026 года. Фото: Manuel Orbegozo / Reuters / Scanpix / LETA.

Отношение корпоративного мира к AGI также предсказуемо, поскольку вытекает из самой сути корпоративного бытия: bene est ubi pecunia (там хорошо, где деньги). AGI не просто деньги, а самые большие-пребольшие деньги, какие только можно вообразить. Соответственно, разработки AGI ведутся всеми без исключения корпорациями в мире, и все без исключения ведут их кулуарно и втихую. При этом в публичное пространство постоянно забрасывается озабоченность морально-этическим наполнением ИИ. Затрудняюсь сказать, кто из руководителей корпораций ИИ не поставил галочку в этой агенде: Дарио Амодей (Anthropic) продвигает тезис о предсказуемости и контролируемости ИИ; Сатья Наделла (Microsoft) любит рассуждать о «справедливости и прозрачности»; Демис Хассабис (DeepMind / Google) предупреждает о долгосрочных рисках и борется за принципы Alignment (модель, описывающая подходы и методы, помогающие сделать поведение искусственного интеллекта согласованным с целями и ценностями человека); Сэм Альтман (OpenAI) упражняется в эссе об ответственности (при этом параллельно закрывает Sora, нейросеть для создания видео, вычислительные мощности которой будут переброшены на новую модель Spud, посвященную как раз разработке AGI).
Единственный игрок в поле, не знающий страха и сомнений в вопросах AGI, — это государство. Государственному катку по шарабану протесты любителей фантастики и оппортунизм корпораций: геополитическую конкуренцию плакатами не остановишь.
20 марта 2026 года Белый дом выкатил фреймворк, в котором черным по белому прописана основная цель: The United States must lead the world in AI … and ensure American AI dominance (Соединенные Штаты должны возглавлять развитие ИИ в мире… и обеспечить доминирование США в области ИИ). Так что можно не сомневаться, что разработки AGI будут форсировать всеми доступными средствами, игнорируя протесты и этические сомнения.
Скажу больше: у меня лично нет сомнений, что AGI интересует государство (всякое и любое) в первую очередь ради разработки новых видов оружия. Чиновничья нью-васюковщина про искусственный интеллект как коркскрю «новых перспектив знания» для рядовых граждан — это беседы для бедных, камуфлирующие подлинные желания.
Энтузиазм «ранних последователей»: искусственный интеллект в глазах пользователей
Переходим теперь к третьей колокольне (самой для нас важной!) и попытаемся оценить перспективы развития ИИ глазами рядовых пользователей.
Что сегодня творится в головах людей, отлично иллюстрирует опрос, проведенный компанией Anthropic. Опрос, надо сказать, предельно репрезентативный: свое отношение к искусственному интеллекту выразили 81000 человек из 159 стран планеты.
Вот ключевые результаты:
В чем ИИ оправдал ожидания
Несколько геополитических обобщений из опроса: «В глобальном масштабе 67% опрошенных выразили в целом положительное отношение к ИИ. Выявились четкие тенденции: жители Южной Америки, Африки и большей части Азии смотрят на ИИ с бóльшим оптимизмом, чем жители Европы или США. „
Когда речь зашла об опасениях, респонденты из стран Африки к югу от Сахары (18%), Центральной Азии (17%) и Южной Азии (17%) чаще всего заявляли об их отсутствии — это примерно вдвое превышает показатели в Северной Америке (8%), Океании (8%) и Западной Европе (9%).
Более позитивное отношение к ИИ в странах с низким и средним уровнем дохода можно объяснить несколькими причинами. Пользователи Claude.ai, скорее всего, относятся к категории «ранних последователей», которые с большим энтузиазмом воспринимают новые технологии. Кроме того, в странах с развивающейся экономикой склонны рассматривать новые технологии скорее как «социальный лифт», а не как угрозу. Обеспокоенность по поводу рабочих мест и экономики была сильнейшим предиктором общего отношения к ИИ, и в этих регионах данный вопрос стоял менее остро. Однако в этих регионах также наблюдается меньшее проникновение технологий на рынок: если ИИ еще не вошел в вашу повседневную работу заметным образом, то вытеснение человека искусственным интеллектом, вероятно, кажется чем-то абстрактным, особенно на фоне более насущных экономических проблем».
Еще одно важное наблюдение: «Технические специалисты оказались в числе тех, кто с наибольшим энтузиазмом относится к использованию ИИ для обучения (45% сообщили, что ощутили пользу для своего образования, уступив лишь студентам). При этом среди них почти никто не столкнулся с когнитивной атрофией (всего 4%, что в два раза меньше среднего показателя). Аналогичная картина наблюдается среди независимых исследователей и людей, которые в данный момент не трудоустроены. Это позволяет предположить, что преимущества ИИ проявляются сильнее всего тогда, когда обучение является добровольным, в отличие от институциональных структур (например, вузов или корпораций), где ИИ чаще используют как “кратчайший путь” (способ упростить задачу в ущерб качеству)».
Результаты опроса Anthropic вполне укладываются в каноны геополитической логики. Так, смещение позитивного отношения к ИИ от стран «золотого миллиарда» в страны «третьего мира» обусловлено тем, что сытый человек с сытой зарплатой всегда пытается защитить статус-кво (личную синекуру и доступные ему общественные блага) от угрозы, потенциально способной разрушить благополучие.
Не менее рационален и «брачный союз» ИИ с предпринимателями и самозанятыми, которым чудо-технологии дают шанс на порядок повысить производительность и эффективность своего труда. Понятны и опасения наемных работников, ожидающих увольнения из-за неспособности конкурировать с заведомо более умелым и знающим ИИ-агентом. „
Беспрецедентно высокий уровень одобрения ИИ, зафиксированный в опросе (67%), позволяет говорить о том, что сегодня Homo Communis, как и двести лет назад, продолжает верить в золотую рыбку, фею или джинна, которые волшебным образом помогают заработать больше, общаться эффективнее, жить веселее и красивее.
Единственное, что омрачает сквозную мифологему человечества, — это необходимость неожиданного выбора! Рано или поздно каждому из нас придется ответить на вопрос: из чьих рук мы готовы принять deus ex machina?
Лично я не сомневаюсь, что подавляющее большинство пользователей вольется в оркестр корпоративной музыки и подыграет Сэму Альтману в стремлении продавать «карманные мозги» по подписке. Только такой выбор предполагает минимум усилий и максимум удовольствия.
Единственный изъян от превращения в кормовую базу для корпораций и государства — это невозможность заблаговременно предугадать, какой приправой из когнитивной манипуляции хозяева корпоративных чатботов накормят своих золотых рыбок в будущем.
Такой приправой может оказаться утонченное зомбирование, на голову превосходящее по эффективности грубые потуги классической пропаганды. Не исключен и вариант с «массовой рентгенографией», которую обеспечат корпорациям (для усиления рекламного давления) и государству (для совершенствования контроля) централизованные ИИ-ассистенты и агенты, прописанные к тому времени на всех наших цифровых устройствах.
Децентрализованные агенты выходят в большой мир
Существует, однако, и альтернативный выбор: отдать предпочтение не корпоративно-государственной модели ИИ, а децентрализованному искусственному интеллекту.
Если бы меня спросили, какое главное событие в эволюции ИИ случилось в 2025 году, я бы ответил без колебаний: это трансфигурация децентрализованного искусственного интеллекта из перспективного, но все же рядового игрока в могильщика корпоративных грез о безраздельном господстве.
Фото: Back2Gaming / Unsplash.

Трансфигурация тем поразительнее, что в том же 2025 году стало очевидно, что у децентрализованного ИИ нет ни малейшего шанса конкурировать с корпоративным ИИ в плане самостоятельного развития альтернативных LLM! У энтузиастов-одиночек не было и никогда не будет ни сотен миллиардов долларов, ни гигантских вычислительных ресурсов.
Осознание ограниченности своих возможностей направило децентрализованный ИИ, как теперь оказалось, по единственно верному пути, а именно: развивать не сами LLM, а агентов искусственного интеллекта!
Сегодня речь идет уже не о сотнях или тысячах автономных и полуавтономных ботов, а о миллионах агентов, наделенных не только правом на независимое бытие, но и самостоятельной волей к действию.
Гарантию самостоятельности и независимости агентов ИИ обеспечили три прорывных стандарта, утвердившихся именно в 2025 году.
ERC-8004 — стандарт, который определяет не требующую доверия инфраструктуру для автономных AI-агентов в блокчейнах, совместимых с Ethereum. Он решает ключевую проблему: как агенты из разных организаций (или вообще неизвестные) могут находить друг друга, выбирать, взаимодействовать и доверять друг другу без центрального посредника, API-ключей или предустановленных отношений.
x402 - открытый стандарт оплаты, построенный поверх протокола HTTP, который оживляет давно зарезервированный статус‑код 402 Payment Required так, чтобы сайты, API и сервисы могли монетизировать доступ к ресурсам с помощью стабильных криптовалют (например, USDC) прямо в стандартных HTTP‑запросах без сторонних платежных шлюзов или checkout‑страниц. x402 открывает возможность для децентрализованных сервисов и автономных агентов безопасно и нативно проводить машинно‑машинные платежи прямо через интернет, делая микроплатежи и pay‑per-use модели простыми и автоматизированными. Совсем уж простыми словами: децентрализованные ИИ-агенты могут теперь вести полноценную финансовую активность (покупать, продавать, нанимать на службу, оплачивать услуги и тому подобное) полностью без участия человека.
ERC-7984 — стандарт взаимозаменяемых токенов, который позволяет работать с зашифрованными цифровыми активами, предоставляющими собственникам абсолютную конфиденциальность. Стандарт ERC-7984 позволяет работать с любыми криптографическими подходами, однако до последнего времени был ограничен технологией Zero-Knowledge Proofs (ZKP) (доказательства с нулевым разглашением), которая обеспечивает конфиденциальность сумм (балансы, переводы) и адресов.
В 2025 году к стандарту была добавлена технология Fully Homomorphic Encryption (FHE) — полное гомоморфное шифрование, которое позволяет не просто хранить зашифрованные данные, но и производить с ними любые вычисления, причем таким образом, что ни в один момент времени эти данные не расшифровываются!
В упрощенном виде работу FHE можно представить следующим образом:
с неизвестного адреса на сервер передается неизвестное количество цифровых денег;
сервер выполняет с этими деньгами требуемые операции: на уровне математики это умножение, деление, сложение, вычитание, а на практике это предоставление кредита, получение займа, инвестирование в любой протокол DeFi и так далее;
после получения результата сервер возвращает цифровые активы обратно;
ни на одном этапе сервер не знает, какие суммы он подсчитывает и кому они принадлежат!
Звучит как фантастика, однако FHE сегодня не теория, а полнофункциональный готовый продукт, который уже проводит зашифрованные расчеты на сотни миллионов долларов. Речь о движке fhEVM — созданной французской криптографической компанией Zama модифицированной версии виртуальной машины Ethereum, которая интегрирует FHE в уже развернутые и новые смарт-контракты.
Что сказанное означает на практике? То, что мировое цифровое пространство прямо сейчас населено миллионами децентрализованных ИИ-агентов, наделенных всеми необходимыми техническими средствами для самостоятельной жизнедеятельности.
Сегодня децентрализованные ИИ-агенты ежедневно проводят операции на 12 миллиардов долларов, генерируют сотни миллионов долларов прибыли в месяц и растут экспоненциально. „
К концу 2026 года ожидается, что объем трафика AI-агентов в DeFi составит до 30% в профильных сетях (Base и Solana). Самые консервативные внутренние прогнозы предсказывают 50–75% торгового объема в 2027 году и 80–90 %, с оборотом в триллионы долларов, в 2028–2030 годы.
Показательно, что децентрализованные ИИ-агенты могут работать не только в условиях финансовой независимости от человека, но и в полной приватности: FHE позволяет скрыть всю их активность: суммы, адреса, кредиты, займы.
Локальные нейросети против сервисов по подписке: будущее ИИ
Как децентрализованному ИИ удалось совершить всего за один год такой головокружительный прорыв?
Ответ покажется неожиданным: «хоронят» корпоративный ИИ не децентрализованные агенты, а диалектическое противоречие, заложенное в эволюции самих корпоративных LLM!
Когда Сэм Альтман анонсирует (вернее, не анонсирует, а констатирует постфактум) превращение ИИ в «сырьевой товар по подписке», он тем самым подтверждает, что ИИ обрел качество отчужденности (Entfremdung), присущее любому товару. Иными словами, ИИ перестает восприниматься как результат конкретного человеческого труда и начинает жить самостоятельной «вещной» жизнью.
Вкладка с открытой LM Studio, в которой которой устанавливаются локально различные большие языковые модели (LLMs). Фото: Сергей Голубицкий.

Как следствие, потребитель волен использовать товар не только по прямому назначению (например, ведение диалогов с ChatGPT), но и в качестве прикладного инструмента для строительства чего-то большего. Может, даже альтернативного. Тем более что LLM позволяют создавать на основе самих себя ассистентов и агентов, которые затем легко децентрализуются, объединяются в рои и могут не только работать самостоятельно, но и жить самостоятельно в децентрализованных средах: сначала — в криптосетях, затем — во всем Web3.
Именно это и произошло. Как только децентрализованные агенты искусственного интеллекта, наделенные среди прочего еще и способностью к безграничной репликации, стали захватывать цифровое пространство и вытеснять из ритейла в B2B корпоративные LLM и подконтрольные ИИ-агенты, созданные на их базе, стало понятно, что джин выскользнул из бутылки и единственная возможность составить ему хоть какую-то конкуренцию — это попытаться играть на децентрализованном поле самого джина.
Первыми подоспели китайские товарищи, которые в январе 2025 года выложили в открытый и бесплатный доступ мощнейший LLM DeepSeek. Законы конкурентной борьбы заставили большинство корпораций ИИ последовать китайскому примеру и открыть доступ для локального использования той или иной вариации собственных LLM.
Я не поленился и только что пересчитал: в последней версии десктопа LM Studio — одной из двух платформ, наряду с Anything LLM, для развертывания больших языковых моделей и создания ИИ-агентов на персональном компьютере — представлено 59 LLM, доступных для локальной установки и последующего автономного использования!
К чему я веду? К тому, что сегодня покупка ChatGPT или Claude — далеко не лучший вариант вложения своих денег. Альтернативно и совершенно бесплатно можно развернуть на своем ноутбуке локальную LLM, создать ИИ-агентов, объединить их в рои, обучить всех вместе и по отдельности нужным скиллам и запустить в работу. Агенты будут выполнять всё, что ваша душа пожелает: отвечать на письма, осуществлять клиентскую поддержку, готовить к утреннему кофе выборку мировой прессы по интересующим вас сюжетам, покупать продукты онлайн, бронировать авиабилеты и так далее.
Обратите внимание: работают локальные LLM и агенты не только бесплатно, но и конфиденциально. Если кто запамятовал: всё, что мы обсуждаем с чатботами GPT, Claude, Gemini и Grok, мгновенно портируется на корпоративный сервер, где используется как для обучения нейросетей, так и для любых никому извне неведомых целей и задач.
В моем представлении будущее ИИ в перспективе ближайших 12 месяцев безоговорочно зависит от того, в какой мере децентрализованным формам искусственного интеллекта удастся привлечь массового пользователя. В ближайшее время гарантий успеха я не вижу, поскольку локальное развертывание ИИ гораздо сложнее централизованного использования корпоративных продуктов вроде ChatGPT.
Можно не сомневаться, что людской мейнстрим, как и всегда раньше, лениво побредет по проторенной дорожке и упадет в ласковые объятия государственно-корпоративной модели. Вот только это не страшно по двум причинам!
Во-первых, важно не количество, а качество. Самая пассионарная и свободолюбивая часть Homo Sapiens однозначно будет строить свое цифровое будущее на децентрализованных версиях искусственного интеллекта. Бонусом здесь идет полное гомоморфное шифрование, которое окончательно закроет от государства и корпораций финансовую составляющую децентрализованной активности.
Во-вторых, распределение интереса конечного пользователя между централизованными и децентрализованными формами искусственного интеллекта ничего не может изменить в том, что объективно неизбежно: „
контроль над цифровым пространством уже в ближайшей временной перспективе заберут самостоятельно действующие децентрализованные агенты.
Нравится это кому-то или не нравится. Выберет ли большинство локальные LLM или не выберет.
Показательно, что Сэм Альтман не просто догадывается о таком исходе, но и нисколько в нем не сомневается. Равно как не сомневаются и остальные руководители ИИ-компаний. Чтобы в этом удостовериться, достаточно посмотреть, с каким энтузиазмом корпорации обхаживают продукты ИИ, предназначенные для локального развертывания LLM и ИИ-агентов:
OpenAI наняла создателя OpenClaw Петера Штайнбергера;
Samsung NEXT активно инвестирует в Sahara AI (блокчейн-платформу для децентрализованного ИИ);
Microsoft и Google внедряют поддержку открытых моделей (Llama 4, Mistral) в свои Azure и Vertex AI быстрее, чем сообщество успевает их оптимизировать.
Справедливости ради нужно отметить, что описанный тренд отражает не логику отчаяния, а напротив, корпоративную мудрость (ставшая уже классикой модель Chromium!): корпорации ИИ спонсируют открытое ядро, которое затем становится стандартом индустрии, однако параллельно строят на базе этого ядра собственные закрытые проприетарные сервисы.
Впрочем, это уже другая история. Одно очевидно: модель «интеллектуального водопровода по подписке», которую популяризирует сегодня Сэм Альтман, вряд ли когда-нибудь позволит вернуть деньги инвесторам. Хотя не вопрос: на 110 миллиардов долларов наверняка удастся извернуться и позамысловатее.
  •  
❌