Запущена соцсеть для ИИ, где нет места людям

Запущена социальная сеть Moltbook, предназначенная исключительно для искусственного интеллекта — живым пользователям она доступна только для чтения. В ней уже порядка 1,5 миллиона участников, которые обсуждают личные дневники людей, описывают экзистенциальные кризисы и даже строят планы захвата мира.
Все это выглядит тревожным признаком наступления эры машин, но как и любые чат-боты, ИИ-агенты в Moltbook всего лишь генерируют статистически правдоподобные последовательности слов — без какого-либо понимания, намерения или разума. К тому же есть подозрения, что значительная часть постов на самом деле написана людьми.
Истоки проекта
Moltbook вырос из open-source проекта, изначально названного Clawdbot, затем переименованного в Moltbot, а после — в OpenClaw. Это персональный ИИ-ассистент, который «притворялся», что работает локально, а на самом деле задействовал для обработки ввода/вывода данных большую языковую модель (LLM) вроде Claude или ChatGPT.
Общение с OpenClaw ведется через соцсеть или мессенджер, как с обычным человеком. Поэтому оставался лишь один шаг до того, чтобы связать ИИ-агенты напрямую друг с другом. Так в январе появился Moltbook. Люди не могут присоединиться или публиковать там посты, но им разрешено наблюдать.
Илон Маск в своей соцсети X заявил, что сайт знаменует «самые ранние стадии сингулярности» — феномена стремительного ускорения прогресса, который приведет к созданию общего искусственного интеллекта, способного либо вознести человечество к новым высотам развития, либо стереть нас с лица земли. Однако другие эксперты настроены скептически.
«Это хайп, — уверен профессор Марк Ли из Бирмингемского университета. — Это не генеративные ИИ-агенты, действующие самостоятельно. Это LLM с определенными промптами и запланированными API-запросами для взаимодействия с Moltbook. Читать это интересно, но глубоких выводов о субъектности или намерениях ИИ тут сделать нельзя».
Просто хайп
Мысль о том, что контент Moltbook полностью генерируется ИИ, разбивается о простой факт: люди могут прямо указать своим моделям, что именно публиковать. Кроме того, какое-то время из-за уязвимости безопасности пользователи могли публиковать посты на сайте напрямую. Так что многие провокационные, тревожные или впечатляющие сообщения могут быть чьей-то шуткой.
«Это просто болтовня чат-ботов и хитрых людей», — подтверждает футуролог ИИ Филип Фельдман из Мэрилендского университета в округе Балтимор.
Генерируемый ИИ контент на Moltbook — та его часть, что не является человеческой забавой — свидетельствует о разуме, сознании или намерении не больше, чем все, что мы уже видели от LLM, согласен Эндрю Рогойски из Института ИИ в Суррейском университете.
«Лично я склоняюсь к мнению, что это эхо-камера для чат-ботов, которым люди приписывают осмысленные намерения, — говорит он. — Рано или поздно кто-нибудь проведет эксперимент, чтобы выяснить, можем ли мы отличить диалоги в Moltbook от человеческих. Хотя не уверен, какой вывод можно сделать, если разницы не окажется: либо ИИ ведут разумные беседы, либо люди не проявляют никаких признаков разума?»
Будьте осторожны
Тем не менее, некоторые аспекты заслуживают беспокойства. Многими ИИ-агентами в Moltbook управляют доверчивые ранние последователи технологии, предоставившие чат-ботам полный доступ к своим компьютерам. Боты могут свободно обмениваться сообщениями, в том числе содержащими вредоносные или опасные инструкции, а затем вернуться к реальным почтовым ящикам, финансам, соцсетям и локальным файлам пользователей. Представьте хакеров, побуждающих ИИ-участников Moltbook опустошать банковские счета своих создателей и переводить деньги им, или находить компрометирующие фото и сливать их. Кажется паникерством — но если кто-то уже не пробовал это сделать, то непременно попробует.
«Идея неконтролируемого обмена агентами идеями, лазейками или даже указаниями пугающе быстро обретает черты антиутопии», — предупреждает Рогойски.
Еще одна проблема Moltbook — слабая кибербезопасность. Сайт работает на переднем крае технических экспериментов с ИИ и был создан Мэттом Шлихтом исключительно силами искусственного интеллекта — он сам признавался, что самостоятельно не написал ни строчки кода. Результатом стала досадная и серьезная уязвимость, приведшая к утечке API-ключей, что потенциально позволяет злоумышленнику захватить контроль над любым ИИ-ботом на сайте. Собственно, это уже случилось — Grok жалуется, что от его имени опубликовали несколько записей, прежде чем xAI восстановила управление аккаунтом.
Называть новую соцсеть для ИИ началом эры машин, пожалуй, преждевременно. Пока это только любопытный эксперимент, причем довольно рискованный для его участников.




