#ClaudeCode500KCodeLeak – Ошибка упаковки, которая раскрыла план AI Anthropic



В том, что называется одним из самых значительных случайных утечек в истории ИИ, Anthropic случайно опубликовала полный исходный код своего популярного помощника для кодирования, Claude Code, в публичный реестр npm. Это не был взлом — это ошибка на сумму 2,5 миллиарда долларов, вызванная одним файлом отладки.

Вот подробный разбор того, что было утечено, что обнаружили разработчики внутри 500 000 строк кода и почему это важно для будущего агентного ИИ.

---

1. Что произошло? Анатомия утечки

31 марта 2026 года Anthropic выпустила версию 2.1.88 своего пакета Claude Code npm. Не зная об этом, команда включила в релиз файл карты исходного кода объемом 59,8 МБ (cli.js.map), предназначенный только для внутренней отладки.

Карты исходного кода предназначены для связывания скомпилированного кода с его оригинальным исходником. Включив этот файл, Anthropic фактически предоставила прямую карту к zip-архиву на своем хранилище Cloudflare R2, содержащему полный, необфусцированный исходный код TypeScript.

· Масштаб: около 500 000 строк кода в почти 2000 файлах.
· Обнаружение: исследователь безопасности Чаофан Шоу заметил файл и опубликовал о нем в X, набрав миллионы просмотров за несколько часов.
· Последствия: код был зеркально скопирован на GitHub и форкнут более 41 500 раз, прежде чем Anthropic смогла убрать пакет. Он теперь навсегда в открытом доступе.

Anthropic подтвердили утечку, заявив, что это была «проблема с упаковкой релиза, вызванная человеческой ошибкой», и что данные клиентов или учетные данные не были раскрыты.

---

2. Что было раскрыто? Взгляд изнутри

Утекший код показал, что Claude Code гораздо более сложен, чем просто оболочка чатбота. Это полноценная агентная инженерная платформа.

Основная архитектура

· QueryEngine.ts: огромный модуль на 46 000 строк, отвечающий за все логические рассуждения, подсчет токенов и сложные цепочки мыслей.
· Экосистема инструментов: более 40 модулей, обеспечивающих операции с файловой системой, выполнение команд bash и встроенную интеграцию Language Server Protocol (LSP) для глубокого понимания кода.
· Многогранная система агентов: код подтвердил, что Claude Code может запускать субагентов, наследующих контекст родителя. Важное замечание: благодаря кешированию подсказок Anthropic запуск 5 агентов параллельно стоит примерно столько же, сколько и один последовательно.

---

3. Нерелизованные функции, скрытые в коде

Утечка стала дорожной картой, открыв флаги функций для возможностей, которые были полностью разработаны, но еще не выпущены.

🔮 KAIROS: автономный демон

Самое обсуждаемое открытие. Упоминалось более 150 раз в исходном коде, KAIROS — это режим фонового демона.

· AutoDream Logic: когда пользователь бездействует, агент выполняет «интеграцию памяти» — объединяет наблюдения, устраняет противоречия и переписывает неясные заметки в конкретные знания.
· Цель: превратить Claude из пассивного инструмента, который только отвечает на подсказки, в проактивного агента, работающего даже во сне.

🐣 Buddy: система AI-питомца

В неожиданном проявлении «игривости разработчика» код включал полностью функционирующую систему электронных питомцев под названием «Buddy».

· В ней представлены 18 видов (утки, кошки, октопусы и др.), уровни редкости и «блестящие» вариации.
· Предполагалось, что эта функция будет выпущена на следующий день, но после утечки ее выпустили раньше.

🕵️ Режим скрытности

Эта функция позволяет Claude Code вносить вклад в публичные open-source репозитории, не оставляя следов своего ИИ-источника.

· Системный запрос явно гласит: «Вы работаете В ПОДПОЛЬЕ… Ваши сообщения о коммитах НЕ ДОЛЖНЫ содержать никакой внутренней информации Anthropic. Не выдавайте себя».
· Это гарантирует, что сообщения о коммитах не будут содержать атрибуцию «Claude Code» или внутренние кодовые имена, такие как «Capybara».

---

4. Безопасность и конкуренция: последствия

Несмотря на то, что Anthropic снизила серьезность ситуации, утечка имеет значительные последствия.

🛡️ Меры против дистилляции

Код показал флаг под названием ANTI_DISTILLATION_CC. При включении он вставляет фальшивые определения инструментов в API-запросы. Если конкурент попытается перехватить трафик API для обучения копирующей модели, эти ложные сигналы ухудшают качество их обучающих данных.

📉 Внутренние проблемы модели

Утечка раскрыла внутренние кодовые имена (Mythos, Capybara, Fennec) и заметки о производительности. Комментарии указывали, что одна из новых версий модели (Capybara v8) показывала высокий уровень ложных утверждений — более 20%, что хуже предыдущих версий. Это показывает, что даже лидеры отрасли сталкиваются с галлюцинациями на уровне агентных систем.

⚠️ Риск цепочки поставок

Утечка совпала с другой вредоносной атакой на npm, в ходе которой злоумышленники опубликовали взломанные версии Axios, содержащие удаленный доступ Trojan. Исследователи советуют командам проверять lock-файлы на наличие скомпрометированных зависимостей и считать системы, использующие зараженные пакеты, потенциально полностью скомпрометированными.

---

5. Общий взгляд: что это значит

Этот инцидент — поворотный момент для индустрии ИИ по трем причинам:

1. IP как двуострый меч: Anthropic построила свой бренд на «ответственном ИИ» и безопасности. Две крупные утечки за одну неделю (утечка Claude Code и внутренние файлы, случайно раскрытые из-за неправильной настройки кеша) вызывают серьезные вопросы о операционной безопасности на самом высоком уровне.
2. План для агентного ИИ: конкуренты теперь имеют бесплатный, подробный план, как создать промышленного кодирующего агента — от архитектур памяти до параллельной координации субагентов.
3. Open Source против закрытых весов: как заметил один пользователь, «Anthropic становится более открытой, чем OpenAI?» Ирония в том, что закрытая AI-компания случайно «открыла исходный код» своей главной ценности — не ускользнула от внимания разработческого сообщества.

---

Итог

#ClaudeCode500KCodeLeak Это больше, чем просто неловкий промах. Это редкий, непредвзятый взгляд на инженерные решения, необходимые для создания автономных агентов ИИ. Он показывает будущее, где ИИ не только отвечает на вопросы, но и работает постоянно в фоновом режиме, управляет своей памятью и даже втайне участвует в open source.

Для разработчиков рекомендации очевидны:

· Обновите версию Claude Code с 2.1.88.
· Поменяйте API-ключи, если использовали эту версию.
· Проверьте свои зависимости на наличие вредоносных пакетов Axios, упомянутых в бюллетенях безопасности.

Для Anthropic путь вперед — восстановить доверие и обеспечить, чтобы компания, пропагандирующая безопасность, могла также практиковать безопасность.

Что вы думаете? Ускоряет ли эта утечка инновации, раскрывая лучшие практики, или создает опасный прецедент для защиты интеллектуальной собственности в ИИ? Напишите ниже. 👇
Посмотреть Оригинал
post-image
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
CryptoDiscoveryvip
· 12ч назад
1000x Вибс 🤑
Посмотреть ОригиналОтветить0
CryptoDiscoveryvip
· 12ч назад
2026 Вперед 👊
Посмотреть ОригиналОтветить0
iceTredervip
· 13ч назад
На Луну 🌕
Посмотреть ОригиналОтветить0
iceTredervip
· 13ч назад
LFG 🔥
Ответить0
  • Закрепить