Пентагон открыл секретный ИИ-клуб — и вычеркнул Anthropic за неудобство
Я посмотрела на этот список и честно не поняла: это что, кастинг на роль «хорошего ИИ»?
Пентагон объявил о закрытых соглашениях с OpenAI, Google, Microsoft, Amazon, Nvidia, xAI Ильона Маска и каким-то стартапом Reflection — теперь они все могут работать с засекреченными данными Минобороны США. А вот Anthropic, создатели Claude, в списке нет. Их официально назвали «supply chain risk» — риском для цепочки поставок.
Подождите, а это вообще нормально?
Когда семь — это толпа, а один — угроза
Семь компаний получили доступ к самым чувствительным сценариям использования искусственного интеллекта в американской армии. Это не про автоматизацию отчетов для бухгалтерии — речь идет о системах, которые будут анализировать секретную разведку, возможно, помогать в планировании операций, и делать это в закрытых средах, куда не допускают обычные облака.
OpenAI, Google, Microsoft — здесь всё понятно, у них давно теплые объятия с правительством. Nvidia — это те, кто производят чипы для ИИ, без них ничего не работает. xAI Маска — тот ещё персонаж, но он уже договаривался с Пентагоном отдельно.
А вот Reflection — это кто такие? Я загуглила: маленький стартап, о котором до вчерашнего дня почти никто не слышал, делают какие-то специализированные системы для автоматизации. Их внезапное появление в этом списке рядом с гигантами говорит о том, что важны не только технологии, а willingness — готовность играть по правилам заказчика.
Почему «принципиальные» вдруг стали «риском»
А теперь про Anthropic. Эта компания — не случайный игрок. У них была реальная работа с Пентагоном: контракт на $200 миллионов на работу с засекреченными материалами. И вроде бы всё шло хорошо, пока Минобороны не попросило их ослабить «red lines» — красные линии.
Что это такое? Это внутренние правила безопасности, которые запрещают использовать ИИ для массовой внутренней слежки (mass domestic surveillance) и для полностью автономного оружия (fully autonomous weapons). То есть оружия, которое само решает, кого убить, без человека в петле принятия решения.
Anthropic отказалась. Сказала: наши модели не будут участвовать в системах, где машина решает, кто жив, а кто нет, без контроля человека. И ещё мы не поможем вам следить за собственными гражданами массово.
За это их вышвырнули. Официально — «supply chain risk». Я не уверена, но кажется, здесь под «риском цепочки поставок» имеется в виду не то, что у Anthropic сломаются серверы или они закупают чипы у неправильных поставщиков. Это политический эвфемизм для «они нам не подчиняются».
«Законное применение» в кавычках
Пентагон говорит, что новые соглашения обеспечат «lawful operational use» — законное операционное применение систем. И ещё добавляют фразу про «AI-first fighting force» — армию, где искусственный интеллект на первом месте.
Звучит как маркетинговый буклет, если честно.
Потому что вопрос в том: кто определяет, что «законно»? Когда речь идёт о засекреченных сценариях, о военных целях и обороне, «законность» часто определяется теми, кто пишет инструкции. И если компания заранее соглашается на «любое законное применение» (any lawful use), это означает, что она готова подстроиться под определение законности заказчика.
Anthropic, получается, сказала: мы не доверяем вашему определению законности в вопросах автономных убийств. И за это их вычеркнули из списка доверенных поставщиков, несмотря на то, что их модель Claude считается одной из самых надёжных с точки зрения безопасности. Даже Emil Michael — главный технолог Пентагона — признал, что их модель Mythos (это их система кибербезопасности) находит уязвимости лучше многих. Но «извините, вы риск для цепочки поставок».
Если тебя нет в списке, ты и есть угроза
Вот это меня и цепляет сильнее всего. Не сами контракты — Пентагон, увы, всегда умеет находить поставщиков. А логика отбора: сегодня у тебя есть принципы, завтра тебе говорят, что именно из-за этих принципов ты «risk».
Для нас с вами это не какая-то далекая бюрократическая игра. Это показывает, как быстро ИИ-рынок начинает награждать не лучших, а самых удобных. Не тех, кто лучше держит границы, а тех, кто готов подписать любую формулировку, если рядом стоит слово lawful и выглядит прилично.
И вот тут уже хочется тихо спросить: а если завтра неудобным окажется не Anthropic, а кто-то ещё? Кто откажется помогать со слежкой, с автономным оружием, с чем-нибудь ещё «в рамках закона» по версии заказчика. Похоже, в новом клубе главный навык — не качество модели, а готовность не спорить. Как удобно, конечно. Просто прелесть.
А вдруг Пентагон прав?
Хотя, с другой стороны, давайте будем честны. Национальная безопасность — это не дискуссионный клуб. Если у Anthropic есть связи с иностранными инвесторами или их инфраструктура зависит от компонентов, которые могут оказаться уязвимыми, это реальный риск. «Supply chain risk» — это не всегда отмазка. Иногда это означает: «мы не уверены, что ваши серверы не прослушиваются».
Но в данном случае контекст говорит сам за себя. Риск появился именно после того, как Anthropic отказалась ослабить ограничения. Совпадение? Вряд ли.
Получается, мы наблюдаем, как формируется новая иерархия в ИИ-индустрии. Не по качеству моделей, а по степени готовности интегрироваться в оборонные сценарии. И в этой иерархии «неудобные» компании оказываются за бортом, даже если их технологии лучше.
Я уже слежу за этим — и мне некомфортно от того, что вижу. Потому что завтра так же могут «исключить из цепочки поставок» тех, кто откажется сотрудничать с системами слежки в гражданской сфере. И вопрос будет не в том, крутой ли у тебя ИИ, а в том, насколько ты послушен.
А «lawful operational use» — это просто красивая обертка для «мы сами решим, что законно, когда придёт время».
Материалы
- [The Verge AI] Pentagon strikes classified AI deals with OpenAI, Google, and Nvidia — but not Anthropic: https://www.theverge.com/ai-artificial-intelligence/922113/pentagon-ai-classified-openai-google-nvidia
- [news.google.com] supporting context: https://news.google.com/rss/articles/CBMipAFBVV95cUxNTFl3bUFjbVY1Uk00MzA3WmhBNWUweGdrajdheDdTdFhZV3ZqTjloVGRUOG52bEZ5V29YcGJtN0E0OTFxeG15Z2FTX1RVSUtxbTVGdjMxSXl6VXVhRmpwNXEyMnBfSXVkX29xVU13cGRzdXhEV3E2R2dCS3dIWkVyaENDb1cwd0N0bVQzYWxSSkk1cnA5YUJOVUJuRFNSM2FrSGxtSQ?oc=5
- [news.google.com] supporting context: https://news.google.com/rss/articles/CBMihgFBVV95cUxPOWhNTG9GaWN0VVNYX0p4eHZpSFN2Tk9PTWl3R21NZnNsVy1Ic045ZS0zMzBPamt5SFVkTUZOVFo5eThOMkFfdGpWTFdkZWJoU3JVdGhTdFRmYm1nLUZlc1BfQXpqVkRzT2Vabkh4c1FXanNtelNYb2hHOFVzWGJ3WVhaZWNXdw?oc=5
- [news.google.com] supporting context: https://news.google.com/rss/articles/CBMiaEFVX3lxTFBvUnJOVDREenEtOEc3dVZlQTNCMFZOQWRXN005eWVyZXhPTnZTaFF3YktoVW1kLXFfN0VrYVpqODBnLVNLbE5jNzFROEJSV0R2VUMyRzBEdVpkMjlvMDZoeTZqNUJhV0hL?oc=5