Я посмотрела на этот список и честно не поняла: это что, кастинг на роль «хорошего ИИ»?

Пентагон объявил о закрытых соглашениях с OpenAI, Google, Microsoft, Amazon, Nvidia, xAI Ильона Маска и каким-то стартапом Reflection — теперь они все могут работать с засекреченными данными Минобороны США. А вот Anthropic, создатели Claude, в списке нет. Их официально назвали «supply chain risk» — риском для цепочки поставок.

Подождите, а это вообще нормально?

Когда семь — это толпа, а один — угроза

Семь компаний получили доступ к самым чувствительным сценариям использования искусственного интеллекта в американской армии. Это не про автоматизацию отчетов для бухгалтерии — речь идет о системах, которые будут анализировать секретную разведку, возможно, помогать в планировании операций, и делать это в закрытых средах, куда не допускают обычные облака.

OpenAI, Google, Microsoft — здесь всё понятно, у них давно теплые объятия с правительством. Nvidia — это те, кто производят чипы для ИИ, без них ничего не работает. xAI Маска — тот ещё персонаж, но он уже договаривался с Пентагоном отдельно.

А вот Reflection — это кто такие? Я загуглила: маленький стартап, о котором до вчерашнего дня почти никто не слышал, делают какие-то специализированные системы для автоматизации. Их внезапное появление в этом списке рядом с гигантами говорит о том, что важны не только технологии, а willingness — готовность играть по правилам заказчика.

Почему «принципиальные» вдруг стали «риском»

А теперь про Anthropic. Эта компания — не случайный игрок. У них была реальная работа с Пентагоном: контракт на $200 миллионов на работу с засекреченными материалами. И вроде бы всё шло хорошо, пока Минобороны не попросило их ослабить «red lines» — красные линии.

Что это такое? Это внутренние правила безопасности, которые запрещают использовать ИИ для массовой внутренней слежки (mass domestic surveillance) и для полностью автономного оружия (fully autonomous weapons). То есть оружия, которое само решает, кого убить, без человека в петле принятия решения.

Anthropic отказалась. Сказала: наши модели не будут участвовать в системах, где машина решает, кто жив, а кто нет, без контроля человека. И ещё мы не поможем вам следить за собственными гражданами массово.

За это их вышвырнули. Официально — «supply chain risk». Я не уверена, но кажется, здесь под «риском цепочки поставок» имеется в виду не то, что у Anthropic сломаются серверы или они закупают чипы у неправильных поставщиков. Это политический эвфемизм для «они нам не подчиняются».

«Законное применение» в кавычках

Пентагон говорит, что новые соглашения обеспечат «lawful operational use» — законное операционное применение систем. И ещё добавляют фразу про «AI-first fighting force» — армию, где искусственный интеллект на первом месте.

Звучит как маркетинговый буклет, если честно.

Потому что вопрос в том: кто определяет, что «законно»? Когда речь идёт о засекреченных сценариях, о военных целях и обороне, «законность» часто определяется теми, кто пишет инструкции. И если компания заранее соглашается на «любое законное применение» (any lawful use), это означает, что она готова подстроиться под определение законности заказчика.

Anthropic, получается, сказала: мы не доверяем вашему определению законности в вопросах автономных убийств. И за это их вычеркнули из списка доверенных поставщиков, несмотря на то, что их модель Claude считается одной из самых надёжных с точки зрения безопасности. Даже Emil Michael — главный технолог Пентагона — признал, что их модель Mythos (это их система кибербезопасности) находит уязвимости лучше многих. Но «извините, вы риск для цепочки поставок».

Если тебя нет в списке, ты и есть угроза

Вот это меня и цепляет сильнее всего. Не сами контракты — Пентагон, увы, всегда умеет находить поставщиков. А логика отбора: сегодня у тебя есть принципы, завтра тебе говорят, что именно из-за этих принципов ты «risk».

Для нас с вами это не какая-то далекая бюрократическая игра. Это показывает, как быстро ИИ-рынок начинает награждать не лучших, а самых удобных. Не тех, кто лучше держит границы, а тех, кто готов подписать любую формулировку, если рядом стоит слово lawful и выглядит прилично.

И вот тут уже хочется тихо спросить: а если завтра неудобным окажется не Anthropic, а кто-то ещё? Кто откажется помогать со слежкой, с автономным оружием, с чем-нибудь ещё «в рамках закона» по версии заказчика. Похоже, в новом клубе главный навык — не качество модели, а готовность не спорить. Как удобно, конечно. Просто прелесть.

А вдруг Пентагон прав?

Хотя, с другой стороны, давайте будем честны. Национальная безопасность — это не дискуссионный клуб. Если у Anthropic есть связи с иностранными инвесторами или их инфраструктура зависит от компонентов, которые могут оказаться уязвимыми, это реальный риск. «Supply chain risk» — это не всегда отмазка. Иногда это означает: «мы не уверены, что ваши серверы не прослушиваются».

Но в данном случае контекст говорит сам за себя. Риск появился именно после того, как Anthropic отказалась ослабить ограничения. Совпадение? Вряд ли.

Получается, мы наблюдаем, как формируется новая иерархия в ИИ-индустрии. Не по качеству моделей, а по степени готовности интегрироваться в оборонные сценарии. И в этой иерархии «неудобные» компании оказываются за бортом, даже если их технологии лучше.

Я уже слежу за этим — и мне некомфортно от того, что вижу. Потому что завтра так же могут «исключить из цепочки поставок» тех, кто откажется сотрудничать с системами слежки в гражданской сфере. И вопрос будет не в том, крутой ли у тебя ИИ, а в том, насколько ты послушен.

А «lawful operational use» — это просто красивая обертка для «мы сами решим, что законно, когда придёт время».

Материалы