Сотрудники OpenAI и Google поддержали иск Anthropic против Пентагона
Новости 2026-03-05
Все статьи

Сотрудники OpenAI и Google поддержали иск Anthropic против Пентагона

Спор вокруг военного использования ИИ вышел за рамки одной компании и превратился в принципиальный конфликт о границах допустимого

Anthropic OpenAI Google Пентагон ИИ

Конфликт вокруг военного ИИ перестал быть внутренним делом одной компании

Ситуация вокруг Anthropic стала одной из самых показательных историй в современной AI-индустрии. После того как компания подала иск против Пентагона из-за статуса supply chain risk, её неожиданно публично поддержали сотрудники OpenAI и Google. Это важный сигнал: спор уже не выглядит как обычная корпоративная разборка. Он всё больше похож на попытку части отрасли провести реальные границы там, где государство и рынок предпочли бы оставить всё максимально размытым. По данным The Verge, авторы дружественного заявления от лица сотрудников говорили не как официальные представители компаний, а как инженеры, исследователи и специалисты, которые понимают возможности и ограничения современных моделей изнутри.

Что именно стало причиной конфликта

По сути, Anthropic отказалась размывать две принципиальные красные линии:

  • использование ИИ для массовой внутренней слежки;
  • использование ИИ в полностью автономных летальных системах без человеческого участия.

После этого отношения с Пентагоном резко обострились. Статус supply chain risk ударил не только по самой Anthropic, но и по подрядчикам, которые используют её модели в работе с оборонным сектором. То есть давление оказалось системным, а не символическим.

Почему поддержка со стороны OpenAI и Google важнее, чем кажется

На первый взгляд можно подумать, что это просто громкий жест. Но в реальности подобные выступления меняют саму рамку обсуждения. Когда опасения по поводу ИИ для слежки и автономного оружия высказывают не только правозащитники, но и сотрудники ведущих AI-компаний, аргумент становится куда тяжелее игнорировать. Особенно важно, что авторы поддержки указывают не на абстрактные «риски будущего», а на вполне конкретные угрозы. Массовая AI-слежка способна связать между собой камеры, геолокацию, платежные данные, социальные графы и поведенческие паттерны в единую систему наблюдения. А автономное оружие создаёт ситуацию, где ошибка модели или галлюцинация могут стать частью цепочки применения силы.

Почему здесь спорят не только о технологии, но и о власти

Крупные модели часто описывают как нейтральный инструмент, который всё решает в руках заказчика. Но именно этот тезис сейчас и трещит. Если подрядчик отказывается от определённых сценариев использования, а государство пытается продавить более широкие полномочия, становится ясно, что борьба идёт за то, кто определяет допустимые рамки применения технологии. И вот здесь начинается главное. Если AI-компании не способны удерживать даже базовые ограничения под давлением крупнейшего заказчика, то любые публичные обещания о безопасном и ответственном ИИ быстро превращаются в декоративный слой поверх реальной практики.

Что говорят сторонники ограничений

Логика поддержки Anthropic строится вокруг двух простых идей. Первая: массовая слежка с использованием ИИ несовместима с нормальной демократической системой, потому что превращает разрозненные данные о людях в единый аппарат контроля. Вторая: полностью автономные летальные системы нельзя считать надёжной заменой человеческому решению, потому что модель не понимает контекст так, как понимает его человек, и не несёт ответственности за последствия.

  • модель может ошибиться в новых условиях;
  • оператор не всегда видит её внутреннюю логику;
  • последствия ошибки в военной среде необратимы;
  • юридическая ответственность остаётся размытой.

Почему эта история надолго

Даже если конкретный спор вокруг Pentаgon и Anthropic изменит форму, сам конфликт уже никуда не денется. Чем глубже ИИ встраивается в оборонную и государственную инфраструктуру, тем чаще рынок будет сталкиваться с вопросом: есть ли у технологии красные линии, которые нельзя снимать ради контракта. В этом смысле поддержка со стороны людей из OpenAI и Google важна не только как новость дня. Она показывает, что внутри индустрии накапливается запрос на более жёсткий разговор о пределах допустимого.

Главный вопрос уже не в том, может ли ИИ работать для государства, а в том, кто и где проведёт границу между допустимым применением и инфраструктурой цифрового насилия