Нельзя строить приватность на обещаниях ИИ-компаний
Спор Anthropic и Пентагона показал неприятную вещь: границы слежки сегодня слишком часто определяются не законом, а условиями контрактов
Запрос для карточки: "privacy shield contract government square" Запрос для обложки: "privacy law vs ai corporations government surveillance horizontal"
Приватность не должна зависеть от переговоров между несколькими сильными игроками
Спор между Anthropic и Пентагоном уже привлёк много внимания как конфликт вокруг допустимых военных сценариев для ИИ. Но у этой истории есть ещё один, более глубокий слой. EFF справедливо указывает: сама по себе ситуация тревожна уже потому, что состояние наших цифровых прав оказывается зависимым от того, как именно договорятся государство и несколько частных AI-компаний. И даже если в конкретный момент одна из компаний занимает более принципиальную позицию, это всё равно плохая конструкция. Права человека не должны держаться на удачных переговорах, настроении CEO или репутационных рисках технологической корпорации.
Что показал конфликт вокруг Anthropic
Anthropic отказалась разрешать использование своих моделей для массовой внутренней слежки и полностью автономных летальных систем. За это компания получила жёсткий ответ со стороны государства. Но главный урок даже не в том, что Пентагон давит на подрядчика. Главный урок в том, что сама рамка обсуждения уже стала ненормальной: мы всерьёз обсуждаем гражданские свободы как предмет контрактных условий между государством и поставщиком модели. Это выглядит как частичная победа, когда компания говорит «нет». Но такая победа слишком хрупкая. Завтра на месте одной компании будет другая — с более мягкими принципами, меньшей публичной чувствительностью или большим желанием заработать. (ВСТАВЬ СЮДА ФОТО: "ai contract government meeting ethics horizontal")
Почему нельзя опираться только на корпоративные красные линии
Есть соблазн считать, что раз некоторые AI-компании готовы ограничивать государственные сценарии использования, система как-то сама себя уравновесит. Но это иллюзия. Корпорации не создавались как гарант конституционных прав. Их решения всегда зависят от бизнеса, юристов, политического давления, рынков и смены руководства. Кроме того, государство уже давно умеет обходить прямые ограничения:
- покупать данные у брокеров;
- использовать коммерческие инструменты анализа;
- ссылаться на расплывчатые правовые интерпретации;
- распределять задачи между подрядчиками;
- прятать спорные практики за техническими и юридическими формулами.
В такой среде один принципиальный поставщик может лишь временно затормозить процесс, но не заменить нормальную систему ограничений.
Проблема уже не гипотетическая
EFF отдельно подчёркивает, что сценарии, о которых говорят как о «потенциальных рисках», во многом уже существуют. Государственные структуры покупают коммерческие данные о местоположении, строят массивы наблюдения на основе рыночной инфраструктуры и используют всё больше аналитических инструментов для обработки чувствительной информации. AI только усиливает эти возможности, потому что позволяет быстрее связывать между собой ранее разрозненные массивы данных. То есть вопрос сегодня уже не в том, допустим ли такой мир в будущем. Вопрос в том, насколько быстро он масштабируется и кто успеет поставить перед ним реальные барьеры.
Почему решение должно идти через закон, а не через goodwill
Если право на приватность зависит от доброй воли нескольких компаний, значит, у общества нет устойчивой защиты. Нужны правила, которые работают независимо от того, кто сегодня у власти, кто управляет крупнейшими лабораториями и какой контракт лежит на столе. Именно поэтому разговор о приватности неизбежно возвращается к старым, но неприятным словам: законы, суды, подотчётность, ограничения, запреты. Это звучит менее эффектно, чем громкий отказ AI-компании, но только так можно строить систему, которая переживает конкретных людей и конкретные сделки.
В чём главный риск сейчас

Сегодня общество всё чаще получает красивую упаковку вместо надёжных гарантий. Публичные заявления компаний создаютощущение, что кто-то уже заботится о границах допустимого. Но если присмотреться, оказывается, что эти границы всё ещё можно торговать, пересматривать и размывать. Поэтому важен не только вопрос, кто в этот раз оказался принципиальнее. Важнее вопрос, почему вообще фундаментальные права оказались на столе переговоров.
Цифровые свободы становятся по-настоящему защищёнными не тогда, когда хороший CEO говорит правильные слова, а тогда, когда даже плохой не может безнаказанно сделать обратное