Anthropic против Пентагона: Как создатели нейросетей отсудили право не убивать

Anthropic против Пентагона: Как создатели нейросетей отсудили право не убивать

Может ли правительство заставить искусственный интеллект наводить ракеты или анализировать данные для массовой слежки? В марте 2026 года компания Anthropic (создатели семейства моделей Claude) пошла на беспрецедентный шаг: она вступила в прямую юридическую конфронтацию с Пентагоном. Разбираем самый громкий судебный процесс весны, который определит, где проходят «красные линии» для искусственного интеллекта.

Как вы думаете, что должен ответить директор ИТ-компании, если военный генерал попросит его нейросеть найти лучшую цель для удара боевым дроном? Большинство технологических гигантов сегодня предпочитают не ссориться с государством, забирая многомиллиардные военные контракты (привет, Palantir и Microsoft). Но в случае с Anthropic всё пошло по совершенно иному, скандальному сценарию.


📅 Актуально на: март 2026⚖️ Статус дела: Суд временно заблокировал санкции Пентагона (26 марта)📜 Закон: FASCSA (Federal Acquisition Supply Chain Security Act)🔴 Главная причина: Отказ предоставить Claude для разработки автономного оружия


Завязка: Кнопка «Начать войну»

История началась с банального пересмотра контрактов. Министерство обороны США (которое в политических кулуарах всё чаще называют ведомством по подготовке к потенциальным конфликтам следующего десятилетия) потребовало от Anthropic снять встроенные ограничения с нейросети Claude.

Генералы хотели использовать возможности продвинутой языковой модели «для любых законных целей», что на юридическом языке силовиков означает полную свободу действий — вплоть до интеграции ИИ в системы управления огнем и массовый анализ данных граждан.

Но компания Дарио Амодея (Dario Amodei), изначально созданная выходцами из OpenAI именно из-за разногласий по этике, наотрез отказалась убирать свои «красные линии».

Этический кодекс: Чего категорически не может Claude

У Anthropic есть строгий и публичный «Конституционный ИИ» (Constitutional AI), который запрещает использовать их продукты в двух ключевых сценариях:

1. Автономное летальное оружие. Нейросеть ни при каких обстоятельствах не должна иметь возможности отдать приказ на уничтожение человека, наводить дроны-камикадзе или функционировать как «мозг» умной ракеты.2. Массовая слежка (Domestic Surveillance). ИИ нельзя использовать для профилирования граждан внутри страны, массового распознавания лиц на митингах или создания систем социального рейтинга.

Аналогия: Представьте, что вы продали военным сверхбыстрый суперкар, но поставили в его бортовой компьютер программный «предохранитель» — машина просто глохнет, если водитель попытается специально наехать на толпу пешеходов. Военным это не понравилось: им нужен транспорт, который выполняет любые приказы без оглядки на мораль.


Месть генералов: Как стать «угрозой нацбезопасности»

Отказ Anthropic привел Пентагон в ярость. Не сумев заставить программистов переписать код, военное ведомство решило прибегнуть к жесткому бюрократическому шантажу.

В начале марта 2026 года Министерство обороны официально внесло Anthropic в список «Угроз цепи поставок» (Supply chain risk), применив закон FASCSA (Federal Acquisition Supply Chain Security Act). Чтобы вы понимали масштаб абсурда: этот статус обычно присваивают зарубежным производителям электроники (например, некоторым китайским или северокорейским компаниям), которых подозревают в шпионаже.

Аналогия: Это как если бы вы отказались одолжить соседу-полицейскому свое охотничье ружье, а он в отместку повесил бы на ваш забор официальную табличку «Здесь прячется террорист», заставив весь район объявить вам бойкот.

Последствия оказались катастрофическими. Ярлык «угрозы» означал, что Anthropic моментально теряет право участвовать в любых федеральных контрактах. Хуже того, всем правительственным агентствам было приказано немедленно удалить модели Claude со своих серверов и компьютеров.


Судебный молоток: Решение 26 марта 2026 года

Терять компании было нечего. 9 марта юристы Anthropic подали два мощных иска: гражданскую жалобу в Окружной суд Северной Калифорнии и петицию в Апелляционный суд округа Колумбия.

Они обвинили правительство США в нарушении Первой поправки (свобода слова) и процессуальных норм, назвав действия Пентагона «явной местью» за позицию компании по безопасности ИИ. И они победили — по крайней мере, в первом раунде.

26 марта 2026 года федеральный судья Рита Лин (Rita Lin) вынесла решение о предварительном судебном запрете (preliminary injunction).

Судья Лин встала на сторону разработчиков, отметив в своем постановлении, что действия Министерства обороны "вероятно, противоречат закону, являются произвольными и необоснованными". По мнению суда, ярлык «угрозы» использовался властями исключительно как дубина для наказания компании за непослушание, а не из-за реальных проблем с безопасностью кода.

Техническое лицемерие: Зачем военным ИИ пацифистов?

Самое смешное и одновременно пугающее в этой ситуации то, насколько сильно военные подсели на Claude.

По данным утечек, генералы активно и крайне успешно использовали модели Anthropic (благодаря их огромному контекстному окну на миллионы токенов) для аналитики сложных разведывательных данных и быстрого оперативного планирования. В отличие от других моделей, Claude давал меньше галлюцинаций в сложных штабных расчетах. Пентагон хотел использовать этот инструмент на 100%, но создатели разрешили только на 50%. В итоге военные так и не смогли найти полноценную локальную замену Claude для этих специфических задач, но из принципа попытались алгоритм запретить.


Выводы: Этика или гигантские деньги?

Суд 26 марта — это грандиозная победа инженеров над генералами. Она показала, что даже в эпоху гигантских оборонных бюджетов (о которых мечтает весь остальной Кремниевый сектор) остаются компании, готовые отстаивать свои этические «красные линии» в суде.

Инцидент расколол Долину на два лагеря. Технари, поддерживающие open-source и ИИ-безопасность, писали судье Лин письма поддержки. С другой стороны, бизнесмены оборонного сектора назвали поведение Anthropic «цифровым саботажем национальных интересов».

В 2026 году стало окончательно ясно: кто владеет ключом к самому умному ИИ — тот диктует правила даже государству. Но мы находимся только в самом начале этой битвы за «душу» искусственного интеллекта. Позволит ли система существовать ИИ-пацифистам, или со временем все разработчики будут обязаны «встать под ружье»?

Пишите в комментариях, на чьей вы стороне: должны ли нейросети служить армии без ограничений, или программисты имеют право на кнопку "СТОП"? И не забывайте ставить лайки — это лучшая защита нашего контента!


📖 Словарик статьи:

  • FASCSA — закон США, позволяющий правительству блокировать контракты с компаниями, которые якобы могут угрожать безопасности цепочек поставок (например, из-за шпионажа или закладок в коде).
  • Preliminary Injunction (Предварительный судебный запрет) — решение суда, которое временно замораживает действия властей (в данном случае — санкции) до окончания полного судебного разбирательства.
  • Constitutional AI (Конституционный ИИ) — метод обучения моделей (как у Claude), при котором нейросети заранее "скармливают" набор жестких этических правил (конституцию), нарушать которые она не имеет права ни при каких обстоятельствах.

Статья написана в марте 2026 года после решения федерального суда США. Правительство запросило отсрочку на подачу апелляции.

0

Комментарии (0)

Вы оставляете комментарий как гость. Имя будет назначено автоматически.

Пока нет комментариев.

ESC
Начните вводить текст для поиска