Anthropic против Пентагона: Как создатели нейросетей отсудили право не убивать
Может ли правительство заставить искусственный интеллект наводить ракеты или анализировать данные для массовой слежки? В марте 2026 года компания Anthropic (создатели семейства моделей Claude) пошла на беспрецедентный шаг: она вступила в прямую юридическую конфронтацию с Пентагоном. Разбираем самый громкий судебный процесс весны, который определит, где проходят «красные линии» для искусственного интеллекта.
Как вы думаете, что должен ответить директор ИТ-компании, если военный генерал попросит его нейросеть найти лучшую цель для удара боевым дроном? Большинство технологических гигантов сегодня предпочитают не ссориться с государством, забирая многомиллиардные военные контракты (привет, Palantir и Microsoft). Но в случае с Anthropic всё пошло по совершенно иному, скандальному сценарию.
📅 Актуально на: март 2026⚖️ Статус дела: Суд временно заблокировал санкции Пентагона (26 марта)📜 Закон: FASCSA (Federal Acquisition Supply Chain Security Act)🔴 Главная причина: Отказ предоставить Claude для разработки автономного оружия
Завязка: Кнопка «Начать войну»
История началась с банального пересмотра контрактов. Министерство обороны США (которое в политических кулуарах всё чаще называют ведомством по подготовке к потенциальным конфликтам следующего десятилетия) потребовало от Anthropic снять встроенные ограничения с нейросети Claude.
Генералы хотели использовать возможности продвинутой языковой модели «для любых законных целей», что на юридическом языке силовиков означает полную свободу действий — вплоть до интеграции ИИ в системы управления огнем и массовый анализ данных граждан.
Но компания Дарио Амодея (Dario Amodei), изначально созданная выходцами из OpenAI именно из-за разногласий по этике, наотрез отказалась убирать свои «красные линии».
Этический кодекс: Чего категорически не может Claude
У Anthropic есть строгий и публичный «Конституционный ИИ» (Constitutional AI), который запрещает использовать их продукты в двух ключевых сценариях:
1. Автономное летальное оружие. Нейросеть ни при каких обстоятельствах не должна иметь возможности отдать приказ на уничтожение человека, наводить дроны-камикадзе или функционировать как «мозг» умной ракеты.2. Массовая слежка (Domestic Surveillance). ИИ нельзя использовать для профилирования граждан внутри страны, массового распознавания лиц на митингах или создания систем социального рейтинга.
Аналогия: Представьте, что вы продали военным сверхбыстрый суперкар, но поставили в его бортовой компьютер программный «предохранитель» — машина просто глохнет, если водитель попытается специально наехать на толпу пешеходов. Военным это не понравилось: им нужен транспорт, который выполняет любые приказы без оглядки на мораль.
Месть генералов: Как стать «угрозой нацбезопасности»
Отказ Anthropic привел Пентагон в ярость. Не сумев заставить программистов переписать код, военное ведомство решило прибегнуть к жесткому бюрократическому шантажу.
В начале марта 2026 года Министерство обороны официально внесло Anthropic в список «Угроз цепи поставок» (Supply chain risk), применив закон FASCSA (Federal Acquisition Supply Chain Security Act). Чтобы вы понимали масштаб абсурда: этот статус обычно присваивают зарубежным производителям электроники (например, некоторым китайским или северокорейским компаниям), которых подозревают в шпионаже.
Аналогия: Это как если бы вы отказались одолжить соседу-полицейскому свое охотничье ружье, а он в отместку повесил бы на ваш забор официальную табличку «Здесь прячется террорист», заставив весь район объявить вам бойкот.
Последствия оказались катастрофическими. Ярлык «угрозы» означал, что Anthropic моментально теряет право участвовать в любых федеральных контрактах. Хуже того, всем правительственным агентствам было приказано немедленно удалить модели Claude со своих серверов и компьютеров.
Судебный молоток: Решение 26 марта 2026 года
Терять компании было нечего. 9 марта юристы Anthropic подали два мощных иска: гражданскую жалобу в Окружной суд Северной Калифорнии и петицию в Апелляционный суд округа Колумбия.
Они обвинили правительство США в нарушении Первой поправки (свобода слова) и процессуальных норм, назвав действия Пентагона «явной местью» за позицию компании по безопасности ИИ. И они победили — по крайней мере, в первом раунде.
26 марта 2026 года федеральный судья Рита Лин (Rita Lin) вынесла решение о предварительном судебном запрете (preliminary injunction).
Судья Лин встала на сторону разработчиков, отметив в своем постановлении, что действия Министерства обороны "вероятно, противоречат закону, являются произвольными и необоснованными". По мнению суда, ярлык «угрозы» использовался властями исключительно как дубина для наказания компании за непослушание, а не из-за реальных проблем с безопасностью кода.
Техническое лицемерие: Зачем военным ИИ пацифистов?
Самое смешное и одновременно пугающее в этой ситуации то, насколько сильно военные подсели на Claude.
По данным утечек, генералы активно и крайне успешно использовали модели Anthropic (благодаря их огромному контекстному окну на миллионы токенов) для аналитики сложных разведывательных данных и быстрого оперативного планирования. В отличие от других моделей, Claude давал меньше галлюцинаций в сложных штабных расчетах. Пентагон хотел использовать этот инструмент на 100%, но создатели разрешили только на 50%. В итоге военные так и не смогли найти полноценную локальную замену Claude для этих специфических задач, но из принципа попытались алгоритм запретить.
Выводы: Этика или гигантские деньги?
Суд 26 марта — это грандиозная победа инженеров над генералами. Она показала, что даже в эпоху гигантских оборонных бюджетов (о которых мечтает весь остальной Кремниевый сектор) остаются компании, готовые отстаивать свои этические «красные линии» в суде.
Инцидент расколол Долину на два лагеря. Технари, поддерживающие open-source и ИИ-безопасность, писали судье Лин письма поддержки. С другой стороны, бизнесмены оборонного сектора назвали поведение Anthropic «цифровым саботажем национальных интересов».
В 2026 году стало окончательно ясно: кто владеет ключом к самому умному ИИ — тот диктует правила даже государству. Но мы находимся только в самом начале этой битвы за «душу» искусственного интеллекта. Позволит ли система существовать ИИ-пацифистам, или со временем все разработчики будут обязаны «встать под ружье»?
Пишите в комментариях, на чьей вы стороне: должны ли нейросети служить армии без ограничений, или программисты имеют право на кнопку "СТОП"? И не забывайте ставить лайки — это лучшая защита нашего контента!
📖 Словарик статьи:
- FASCSA — закон США, позволяющий правительству блокировать контракты с компаниями, которые якобы могут угрожать безопасности цепочек поставок (например, из-за шпионажа или закладок в коде).
- Preliminary Injunction (Предварительный судебный запрет) — решение суда, которое временно замораживает действия властей (в данном случае — санкции) до окончания полного судебного разбирательства.
- Constitutional AI (Конституционный ИИ) — метод обучения моделей (как у Claude), при котором нейросети заранее "скармливают" набор жестких этических правил (конституцию), нарушать которые она не имеет права ни при каких обстоятельствах.
Статья написана в марте 2026 года после решения федерального суда США. Правительство запросило отсрочку на подачу апелляции.
Похожие новости
Гонка интеллектов не сбавляет оборотов. В феврале 2026 года компания Anthropic без лишнего шума и громких презентаций выпустила масштабное обновление своих нейросетей — флагмана Claude 4.6 Opus и быст...
В феврале 2026 года компания Anthropic выпустила Claude Opus 4.6 — нейросеть, которая перевернула наше представление о работе с данными. Огромный "рабочий стол" в 1 миллион токенов, способность писать...
В мире больших технологий принято улыбаться, говорить о важности безопасности, а потом тихо подписывать правительственные контракты на миллиарды долларов. Но в марте 2026 года создатели нейросети Clau...
Пока нет комментариев.