Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
#AnthropicSuesUSDefenseDepartment
Антропик подает в суд на Министерство обороны США: почему этот иск — важное событие
Что произошло и кто участвует
Компания по искусственному интеллекту Anthropic, известная созданием модели Claude AI, подала крупный иск против Министерства обороны США и связанных с ним государственных агентств, включая администрацию Трампа, после спора о том, как должна использоваться её технология. Об этом юридическом шаге было объявлено в понедельник, 9 марта 2026 года, и он стал одним из самых громких правовых конфликтов между частной компанией в сфере ИИ и правительством США на сегодняшний день.
Иск оспаривает недавнее решение Министерства обороны признать Anthropic «риском в цепочке поставок» — редкой меткой, которая почти никогда не используется против американских компаний, фактически занося Anthropic в черный список для получения оборонных контрактов и оказывая давление на подрядчиков с целью разорвать с ней связи. Anthropic утверждает, что это обозначение незаконно, беспрецедентно и является актом мести, а также нарушает её конституционные права, включая свободу слова и право на справедливое судебное разбирательство.
Почему Anthropic был признан риском и в чем суть спора по контракту
Конфликт возник из-за разногласий между Anthropic и Министерством обороны относительно того, как Пентагон может использовать систему Claude AI. Anthropic настаивала на строгих этических мерах, отказываясь использовать свою ИИ для определенных военных целей, включая массовое внутреннее наблюдение за американцами или разработку полностью автономных оружейных систем без человеческого контроля. Руководство Anthropic считало такие использования опасными и выходящими за рамки их подхода, ориентированного на безопасность ИИ.
В ответ официальные лица обороны, во главе с министром Питом Хегсетом, потребовали от Anthropic разрешить более широкое «законное использование» её технологий, угрожая наказаниями в случае отказа. Когда Anthropic заняла твердую позицию, Пентагон решил признать её риском в цепочке поставок по национальной безопасности — обозначение, которое обычно применяется к иностранным противникам, а не к американским технологическим компаниям. Это означает, что Пентагон и его подрядчики больше не могут использовать или сотрудничать с Anthropic в оборонных проектах.
Президент Дональд Трамп публично поддержал этот шаг, приказав федеральным агентствам прекратить использование Claude в течение шести месяцев, что усилило эффект решения Пентагона. Сторонники военного подхода утверждали, что правительство должно сохранять гибкость в использовании ИИ для национальной обороны, тогда как критики считали, что такой шаг превысил законные полномочия и несправедливо наказывает компанию за её внутренние политики безопасности.
Юридические аргументы в иске
Иск Anthropic был подан в федеральный суд Калифорнии и в апелляционный суд США в Вашингтоне, округ Колумбия, и содержит несколько широких юридических требований:
• Незаконная месть: Anthropic утверждает, что действия правительства являются ответом на её этическую позицию по использованию ИИ, фактически наказывая компанию за отказ ослабить свои меры безопасности.
• Нарушение конституционных прав: В иске говорится, что обозначение Министерства обороны нарушает Первую поправку (свободу слова) и права на справедливое судебное разбирательство, поскольку правительство использовало наказательное обозначение, не санкционированное ясными законодательными полномочиями.
• Угроза бизнесу и инновациям: Отказ от федеральных контрактов и побуждение других агентств и подрядчиков прекратить работу с Anthropic ставит под угрозу репутацию, доходы и будущее развитие компании. Anthropic утверждает, что может понести значительный финансовый ущерб, поскольку федеральные партнеры пересматривают контракты.
Этот юридический подход оспаривает не только конкретное действие, но и более широкую идею о том, как государственная власть может использоваться против частных компаний из-за разногласий по политике. Руководство Anthropic и многие эксперты в области ИИ считают, что разрешение правительству заносить американскую ИИ-компанию в черный список по этическим принципам может создать опасный прецедент для будущих инноваций и корпоративной автономии.
Реакции индустрии и юристов
Иск привлек значительное внимание сообщества технологий и исследований ИИ. Некоторые руководители и эксперты других крупных компаний в области ИИ, включая представителей Google DeepMind и OpenAI, подали или выразили поддержку через юридические документы, поддерживая вызов Anthropic, предупреждая, что обозначение в цепочке поставок может охладить инновации и создать тревожный прецедент для отрасли.
Юридические аналитики также отметили, что это первый случай, когда американская компания в сфере ИИ подверглась такому национальному обозначению, вызывая важные вопросы о полномочиях правительства, политике национальной обороны и правах корпораций. Ведутся дебаты о том, превысило ли Министерство обороны свои законные полномочия и согласится ли федеральный суд заблокировать или отменить это обозначение полностью.
Более широкие последствия и что на кону
Результат этого иска может иметь далеко идущие последствия для того, как компании в сфере ИИ будут вести переговоры о контрактах с правительством в будущем, сколько контроля они сохранят над использованием своих технологий и как интересы национальной безопасности пересекаются с гражданскими свободами, особенно в отношении массового наблюдения и разработки автономного оружия.
Дело Anthropic также подчеркивает более широкий сдвиг в отрасли: разработчики ИИ все чаще сталкиваются с этическими и регуляторными вопросами о том, как их технологии используются, а не только о том, как они работают. Компании, создающие мощные системы ИИ, вынуждены учитывать моральные и социальные последствия своей работы, что теперь пересекается с политикой национальной обороны в беспрецедентных масштабах.
Тем временем Anthropic продолжает искать юридические средства защиты, требуя отмены или блокировки обозначения в цепочке поставок и связанных с ним директив, при этом подчеркивая, что её Claude AI остается приверженной этическому и ответственному использованию в гражданских и коммерческих сферах. Иск продолжается, и суды сыграют ключевую роль в определении того, насколько далеко может распространяться власть правительства в эпоху передовых технологий искусственного интеллекта.