Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Борьба за власть между компаниями, разрабатывающими ИИ, и правительством США входит в новую фазу. В марте 2026 года федеральный суд временно приостановил попытку Пентагона назвать Anthropic, ведущую компанию в области ИИ, «угрозой национальной безопасности». Это решение не только поставило под сомнение судьбу одной компании, но и вновь открыло дискуссию о границах отношений государства и технологий.
Предпосылки кризиса: ИИ выходит на поле боя
Кризис возник из-за желания Министерства обороны США шире использовать модель ИИ Anthropic, Claude, в военных операциях. Однако компания выступила против использования своей технологии в массовом наблюдении и автономных оружейных системах.
Этическая позиция усилила напряженность между Пентагоном и компанией. В начале марта Министерство обороны объявило Anthropic «риском для цепочки поставок», пытаясь ограничить работу как федеральных агентств, так и военных подрядчиков с компанией.
Этот шаг стал первым в истории США, когда внутренняя технологическая компания была отнесена к такой категории.
Решение суда: акцент на «наказании»
В деле, рассмотренном в федеральном суде Калифорнии, судья Рита Лин постановила, что решение Пентагона может быть незаконным, и временно приостановила его исполнение.
По словам судьи Лин, шаг правительства кажется скорее ответом на публичную критику компании, чем вопросом национальной безопасности.
Значимое заявление в решении суда можно резюмировать так:
Нет юридических оснований для обозначения компании как «потенциального врага» только потому, что она выступает против политики правительства.
Это решение не мешает Пентагону прекратить сотрудничество с Anthropic; однако оно останавливает массовое маркирование компании как «угрозы».
Экономические и стратегические последствия
Anthropic утверждает, что решение Пентагона может привести к потере миллиардов долларов и значительным репутационным ущербам.
Действительно, модели ИИ компании уже использовались в некоторых критических системах американской армии. Есть сообщения, что Claude участвовал в чувствительных процессах, таких как военные операции в Иране.
Эта ситуация также показывает, насколько практически сложно полностью исключить компанию из системы. Министерство обороны даже рассматривало возможность делать исключения для технологий Anthropic в некоторых случаях.
Юридическая сторона: спор о конституционных правах
Дело Anthropic — это не только коммерческая, но и конституционная борьба. Компания утверждает:
Что свобода слова была нарушена (Первая поправка)
Что решение было принято без предоставления права на защиту (право на справедливый процесс)
Первоначальная оценка судьи также указывает на то, что эти аргументы могут быть вескими.
Общая картина: напряженность между государством и корпорациями в эпоху ИИ
Это дело поднимает фундаментальный вопрос о военном использовании ИИ:
До какой степени государства могут управлять частными технологическими компаниями?
Пентагон утверждает, что частные компании не должны ограничивать военные потребности; в то время как такие фирмы, как Anthropic, считают, что ИИ, разработанный без этических границ, может представлять серьезные риски.
Эта напряженность не ограничивается только Anthropic. Взаимоотношения между крупными технологическими компаниями и оборонными агентствами станут определяющим фактором в глобальной конкуренции в ближайшие годы.
Процесс еще не завершен.
Решение суда не является окончательным. Ожидается, что Пентагон подаст апелляцию, и в Вашингтоне продолжается отдельное судебное разбирательство.
Однако пока ситуация ясна:
Американский суд четко обозначил границу возможностей правительства в маркировке ИИ-компаний как «угрозы национальной безопасности».
Дело Anthropic переопределяет баланс не только технологий, но и закона, этики и государственной власти в эпоху искусственного интеллекта.
Это решение могло защитить компанию в краткосрочной перспективе. Но в долгосрочной — его реальное значение будет заключаться в ответе на вопрос:
👉 Будут ли компании, разрабатывающие ИИ, сами устанавливать границы, или это сделают государства?
#AI
#CreatorLeaderboard