Фьючерсы
Сотни контрактов, рассчитанных в USDT или BTC
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
✨Официальное признание Пентагоном Anthropic как риска в цепочке поставок: Дарио Амодеи объявил, что пойдет в суд и подчеркнул, что продолжит поддержку национальной безопасности
Министерство обороны США (Пентагон) официально обозначило стартап в области искусственного интеллекта Anthropic как «риск в цепочке поставок». Это решение ставит точку в многомесячном споре о мерах безопасности, которые компания ввела для своей модели Claude AI. В письменном заявлении от 5 марта 2026 года ведомство заявило: «Руководство Anthropic было официально уведомлено о том, что компания и её продукты оцениваются как риск в цепочке поставок; решение вступает в силу немедленно». Это инструмент, который исторически использовался против иностранных компаний (особенно тех, у которых есть связи с Китаем), действующих против США, и впервые был применен к американской компании. Обоснование Пентагона заключается в том, что Anthropic препятствует использованию Claude AI «для любых законных целей». Представители Минобороны заявили: «Основной принцип заключается в том, что вооруженные силы должны иметь возможность использовать технологии для всех законных целей. Постачальщик не будет допущен к вмешательству в цепочку командования и не поставит под угрозу боевых операторов.»
✨Разногласия возникли из-за двух критических красных линий Anthropic: компания отвергает использование Claude в массовом внутреннем наблюдении за американскими гражданами и полностью автономных беспилотных оружейных системах. Генеральный директор Дарио Амодеи ранее явно сообщил об этих ограничениях министру обороны Питу Хегсету. Пентагон утверждает, что такие ограничения ставят под угрозу национальную безопасность.
✨Генеральный директор Anthropic Дарио Амодеи подтвердил решение Пентагона. В официальном заявлении компании от 5 марта 2026 года Амодеи заявил, что они получили письмо от Министерства войны (ранее Пентагона) 4 марта и посчитали решение «юридически необоснованным». Амодеи отметил: «У нас нет другого выбора, кроме как бороться с этим в суде», и подтвердил, что они подадут судебный иск, как было ранее заявлено. Однако Амодеи также подчеркнул, что они продолжат поддерживать операции в области национальной безопасности: «Чтобы не мешать нашим бойцам, мы продолжим предоставлять наши модели по минимальной цене и с инженерной поддержкой, насколько это возможно». Компания напомнила, что уже активно сотрудничает с Пентагоном в таких сферах, как разведывательный анализ, моделирование, оперативное планирование и кибероперации. Амодеи также извинился за тон внутренней записки, утечка которой произошла шесть дней назад, отметив, что текст устарел и не отражает его тщательного подхода. Решение принято после того, как администрация Трампа приказала федеральным агентствам прекратить использование продуктов Anthropic. Процесс, инициированный заявлением министра обороны Пита Хегсета в X, теперь, возможно, потребует от всех военных подрядчиков разорвать коммерческие связи с Anthropic. Эксперты считают, что этот шаг может изменить баланс сил между Кремниевой долиной и правительством и охладить инновации. Anthropic утверждает, что маркировка риска в цепочке поставок должна быть «наименее ограничительным методом» в соответствии с 10 USC 3252, заявляя, что это решение узконаправленное и повлияет только на прямые контракты. Компания остается приверженной продолжению своих вкладов в национальную безопасность наряду с судебными разбирательствами. Этот случай вновь подчеркивает напряженность между политикой безопасности ИИ и оборонными потребностями; процесс, по-видимому, продолжится в судах в ближайшие дни.
Спор возник из-за контракта на сумму примерно $200 миллион, который Anthropic подписала для использования своей модели Claude AI в секретных системах для вооружённых сил США.
Anthropic установила два ключевых «красных линий»:
- Что ИИ не будет использоваться для массового наблюдения за американскими гражданами.
- Что он не будет использоваться для **полностью автономных систем оружия** (оружия, принимающего смертельные решения без человеческого контроля)
Однако Пентагон потребовал неограниченного использования ИИ «для всех законных целей» и не принял эти ограничения. Министр обороны Пит Хегсетх заставил компанию соблюдать требования с дедлайном до вечера пятницы (26 февраля 2026 года).
Когда соглашение не было достигнуто:
- Президент Трамп приказал всем федеральным агентствам **немедленно прекратить** использование технологий Anthropic (предоставив Пентагону 6-месячный переходный период).
- Хегсетх заявил, что Anthropic представляет собой «риск для национальной безопасности в цепочке поставок» — санкцию, обычно применяемую к иностранным угрозам; также она запрещает военным подрядчикам вести бизнес с компанией.
Anthropic назвала это решение «незаконным и создающим прецедент» и объявила, что обратится в суд. Генеральный директор Дарио Амодей подчеркнул, что он не отступит от своей позиции.
В конечном итоге Пентагон подписал новое соглашение с OpenAI, приняв аналогичные ограничения. Это событие стало важным поворотным моментом в вопросе о том, кто должен устанавливать ограничения на военное использование ИИ — компании или правительство?
Короче говоря: то, что началось как обсуждение вопросов безопасности, переросло в политическое давление и санкции. Конфликт между этикой ИИ и национальной безопасностью продолжается.
#TrumpordersfederalbanonAnthropicAI