Деталі пентагону-антропічного спору:
Спір виник через контракт приблизно на $200 мільйонів, який Anthropic підписала для використання своєї моделі Claude AI у засобах секретності для військових США.
Anthropic встановила два ключові "червоні лінії":
- Щоб штучний інтелект не використовувався для масового спостереження за американськими громадянами.
- Щоб він не використовувався для **повністю автономних озброєнь** (озброєнь, що приймають смертельні рішення без людського контролю)
Однак Пентагон вимагав необмеженого використання ШІ для "усіх законних цілей" і не приймав ці обмеження. Міністр оборони Піт Гегсетх змусив компанію дотримуватися цього до кінця п’ятниці (26 лютого 2026).
Коли угода не була досягнута:
- Президент Трамп наказав усім федеральним агентствам **негайно припинити** використання технологій Anthropic (з наданням Пентагону 6-місячного перехідного періоду).
- Гегсетх оголосив Anthropic "ризиком для національної безпеки у ланцюзі постачання" — санкцію, зазвичай застосовувану проти іноземних загроз; вона також забороняє військовим підрядникам вести бізнес із компанією.
Anthropic назвала це рішення "юридично недійсним і прецедентним" і оголосила, що звернеться до суду. Генеральний директор Даріо Амодей підкреслив, що він не відступить від своєї позиції.
Зрештою, Пентагон підписав нову угоду з OpenAI, прийнявши подібні обмеження. Ця подія стала важливим поворотним моментом щодо того, хто має встановлювати межі військового використання ШІ — компанії чи уряд?
Коротко: те, що починалося як обговорення питань безпеки, переросло у політичний тиск і санкції. Конфлікт між етикою ШІ та національною безпекою триває.
#TrumpordersfederalbanonAnthropicAI
Спір виник через контракт приблизно на $200 мільйонів, який Anthropic підписала для використання своєї моделі Claude AI у засобах секретності для військових США.
Anthropic встановила два ключові "червоні лінії":
- Щоб штучний інтелект не використовувався для масового спостереження за американськими громадянами.
- Щоб він не використовувався для **повністю автономних озброєнь** (озброєнь, що приймають смертельні рішення без людського контролю)
Однак Пентагон вимагав необмеженого використання ШІ для "усіх законних цілей" і не приймав ці обмеження. Міністр оборони Піт Гегсетх змусив компанію дотримуватися цього до кінця п’ятниці (26 лютого 2026).
Коли угода не була досягнута:
- Президент Трамп наказав усім федеральним агентствам **негайно припинити** використання технологій Anthropic (з наданням Пентагону 6-місячного перехідного періоду).
- Гегсетх оголосив Anthropic "ризиком для національної безпеки у ланцюзі постачання" — санкцію, зазвичай застосовувану проти іноземних загроз; вона також забороняє військовим підрядникам вести бізнес із компанією.
Anthropic назвала це рішення "юридично недійсним і прецедентним" і оголосила, що звернеться до суду. Генеральний директор Даріо Амодей підкреслив, що він не відступить від своєї позиції.
Зрештою, Пентагон підписав нову угоду з OpenAI, прийнявши подібні обмеження. Ця подія стала важливим поворотним моментом щодо того, хто має встановлювати межі військового використання ШІ — компанії чи уряд?
Коротко: те, що починалося як обговорення питань безпеки, переросло у політичний тиск і санкції. Конфлікт між етикою ШІ та національною безпекою триває.
#TrumpordersfederalbanonAnthropicAI





























