Chi tiết về Tranh chấp Pentagon-Anthropic:
Tranh chấp bắt nguồn từ một hợp đồng trị giá khoảng $200 triệu đô la mà Anthropic đã ký để sử dụng mô hình AI Claude trong các hệ thống phân loại cho quân đội Mỹ.
Anthropic đặt ra hai "đường đỏ" chính:
- AI không được sử dụng để giám sát quy mô lớn công dân Mỹ.
- AI không được sử dụng cho **hệ thống vũ khí hoàn toàn tự động** (vũ khí đưa ra quyết định gây chết người mà không có sự giám sát của con người)
Tuy nhiên, Pentagon yêu cầu sử dụng AI không giới hạn cho "mọi mục đích hợp pháp" và không chấp nhận những hạn chế này. Bộ trưởng Quốc phòng Pete Hegseth buộc công ty phải tuân thủ trước hạn chót vào tối thứ Sáu (ngày 26 tháng 2 năm 2026).
Khi không đạt được thỏa thuận:
- Tổng thống Trump ra lệnh cho tất cả các cơ quan liên bang **ngay lập tức ngừng** công nghệ của Anthropic (cho phép Pentagon có thời gian chuyển tiếp 6 tháng).
- Hegseth tuyên bố Anthropic là "rủi ro chuỗi cung ứng đối với an ninh quốc gia"—một biện pháp trừng phạt thường được sử dụng chống lại các mối đe dọa nước ngoài; nó cũng cấm các nhà thầu quân sự làm ăn với công ty.
Anthropic gọi quyết định này là "không hợp pháp và tạo tiền lệ" và thông báo sẽ đưa vụ việc ra tòa. CEO Dario Amodei nhấn mạnh rằng ông sẽ không lùi bước khỏi quan điểm của mình.
Cuối cùng, Pentagon đã ký một thỏa thuận mới với OpenAI chấp nhận các hạn chế tương tự. Sự kiện này đánh dấu một bước ngoặt lớn về việc ai nên đặt giới hạn cho việc sử dụng AI trong quân sự—các công ty hay chính phủ?
Tóm lại: Những gì bắt đầu như một cuộc thảo luận về mối quan ngại an ninh đã leo thang thành áp lực chính trị và các biện pháp trừng phạt. Xung đột giữa đạo đức AI và an ninh quốc gia vẫn tiếp tục.
#TrumpordersfederalbanonAnthropicAI
Tranh chấp bắt nguồn từ một hợp đồng trị giá khoảng $200 triệu đô la mà Anthropic đã ký để sử dụng mô hình AI Claude trong các hệ thống phân loại cho quân đội Mỹ.
Anthropic đặt ra hai "đường đỏ" chính:
- AI không được sử dụng để giám sát quy mô lớn công dân Mỹ.
- AI không được sử dụng cho **hệ thống vũ khí hoàn toàn tự động** (vũ khí đưa ra quyết định gây chết người mà không có sự giám sát của con người)
Tuy nhiên, Pentagon yêu cầu sử dụng AI không giới hạn cho "mọi mục đích hợp pháp" và không chấp nhận những hạn chế này. Bộ trưởng Quốc phòng Pete Hegseth buộc công ty phải tuân thủ trước hạn chót vào tối thứ Sáu (ngày 26 tháng 2 năm 2026).
Khi không đạt được thỏa thuận:
- Tổng thống Trump ra lệnh cho tất cả các cơ quan liên bang **ngay lập tức ngừng** công nghệ của Anthropic (cho phép Pentagon có thời gian chuyển tiếp 6 tháng).
- Hegseth tuyên bố Anthropic là "rủi ro chuỗi cung ứng đối với an ninh quốc gia"—một biện pháp trừng phạt thường được sử dụng chống lại các mối đe dọa nước ngoài; nó cũng cấm các nhà thầu quân sự làm ăn với công ty.
Anthropic gọi quyết định này là "không hợp pháp và tạo tiền lệ" và thông báo sẽ đưa vụ việc ra tòa. CEO Dario Amodei nhấn mạnh rằng ông sẽ không lùi bước khỏi quan điểm của mình.
Cuối cùng, Pentagon đã ký một thỏa thuận mới với OpenAI chấp nhận các hạn chế tương tự. Sự kiện này đánh dấu một bước ngoặt lớn về việc ai nên đặt giới hạn cho việc sử dụng AI trong quân sự—các công ty hay chính phủ?
Tóm lại: Những gì bắt đầu như một cuộc thảo luận về mối quan ngại an ninh đã leo thang thành áp lực chính trị và các biện pháp trừng phạt. Xung đột giữa đạo đức AI và an ninh quốc gia vẫn tiếp tục.
#TrumpordersfederalbanonAnthropicAI




























