Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Mới nhận ra một điều khá thú vị trong năm năm qua, ngành công nghiệp AI đã tạo ra câu chuyện mạnh mẽ về mối đe dọa tiềm tàng của AGI. Không phải vì có bằng chứng chắc chắn, mà vì nó thực sự hữu ích. Điều này giúp họ thu hút vốn từ các nhà đầu tư, thu hút sự chú ý của chính phủ và tạo cảm giác cấp bách cho toàn ngành. Nhưng vấn đề là, khi câu chuyện đó đã lan rộng ra thế giới, nó không còn nằm trong kiểm soát của những người tạo ra nó nữa.
Nó đã trở lại và đôi khi nó còn bắn đạn về phía bạn. Hãy xem điều gì đã xảy ra trong tuần đầu tháng Tư này, vào lúc 03:40 ngày 10 tháng 4 tại San Francisco, một người đàn ông 20 tuổi tên Daniel Moreno-Gama đã ném bom xăng vào cửa căn hộ của Sam Altman. Lửa bùng lên quanh cửa, rồi anh ta bỏ chạy. Khoảng một giờ sau, cùng người đó xuất hiện gần văn phòng OpenAI và đe dọa sẽ đốt cháy lần nữa, trước khi bị bắt giữ.
Hai ngày sau, ngày 12 tháng 4, lúc 01:40, một chiếc xe Honda đỗ cạnh nhà khác của Altman trên đồi. Người trên xe đưa tay ra khỏi cửa sổ và bắn vào nhà. Cảnh sát bắt giữ hai người bị tình nghi là Amanda Tom và Muhammad Tariq Hussen. Cả hai bị cáo buộc tội bắn gây nguy hiểm và hai vụ tấn công trong vòng 48 giờ.
Nhân vật trong vụ tấn công đầu tiên, Daniel Moreno-Gama, là người có quan điểm bi quan về AI trước khi xảy ra vụ việc. Anh ta đã viết bài trên mạng xã hội, dùng hình ảnh từ Dune để phản biện rằng sự thất bại trong việc định hướng AI là mối đe dọa tồn vong. Đồng thời, anh chỉ trích các nhà lãnh đạo công nghệ đang mạo hiểm số phận nhân loại để theo đuổi "chủ nghĩa hậu nhân loại".
Vấn đề của anh là những gì OpenAI và các nhà lãnh đạo AI khác nói không phải là niềm tin chân chính, mà là chiến lược. Việc tạo ra câu chuyện về mối đe dọa tồn tại giúp họ có thể nói đồng thời ba điều: "Chúng tôi là những người dẫn đầu công nghệ nguy hiểm nhất, chúng tôi là những người có trách nhiệm nhất, vì vậy vốn đầu tư nên đổ về phía chúng tôi."
Nhưng khi những lời đó đã ra ngoài, chúng không còn nằm trong phòng họp của các nhà đầu tư hay văn phòng quốc phòng nữa. Một số người đã tiếp nhận câu chuyện đó một cách nghiêm túc, và trong một số trường hợp, nó trở thành mệnh lệnh hành động theo nghĩa đen.
Hãy xem những gì đã xảy ra kể từ cuối năm ngoái. Tháng 12 năm 2024, CEO của UnitedHealthcare, Brian Thompson, bị bắn chết. Người tình nghi, Luigi Mangione, đã tốt nghiệp từ một trường đại học danh tiếng, để lại lời phê bình ngành bảo hiểm y tế. Vụ việc gây phản ứng kỳ lạ trên mạng xã hội, nhiều người thể hiện sự cảm thông với thủ phạm, một số còn ca ngợi anh ta như biểu tượng của phong trào phản đối.
Sau đó, cánh cửa đã bị đẩy mở. An ninh của các nhà quản lý chuyển từ "quyền lợi" sang "đòi hỏi sinh tồn". Theo Fortune, tỷ lệ tấn công thể chất nhằm vào các giám đốc điều hành các công ty lớn đã tăng 225% kể từ năm 2023. Trong các công ty thuộc S&P 500, 33.8% báo cáo chi phí an ninh cho nhà quản lý trong năm 2025, so với 23.3% năm 2020.
Chi phí trung bình của các công ty cho dịch vụ an ninh là 130.000 đô la Mỹ, tăng 20% so với năm trước và gấp đôi trong vòng năm năm.
Nhưng ngành công nghiệp AI lại khác biệt. Không phải vì rủi ro an ninh tăng lên, mà vì chính những người tạo ra AI tin rằng công nghệ này có thể phá hủy nền văn minh. Những con số đó mang ý nghĩa trọng yếu.
Chi phí an ninh của 10 CEO các công ty công nghệ hàng đầu năm 2024 đã vượt quá 45 triệu đô la Mỹ. Mark Zuckerberg tiêu hơn 27 triệu đô la, nhiều hơn tổng chi phí của CEO Apple, Google và bốn công ty khác. Sundar Pichai của Google tiêu 8.27 triệu đô la, tăng 22% so với năm trước. Huang Jen-hsun của NVIDIA tiêu 3.5 triệu đô la, tăng 59%. Những con số mới nhất này cho thấy xu hướng tăng nhanh chóng.
Một cuộc khảo sát của Pew Research năm 2025 cho thấy chỉ 16% trong số 28.333 người trả lời cảm thấy phấn khích về sự phát triển của AI, trong khi 34% lo lắng. Điều thú vị hơn nữa là những người có trình độ học vấn cao hơn và thu nhập cao hơn lại lo ngại về AI mất kiểm soát nhiều hơn. Những người hiểu biết nhất lại sợ hãi nhất.
Vừa mới nghe tin Ron Gibson, thành viên hội đồng thành phố Indianapolis, nhà của ông bị bắn 13 phát trong đêm. Con trai 8 tuổi của ông tỉnh giấc vì tiếng súng. Trước cửa có tờ giấy viết tay: "Cấm xây trung tâm dữ liệu." FBI đã vào cuộc điều tra.
Theo các nhà nghiên cứu từ Đại học George Washington, trung tâm dữ liệu đang trở thành mục tiêu của các nhóm phản đối công nghệ. Nỗi sợ này không phải là điều bí mật trong ngành, nhưng không ai nói ra công khai.
Chúng ta quay lại năm 2016, khi Sam Altman xây dựng một căn bunker dưới lòng đất ở Wyoming, diện tích 1.200 mét vuông, gồm ba tầng, chứa 500 kg vàng, 5.000 viên iodine potassium, 5 tấn thực phẩm đông lạnh, và 100.000 viên đạn. Cùng năm đó, OpenAI mới thành lập. Ông nói trên sân khấu rằng AI là cơ hội lớn nhất của nhân loại, nhưng đồng thời cũng tích trữ đủ vũ khí để lực lượng dân quân. Đây là một cược hai mặt: công khai tin rằng AI sẽ thành công, và bí mật chuẩn bị để AI có thể mất kiểm soát.
Sau vụ tấn công đầu tiên, Altman đã đăng blog, chụp hình cùng trẻ em và nói rằng hy vọng bức ảnh này sẽ ngăn người khác ném bom xăng vào nhà của ông. Ông thừa nhận lập trường đạo đức của những người phản đối, và kêu gọi một cuộc tranh luận công khai "ít hơn về mặt trực diện và so sánh."
Điều thú vị nhất là ông viết: "Tôi đã đánh giá sức mạnh của câu chuyện trong truyền thông và nhận thấy nó quá thấp." Ông biết rằng câu chuyện đó có sức mạnh vượt quá dự đoán của mình. Ông biết nó có thể trở lại như thế nào.
Một tuần trước vụ tấn công đầu tiên, tạp chí The New Yorker đã đăng bài phỏng vấn sâu về Altman do Ronan Farrow và Andrew Marantz thực hiện, phỏng vấn hơn 100 người quen biết. Hai từ chính trong bài là "không đáng tin cậy." Bài báo trích lời một cựu thành viên hội đồng của OpenAI gọi Altman là "người có tính cách chống xã hội" và "không bị ràng buộc bởi sự thật." Nhiều đồng nghiệp mô tả ông đã liên tục thay đổi quan điểm về an toàn AI.
Trong bài đăng của mình, Altman thừa nhận rằng ông có xu hướng tránh xung đột. Ông tạo ra câu chuyện công khai rằng "AI là mối đe dọa tồn tại" để huy động vốn và đàm phán về quy định. Nhưng cuối cùng, công cụ này lại thoát khỏi tầm kiểm soát của ông.
Vào ngày 27 tháng 2 năm nay, OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ để cho phép quân đội Mỹ sử dụng ChatGPT trên mạng lưới bí mật quốc phòng. Cùng ngày, Altman cũng bày tỏ ủng hộ quan điểm của Anthropic về hạn chế sử dụng AI trong quân sự.
Phong trào phản đối QuitGPT được cho là có hơn 1,5 triệu người tham gia. Ngày 21 tháng 3, khoảng 200 người biểu tình tại San Francisco, đi qua các văn phòng của Anthropic, OpenAI và xAI, yêu cầu ba CEO cam kết ngừng phát triển AI cấp cao. Ở London, tổ chức cuộc biểu tình chống AI lớn nhất từng có.
Đây chính là hiện tượng boomerang của câu chuyện. Bức tường của Altman ở Wyoming và các nhân viên an ninh do ông thuê đều được thiết kế để đối phó với hai loại rủi ro khác nhau. Một đến từ bên ngoài, một đến từ chính những gì ông đang xây dựng. Ông coi trọng cả hai rủi ro đó một cách nghiêm túc trong riêng tư, nhưng công khai chỉ thừa nhận một. Câu chuyện được tạo ra, rồi bị phát tán ra ngoài, và cuối cùng đâm thẳng vào cửa nhà.