Các nhà nghiên cứu AI đang cảnh báo khi họ rời khỏi văn phòng

Các nhà nghiên cứu AI cảnh báo về nguy cơ khi rời khỏi công việc

Phân tích bởi Allison Morrow, CNN

Thứ Tư, ngày 18 tháng 2 năm 2026 lúc 22:21 GMT+9 5 phút đọc

Một số nhân viên AI nổi bật đã quyết định từ chức, trong đó có người cảnh báo rõ ràng rằng các công ty họ làm việc đang di chuyển quá nhanh và giảm nhẹ những hạn chế của công nghệ. - d3sign/Moment RF/Getty Images

_Một phiên bản của câu chuyện này đã xuất hiện trong bản tin Nightcap của CNN Business. Để nhận nó trong hộp thư đến của bạn, đăng ký miễn phí _tại đây.

“Thế giới đang gặp nguy hiểm,” cảnh báo cựu trưởng nhóm Nghiên cứu An toàn của Anthropic khi ông chuẩn bị rời đi. Một nhà nghiên cứu của OpenAI, cũng đang trên đường ra đi, nói rằng công nghệ có “tiềm năng thao túng người dùng theo những cách mà chúng ta chưa có công cụ để hiểu, chứ đừng nói đến ngăn chặn.”

Họ là một phần của làn sóng các nhà nghiên cứu và điều hành trí tuệ nhân tạo không chỉ rời bỏ nhà tuyển dụng của họ — họ còn lớn tiếng rung chuông cảnh báo khi ra đi, thu hút sự chú ý đến những dấu hiệu cảnh báo đỏ mà họ thấy.

Trong khi Silicon Valley nổi tiếng với tỷ lệ thay đổi nhân sự cao, sự thay đổi gần đây diễn ra khi các nhà lãnh đạo thị trường như OpenAI và Anthropic cạnh tranh để IPO, điều có thể thúc đẩy tăng trưởng của họ đồng thời mời gọi sự kiểm tra kỹ lưỡng về hoạt động của họ.

Chỉ trong vài ngày qua, một số nhân viên AI nổi bật đã quyết định từ chức, trong đó có người cảnh báo rõ ràng rằng các công ty họ làm việc đang di chuyển quá nhanh và giảm nhẹ những hạn chế của công nghệ.

Zoë Hitzig, một nhà nghiên cứu tại OpenAI trong hai năm qua, đã phát đi thông báo từ chức vào thứ Tư trong một bài luận trên tờ New York Times, nêu rõ “những lo ngại sâu sắc” về chiến lược quảng cáo mới nổi của OpenAI. Hitzig, người cảnh báo về khả năng ChatGPT thao túng người dùng, nói rằng kho dữ liệu người dùng của chatbot, dựa trên “nỗi sợ y tế, các vấn đề về mối quan hệ, niềm tin về Chúa và thế giới bên kia,” đặt ra một vấn đề đạo đức chính xác vì mọi người tin rằng họ đang trò chuyện với một chương trình không có động cơ đen tối.

Phê bình của Hitzig đến khi trang tin công nghệ Platformer đưa tin rằng OpenAI đã giải thể nhóm “đồng bộ mục tiêu,” được thành lập vào năm 2024 để thúc đẩy mục tiêu của công ty là đảm bảo tất cả nhân loại hưởng lợi từ việc theo đuổi “trí tuệ nhân tạo tổng quát” — một AI giả thuyết có khả năng suy nghĩ như con người.

OpenAI chưa phản hồi ngay yêu cầu bình luận.

Giám đốc nhóm Nghiên cứu An toàn của Anthropic nói rằng “trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy khó khăn trong việc để các giá trị của chúng tôi thực sự điều chỉnh hành động của chúng tôi.” - Gabby Jones/Bloomberg/Getty Images

Cũng trong tuần này, Mrinank Sharma, trưởng nhóm Nghiên cứu An toàn của Anthropic, đã đăng một bức thư bí ẩn vào thứ Ba thông báo quyết định rời khỏi công ty và cảnh báo rằng “thế giới đang gặp nguy hiểm.”

Thư của Sharma chỉ đề cập chung chung về Anthropic, công ty đứng sau chatbot Claude. Ông không nói rõ lý do rời đi nhưng ghi nhận rằng “rõ ràng với tôi rằng đã đến lúc phải tiếp tục” và rằng “trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy khó khăn trong việc để các giá trị của chúng tôi thực sự điều chỉnh hành động của chúng tôi.”

Anthropic cho CNN biết rằng họ rất biết ơn công việc của Sharma trong việc thúc đẩy nghiên cứu an toàn AI. Công ty lưu ý rằng ông không phải là trưởng nhóm an toàn hay người phụ trách các biện pháp bảo vệ rộng hơn tại công ty.

Tiếp tục câu chuyện  

Trong khi đó, tại xAI, hai đồng sáng lập đã từ bỏ trong vòng 24 giờ tuần này, thông báo rời khỏi trên X. Điều này để lại chỉ còn một nửa số nhà sáng lập của xAI còn lại tại công ty, hiện đang sáp nhập với SpaceX của Elon Musk để tạo ra công ty tư nhân có giá trị lớn nhất thế giới. Ít nhất năm nhân viên khác của xAI đã thông báo rời đi trên mạng xã hội trong tuần qua.

Chưa rõ lý do tại sao các đồng sáng lập xAI mới nhất lại rời đi, và xAI chưa phản hồi yêu cầu bình luận. Trong bài đăng trên mạng xã hội vào thứ Tư, Musk nói rằng xAI đã “tổ chức lại” để thúc đẩy tăng trưởng, điều “đáng tiếc là đã phải chia tay với một số người.”

Trong ngành công nghiệp mới nổi như AI, việc các nhân tài cao cấp di chuyển liên tục không phải là điều bất thường, nhưng quy mô của các sự ra đi trong thời gian ngắn tại xAI nổi bật.

Startup này đã đối mặt với phản ứng dữ dội toàn cầu về chatbot Grok, đã bị phép tạo ra hình ảnh pornographic không đồng thuận của phụ nữ và trẻ em trong nhiều tuần trước khi nhóm can thiệp để dừng lại. Grok cũng thường xuyên tạo ra các bình luận chống Do Thái trong phản hồi các yêu cầu của người dùng.

Các sự ra đi gần đây khác nhấn mạnh sự căng thẳng giữa một số nhà nghiên cứu lo ngại về an toàn và các điều hành cấp cao háo hức tạo ra doanh thu.

Vào thứ Ba, The Wall Street Journal đưa tin rằng OpenAI đã sa thải một trong những giám đốc an toàn hàng đầu của mình sau khi bà phản đối việc ra mắt “chế độ người lớn” cho phép nội dung pornographic trên ChatGPT. OpenAI sa thải giám đốc an toàn, Ryan Beiermeister, với lý do bà phân biệt đối xử với một nhân viên nam — một cáo buộc mà Beiermeister nói với tạp chí là “hoàn toàn sai sự thật.”

Một nhà nghiên cứu của OpenAI thông báo từ chức vào thứ Tư, nêu rõ “những lo ngại sâu sắc” về chiến lược quảng cáo mới nổi của OpenAI. - Jaap Arriens/NurPhoto/Shutterstock

OpenAI cho biết rằng việc bà bị sa thải không liên quan đến “bất kỳ vấn đề nào bà đã nêu ra trong quá trình làm việc tại công ty.”

Những sự rời bỏ cấp cao đã trở thành phần của câu chuyện AI kể từ khi ChatGPT ra mắt vào cuối năm 2022. Không lâu sau đó, Geoffrey Hinton, được biết đến như “Cha đẻ của AI,” rời khỏi Google và bắt đầu truyền bá về những rủi ro tồn tại của AI, bao gồm cả sự biến động kinh tế lớn trong một thế giới nơi nhiều người sẽ “không thể biết đâu là sự thật nữa.”

Dự đoán ngày tận thế tràn lan – kể cả trong giới điều hành AI, những người có lợi ích tài chính trong việc làm tăng sức mạnh của sản phẩm của họ. Một trong những dự đoán đó đã lan truyền mạnh tuần này, với CEO HyperWrite, Matt Shumer, đăng một bài viết dài gần 5.000 từ về cách các mô hình AI mới nhất đã khiến một số công việc công nghệ trở nên lỗi thời.

“Chúng tôi đang nói với các bạn những gì đã xảy ra trong công việc của chính chúng tôi,” ông viết, “và cảnh báo các bạn rằng các bạn sẽ là người tiếp theo.”

Để xem thêm tin tức và bản tin của CNN, tạo tài khoản tại CNN.com

Điều khoản và Chính sách quyền riêng tư

Bảng điều khiển quyền riêng tư

Thêm thông tin

XAI-0,61%
GROK-5,16%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim