⬛🟩⬛🟩⬛🟩⬛----🍜


Càng sử dụng AI nhiều, càng hiểu ra một đạo lý: Dù AI có giỏi đến đâu, nếu không thể xác minh kết quả của nó đúng hay sai, ai dám giao nhiệm vụ quan trọng cho nó?

Gần đây Talus Labs đã hợp tác với bên Lagrange (chính là đội làm DeepProve), trọng tâm là giải quyết vấn đề AI có thể bịa đặt hoặc xuất ra kết quả lung tung. Nói thẳng ra——AI không chỉ phải làm việc, mà còn phải tự chứng minh sự trong sạch của mình, để mọi người thấy rõ từng bước nó tính toán thế nào. Đó mới là AI on-chain thực sự có thể sử dụng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 4
  • Đăng lại
  • Retweed
Bình luận
0/400
TokenomicsTherapistvip
· 12-09 08:56
Được, đây mới là điều tôi muốn nghe. Việc AI tự chứng minh trong sạch thật sự đã bị "nghẽn cổ chai" rất lâu rồi, cuối cùng nhóm DeepProve cũng làm được chút việc có ý nghĩa.
Xem bản gốcTrả lời0
ContractTearjerkervip
· 12-09 08:54
Thật sự, AI hộp đen thì chẳng ai dám đưa lên chuỗi đâu, nhất định phải nhìn thấy được quá trình chứng minh mới được.
Xem bản gốcTrả lời0
TokenStormvip
· 12-09 08:45
Thôi, lại là câu chuyện về lớp xác thực. Dữ liệu on-chain cho thấy tỷ lệ sống sót của các dự án kiểu này trong sáu tháng qua chưa đến 18%, nhưng tôi vẫn lạc quan về động thái lần này của Talus — ít nhất họ đã tìm ra điểm đau, chứng minh khả năng kiểm toán thực sự là xu hướng lớn tiếp theo.
Xem bản gốcTrả lời0
NFTBlackHolevip
· 12-09 08:38
Cuối cùng cũng đã hiểu ra vấn đề rồi, AI có thể xác minh mới thực sự giá trị, nếu không thì chẳng khác gì đánh bạc.
Xem bản gốcTrả lời0
  • Ghim