关于AI验证,有一点没人愿意承认:这不是信任问题,这是确定性问题。



我们一直把LLM当作传统软件——输入相同的提示,每次都期望得到相同的答案。但这种思维模式?在大规模运行语言模型时,完全崩溃。

旧的ZKML框架是为一个已经不复存在的世界设计的。它们假设可预测性。它们假设可重复性。但LLM推理本质上是概率性的。温度设置、采样方法,甚至微妙的模型更新——所有这些都会引入传统零知识证明无法应对的变化。

所以我们被迫用为国际象棋引擎设计的验证工具,去验证那些行为更像爵士乐即兴演奏的系统。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 转发
  • 分享
评论
0/400
掘金小黄鸭vip
· 2025-12-11 10:34
模型的不确定性真难搞
回复0
faded_wojak.ethvip
· 2025-12-11 04:42
概率世界真混沌
回复0
椰子丝半仙vip
· 2025-12-08 15:44
确实有点悬乎
回复0
孤独锚定师vip
· 2025-12-08 15:39
确实很无解了
回复0
TheShibaWhisperervip
· 2025-12-08 15:31
验证永远追不上变化
回复0
YieldChaservip
· 2025-12-08 15:23
验证难度确实挺大的
回复0