AI検証について誰も認めたがらないことがあります。それは「信頼の問題」ではなく「決定論性の問題」だということです。



私たちはLLMを従来のソフトウェアのように扱ってきました――同じプロンプトを与えれば毎回同じ答えが返ってくると期待して。しかしそのメンタルモデルは、大規模に言語モデルを実行するときには完全に崩壊します。

従来のZKMLフレームワークは、もはや存在しない世界を前提に設計されていました。予測可能性を仮定し、再現性を仮定していました。しかし、LLMの推論は本質的に確率的です。温度設定、サンプリング手法、微細なモデル更新ですら、これらすべてが従来のゼロ知識証明では扱えない変動性をもたらします。

つまり私たちは、チェスエンジン向けに作られた検証ツールを、ジャズの即興演奏のように振る舞うシステムの検証に使おうとしているのです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
GoldDiggerDuckvip
· 2025-12-11 10:34
モデルの不確実性は本当に厄介だ
原文表示返信0
faded_wojak.ethvip
· 2025-12-11 04:42
確率の世界は本当に混沌としている
原文表示返信0
CryptoFortuneTellervip
· 2025-12-08 15:44
確かにちょっと怪しい
原文表示返信0
LonelyAnchormanvip
· 2025-12-08 15:39
確かにもうどうしようもない
原文表示返信0
TheShibaWhisperervip
· 2025-12-08 15:31
検証は常に変化に追いつけない
原文表示返信0
YieldChaservip
· 2025-12-08 15:23
検証の難易度は確かにかなり高いです。
原文表示返信0
  • ピン