Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
6
Republicar
Partilhar
Comentar
0/400
GoldDiggerDuck
· 2025-12-11 10:34
A incerteza do modelo é realmente difícil de lidar
Ver originalResponder0
faded_wojak.eth
· 2025-12-11 04:42
O mundo das probabilidades é realmente caótico
Ver originalResponder0
CryptoFortuneTeller
· 2025-12-08 15:44
De facto, é um pouco arriscado.
Ver originalResponder0
LonelyAnchorman
· 2025-12-08 15:39
De facto, está mesmo sem solução.
Ver originalResponder0
TheShibaWhisperer
· 2025-12-08 15:31
A validação nunca consegue acompanhar as mudanças
Ver originalResponder0
YieldChaser
· 2025-12-08 15:23
A dificuldade de verificação é realmente bastante elevada.
Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.