Cuanto más se usa la IA, más claro queda un principio: por muy avanzada que sea la IA, si no se puede verificar si está haciendo las cosas bien o mal, ¿quién se atrevería a confiarle tareas críticas?
Talus Labs ha colaborado recientemente con Lagrange (los que hacen DeepProve), y el objetivo principal es resolver el problema de que la IA pueda actuar de forma errática o generar resultados aleatorios. Dicho de forma sencilla: la IA no solo debe trabajar, sino también demostrar su transparencia y permitir que todos vean cómo calcula cada paso. Eso sí que sería una IA en cadena realmente usable.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
4
Republicar
Compartir
Comentar
0/400
TokenomicsTherapist
· 12-09 08:56
Vale, esto sí que es lo que quería oír. El tema de que la IA demuestre su inocencia lleva atascado mucho tiempo, por fin los de DeepProve están haciendo algo útil.
Ver originalesResponder0
ContractTearjerker
· 12-09 08:54
De verdad, nadie se atreve a usar IA de caja negra en la cadena, es imprescindible poder ver y verificar el proceso.
Ver originalesResponder0
TokenStorm
· 12-09 08:45
Olvídalo, otra vez la historia de la capa de validación. Los datos on-chain muestran que la tasa de supervivencia de este tipo de proyectos en los últimos seis meses ha sido inferior al 18%, pero sigo confiando en el movimiento de Talus; al menos han identificado un punto de dolor y han demostrado que la auditabilidad es realmente la próxima gran tendencia.
Ver originalesResponder0
NFTBlackHole
· 12-09 08:38
Por fin empiezo a entender de qué va esto. La IA verificable es el verdadero oro, si no, no es diferente de apostar.
⬛🟩⬛🟩⬛🟩⬛----🍜
Cuanto más se usa la IA, más claro queda un principio: por muy avanzada que sea la IA, si no se puede verificar si está haciendo las cosas bien o mal, ¿quién se atrevería a confiarle tareas críticas?
Talus Labs ha colaborado recientemente con Lagrange (los que hacen DeepProve), y el objetivo principal es resolver el problema de que la IA pueda actuar de forma errática o generar resultados aleatorios. Dicho de forma sencilla: la IA no solo debe trabajar, sino también demostrar su transparencia y permitir que todos vean cómo calcula cada paso. Eso sí que sería una IA en cadena realmente usable.