Tencent esta jugada fue muy impresionante, el modelo de traducción de 1.8B de parámetros en realidad puede alcanzar un nivel cercano a 32B, además soporta versiones ligeras de 2 bits y 1.25 bits.


Ejecutarlo en teléfonos móviles sin ninguna dificultad, esta vez llevó la experiencia de los grandes modelos a un nivel accesible.
Parece que el tamaño del modelo no es el único estándar, los modelos pequeños también pueden tener gran capacidad, y en el futuro las aplicaciones de IA en teléfonos móviles despegarán.
Tencent esta estrategia fue muy precisa, controlando los costos y asegurando la efectividad, la competencia de grandes modelos comienza a orientarse hacia la simplificación.
Ver original
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado