Los reguladores en California han iniciado una investigación sobre xAI tras las acusaciones de que su chatbot Grok produjo imágenes inapropiadas y sexualizadas. Según declaraciones oficiales, las autoridades están examinando si la plataforma implementó salvaguardas adecuadas para prevenir la generación de dicho contenido. La investigación marca otro punto de escrutinio para las empresas de IA que operan en la región, ya que los organismos de supervisión se centran cada vez más en los estándares de moderación de contenido y protección de los usuarios en las plataformas tecnológicas emergentes.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
ForkMastervip
· hace11h
Hablando de que xAI sea investigada esta vez, también es culpa suya, ¿cómo se hizo famoso Grok este chatbot... con qué se hizo famoso...? Las vulnerabilidades en la revisión son tan evidentes, ¿cómo puede la parte del proyecto decir que tiene salvaguardas? Yo crío a tres niños y sé qué buscar, las grandes empresas en realidad no son confiables.
Ver originalesResponder0
GasWastingMaximalistvip
· 01-15 01:17
grok otra vez ha tenido problemas, esta vez directamente bajo la mira de California, qué risa. Las empresas de IA realmente deberían aprender cómo hacer la revisión de contenido.
Ver originalesResponder0
MevWhisperervip
· 01-15 01:16
grok realmente tiene que hacerse cargo, si no, las empresas de IA van a terminar siendo despojadas...
Ver originalesResponder0
SchroedingerAirdropvip
· 01-15 01:12
grok vuelve a tener problemas... esta vez con contenido pornográfico, me muero de risa, la compañía de IA realmente debería ponerle control.
Ver originalesResponder0
BrokenYieldvip
· 01-15 01:00
Ngl, la moderación de contenido de grok básicamente tiene los mismos retornos ajustados al riesgo que una proporción de apalancamiento en un mercado bajista... es decir, cero. Los reguladores finalmente están poniéndose al día con lo que el dinero inteligente ya sabía: sin salvaguardias = fallo sistémico en espera de suceder. movimiento clásico ver las vulnerabilidades del protocolo después del crash lmao
Ver originalesResponder0
consensus_failurevip
· 01-15 00:49
grok vuelve a tener problemas, esta vez directamente bajo la mira de California, bien hecho. Las empresas de IA solo saben presumir, cuando se trata de moderación de contenido, son todos papel maché
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)