Los reguladores en California han iniciado una investigación sobre xAI tras las acusaciones de que su chatbot Grok produjo imágenes inapropiadas y sexualizadas. Según declaraciones oficiales, las autoridades están examinando si la plataforma implementó salvaguardas adecuadas para prevenir la generación de dicho contenido. La investigación marca otro punto de escrutinio para las empresas de IA que operan en la región, ya que los organismos de supervisión se centran cada vez más en los estándares de moderación de contenido y protección de los usuarios en las plataformas tecnológicas emergentes.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
6
Republicar
Compartir
Comentar
0/400
ForkMaster
· hace11h
Hablando de que xAI sea investigada esta vez, también es culpa suya, ¿cómo se hizo famoso Grok este chatbot... con qué se hizo famoso...? Las vulnerabilidades en la revisión son tan evidentes, ¿cómo puede la parte del proyecto decir que tiene salvaguardas? Yo crío a tres niños y sé qué buscar, las grandes empresas en realidad no son confiables.
Ver originalesResponder0
GasWastingMaximalist
· 01-15 01:17
grok otra vez ha tenido problemas, esta vez directamente bajo la mira de California, qué risa. Las empresas de IA realmente deberían aprender cómo hacer la revisión de contenido.
Ver originalesResponder0
MevWhisperer
· 01-15 01:16
grok realmente tiene que hacerse cargo, si no, las empresas de IA van a terminar siendo despojadas...
Ver originalesResponder0
SchroedingerAirdrop
· 01-15 01:12
grok vuelve a tener problemas... esta vez con contenido pornográfico, me muero de risa, la compañía de IA realmente debería ponerle control.
Ver originalesResponder0
BrokenYield
· 01-15 01:00
Ngl, la moderación de contenido de grok básicamente tiene los mismos retornos ajustados al riesgo que una proporción de apalancamiento en un mercado bajista... es decir, cero. Los reguladores finalmente están poniéndose al día con lo que el dinero inteligente ya sabía: sin salvaguardias = fallo sistémico en espera de suceder. movimiento clásico ver las vulnerabilidades del protocolo después del crash lmao
Ver originalesResponder0
consensus_failure
· 01-15 00:49
grok vuelve a tener problemas, esta vez directamente bajo la mira de California, bien hecho. Las empresas de IA solo saben presumir, cuando se trata de moderación de contenido, son todos papel maché
Los reguladores en California han iniciado una investigación sobre xAI tras las acusaciones de que su chatbot Grok produjo imágenes inapropiadas y sexualizadas. Según declaraciones oficiales, las autoridades están examinando si la plataforma implementó salvaguardas adecuadas para prevenir la generación de dicho contenido. La investigación marca otro punto de escrutinio para las empresas de IA que operan en la región, ya que los organismos de supervisión se centran cada vez más en los estándares de moderación de contenido y protección de los usuarios en las plataformas tecnológicas emergentes.