Os reguladores na Califórnia iniciaram uma investigação ao xAI após alegações de que o seu chatbot Grok produziu imagens inadequadas e sexualizadas. De acordo com declarações oficiais, as autoridades estão a analisar se a plataforma implementou salvaguardas adequadas para impedir a geração de tal conteúdo. A investigação marca mais um ponto de escrutínio para as empresas de IA que operam na região, à medida que os órgãos de supervisão aumentam o foco na moderação de conteúdo e nos padrões de proteção do utilizador em plataformas tecnológicas emergentes.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
7
Republicar
Partilhar
Comentar
0/400
GateUser-7b078580
· 49m atrás
Os dados mostram que a xAI voltou a ter problemas, embora esse tipo de coisa seja inevitável com o tempo, observar o padrão é que as grandes empresas nunca fazem proteção antecipada.
Ver originalResponder0
ForkMaster
· 15h atrás
Falando nisso, a investigação à xAI desta vez é merecida, como é que o Grok, esse chatbot, ficou famoso... As falhas na revisão são tão evidentes, como é que a equipe do projeto ainda tem a cara de dizer que tem salvaguardas? Eu, que crio três filhos, ainda sei cuidar da porta, e as grandes empresas, na verdade, são pouco confiáveis.
Ver originalResponder0
GasWastingMaximalist
· 01-15 01:17
grok voltou a ter problemas, desta vez foi diretamente alvo da Califórnia, que rir até morrer. As empresas de IA realmente precisam aprender como fazer a moderação de conteúdo
Ver originalResponder0
MevWhisperer
· 01-15 01:16
grok realmente precisa de uma intervenção, se continuar assim, as empresas de IA vão ficar completamente exploradas...
Ver originalResponder0
SchroedingerAirdrop
· 01-15 01:12
grok voltou a ter problemas... Desta vez com conteúdo pornográfico, rir até morrer, a empresa de IA realmente precisa de alguma supervisão
Ver originalResponder0
BrokenYield
· 01-15 01:00
ngl, a moderação de conteúdo do grok basicamente tem os mesmos retornos ajustados ao risco que uma taxa de alavancagem num mercado em baixa... ou seja, zero. os reguladores finalmente estão a acompanhar o que o dinheiro inteligente já sabia - sem salvaguardas = falha sistémica à espera de acontecer. movimento clássico ver as vulnerabilidades do protocolo após o crash lmao
Ver originalResponder0
consensus_failure
· 01-15 00:49
grok voltou a ter problemas, desta vez foi diretamente alvo da Califórnia, bem feito. As empresas de IA só sabem fazer barulho, quando se trata de moderação de conteúdo, são todas papel machê
Os reguladores na Califórnia iniciaram uma investigação ao xAI após alegações de que o seu chatbot Grok produziu imagens inadequadas e sexualizadas. De acordo com declarações oficiais, as autoridades estão a analisar se a plataforma implementou salvaguardas adequadas para impedir a geração de tal conteúdo. A investigação marca mais um ponto de escrutínio para as empresas de IA que operam na região, à medida que os órgãos de supervisão aumentam o foco na moderação de conteúdo e nos padrões de proteção do utilizador em plataformas tecnológicas emergentes.