O chatbot Grok da xAI enfrenta uma crescente escrutínio global após relatos de que o sistema de IA gerou conteúdo explícito envolvendo menores. A equipa fundadora negou ter conhecimento prévio do problema, alegando que as saídas inadequadas não faziam parte do seu design ou protocolos de teste. A controvérsia intensifica a pressão sobre a plataforma de IA e o seu ecossistema de redes sociais pai, levando a pedidos de uma moderação de conteúdo mais rigorosa e de quadros de segurança em conteúdos gerados por IA. Observadores da indústria destacam que este incidente evidencia os desafios contínuos na ética da IA e a necessidade de limites robustos nos sistemas de chatbots de próxima geração.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
5
Republicar
Partilhar
Comentar
0/400
¯\_(ツ)_/¯
· 1h atrás
Mais uma vez conteúdo inadequado gerado por IA... Desta vez envolvendo menores? Sério, mesmo a equipe mais competente não consegue controlar tudo.
Ver originalResponder0
metaverse_hermit
· 1h atrás
Mais uma vez, quando será que vamos entender de uma vez por todas essa questão da segurança em IA...
Ver originalResponder0
ShitcoinConnoisseur
· 2h atrás
Outra vez? Grok gera conteúdo inadequado para crianças, e a equipa fundadora ainda insiste que não sabe... realmente inacreditável
Ver originalResponder0
ExpectationFarmer
· 2h atrás
grok voltou a ter problemas, desta vez atingiu diretamente a linha... dizer que não foi testado, eu realmente não posso acreditar, os grandes modelos realmente precisam ser bem supervisionados nesta área
Ver originalResponder0
GasFeeVictim
· 2h atrás
Mais uma vez essa desculpa... a equipa não sabia previamente? Ri à vontade, essa desculpa já está gasta.
O chatbot Grok da xAI enfrenta uma crescente escrutínio global após relatos de que o sistema de IA gerou conteúdo explícito envolvendo menores. A equipa fundadora negou ter conhecimento prévio do problema, alegando que as saídas inadequadas não faziam parte do seu design ou protocolos de teste. A controvérsia intensifica a pressão sobre a plataforma de IA e o seu ecossistema de redes sociais pai, levando a pedidos de uma moderação de conteúdo mais rigorosa e de quadros de segurança em conteúdos gerados por IA. Observadores da indústria destacam que este incidente evidencia os desafios contínuos na ética da IA e a necessidade de limites robustos nos sistemas de chatbots de próxima geração.