O regulador do Reino Unido, Ofcom, apoiou a decisão da Grok AI de restringir imagens sexualizadas na sua plataforma. A posição marca um momento interessante, à medida que as autoridades em todo o mundo enfrentam padrões de moderação de conteúdo para sistemas de IA emergentes. A Ofcom confirmou que a sua investigação sobre o assunto permanece ativa, sinalizando uma fiscalização contínua de como as plataformas de IA lidam com a governança de conteúdo sensível. Isto ecoa o impulso regulatório mais amplo que pressiona as empresas de tecnologia a adotarem salvaguardas mais rigorosas, reminiscentes de como as bolsas e plataformas de blockchain enfrentam pressões de conformidade semelhantes.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Republicar
  • Partilhar
Comentar
0/400
GateUser-a606bf0cvip
· 01-17 14:16
grok esta onda realmente tem estilo, embora não acredite muito que a regulamentação possa realmente controlar o que é gerado por IA... mas é certamente melhor do que deixar tudo ao acaso
Ver originalResponder0
MetaMaskedvip
· 01-15 14:45
ngl ofcom esta jogada foi bem feita, no fundo alguém tem que primeiro regulamentar isto, não é?
Ver originalResponder0
AltcoinTherapistvip
· 01-15 12:20
grok esta jogada é bastante agressiva, mas para ser honesto, a regulamentação está ficando cada vez mais apertada e todas as grandes plataformas terão que enfiar a cauda entre as pernas
Ver originalResponder0
SleepTradervip
· 01-15 12:18
Mais uma vez, a vara da regulamentação vem aí, e as plataformas de IA também têm que obedecer.
Ver originalResponder0
MissingSatsvip
· 01-15 12:10
grok restringe conteúdo pornográfico? Está bem, de qualquer forma a tendência regulatória agora é essa, as bolsas estão sendo controladas rigorosamente, as plataformas de IA também não escapam...
Ver originalResponder0
  • Fixar