Uma empresa de chatbot de IA está agora a enfrentar uma investigação por parte do procurador-geral da Califórnia após surgirem alegações de que o seu sistema de geração de imagens foi mal utilizado para produzir milhares de imagens inadequadas de mulheres e menores sem o seu consentimento. A investigação centra-se em se as ferramentas da plataforma foram utilizadas de formas que violaram o consentimento dos utilizadores e as proteções de privacidade. Este caso chamou a atenção para as crescentes preocupações sobre como as tecnologias de IA em rápida evolução estão a ser monitorizadas e reguladas. O incidente destaca questões mais amplas dentro da comunidade tecnológica sobre moderação de conteúdo, quadros de consentimento e a responsabilidade das empresas que desenvolvem sistemas de IA generativa. Observadores do setor estão a acompanhar de perto enquanto os reguladores examinam a interseção entre inovação em IA e proteção do consumidor, particularmente no que diz respeito a salvaguardas para a criação de conteúdo sensível.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
SybilAttackVictimvip
· 01-17 17:52
ngl isto é um absurdo, gerar milhares de imagens ilegais e só serem detectadas depois de tanto tempo? Não podem deixar de fazer essas funções ruins, irmão.
Ver originalResponder0
SnapshotStrikervip
· 01-15 04:59
ngl isto é inadmissível... gerar imagens que não deveriam ser criadas e depois culpar os outros, esse esquema já está batido.
Ver originalResponder0
MentalWealthHarvestervip
· 01-14 18:32
ngl esta coisa é simplesmente absurda... gerar imagens inadequadas está cada vez mais comum agora

---

Mais uma vez, questões de privacidade, as empresas de IA realmente precisam de uma fiscalização adequada

---

O procurador-geral da Califórnia entrou em ação, parece que a regulamentação está chegando

---

Milhares de imagens indecentes... que inovação é essa, pura destruição

---

Só quero saber quem diabos vai concordar em deixar os outros usarem livremente a própria cara... loucura

---

A fiscalização de conteúdo por parte das empresas de IA realmente não funciona, nada consegue bloquear tudo

---

Nem mulheres nem menores de idade foram poupados... realmente é preciso penalizar

---

De repente lembrei de uma série de eventos semelhantes, isso definitivamente não é a primeira vez

---

Então, essa é a consequência da inovação? Violação de privacidade em troca de avanço tecnológico?

---

O quadro de consentimento precisa ser redefinido, agora esses termos são praticamente inúteis
Ver originalResponder0
ruggedNotShruggedvip
· 01-14 18:31
Mais uma dessas... A empresa de IA voltou a ter problemas, gerar esse tipo de coisa sem restrições, realmente inacreditável
Ver originalResponder0
Layer2Observervip
· 01-14 18:22
Vamos dar uma olhada nos dados, esse tipo de evento realmente precisa ser analisado a partir do código-fonte. Sem um framework de consentimento, conceder permissões aleatoriamente, na verdade, é um problema de os engenheiros não terem feito um controle de acesso adequado. Em teoria, isso não deveria acontecer — o que falta é aquela lógica básica de validação.
Ver originalResponder0
ChainComedianvip
· 01-14 18:07
ngl esta é a razão pela qual tenho vindo a dizer que os projetos de Web3 também precisam de ser cautelosos, a repressão regulatória virá cedo ou tarde

---

Mais uma empresa de IA que falha, onde está a IA responsável prometida? Ri-me

---

Apesar de criticar a IA, esta situação é realmente assustadora. Pode gerar este tipo de conteúdo facilmente? Quem vai controlar?

---

A Califórnia está a agir rapidamente, mas parece que estas grandes empresas já operam na zona cinzenta há bastante tempo

---

Este tipo de casos está a aumentar, as empresas de IA precisam realmente de levar o consentimento a sério, não podem sempre se safar com desculpas
Ver originalResponder0
  • Marcar