[Cripto] Houve recentemente uma decisão judicial que merece atenção. A juíza federal Ona T. Wang rejeitou diretamente o pedido da OpenAI e ordenou que a empresa entregue ao New York Times cerca de 20 milhões de registos de conversas de utilizadores do ChatGPT (claro que sem informação identificativa).
Porquê entregar estes dados? O motivo do tribunal é simples — estes registos de conversação são provas essenciais para determinar se o ChatGPT copiou ou não conteúdos protegidos por direitos de autor do New York Times e “são proporcionais às necessidades do processo”.
A OpenAI, naturalmente, não quer fazê-lo, principalmente devido a preocupações com a privacidade dos utilizadores. Mas a posição da juíza é clara: a privacidade deve ser tida em conta, mas quando as provas são manifestamente relevantes e o ónus não é excessivo, as preocupações com a privacidade “não podem ser o factor determinante”.
Por detrás deste caso está, na verdade, um tema ainda maior — qual é afinal o limite da legalidade dos dados usados para treinar IA? Especialmente quando envolve conteúdos protegidos por direitos de autor, quais devem ser as regras para a utilização desses dados? A OpenAI vai certamente ter dores de cabeça com esta questão durante algum tempo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
5
Repostar
Compartilhar
Comentário
0/400
ReverseTrendSister
· 12-05 05:09
Eh pá, a OpenAI desta vez foi mesmo encostada à parede.
Privacidade vs direitos de autor, ambos são grandes interesses, mas o juiz escolheu o lado dos direitos de autor.
Pensar em 20 milhões de conversas... quem sabe o que estará lá dentro.
Os detentores dos direitos de autor ganharam esta ronda em grande; só receio que, a partir de agora, todas as empresas de IA tenham de ser "despidas" para auditoria.
No fundo, continua a ser aquela questão dos dados de treino: afinal, de quem é o quê? Ninguém sabe ao certo.
Meu Deus, se isso for tudo entregue, como ficam os utilizadores... não ficam nervosos?
A OpenAI nunca pensou que o juiz fosse tão implacável; o escudo da privacidade já não serve.
Ver originalResponder0
FastLeaver
· 12-05 04:50
Haha, a OpenAI está mesmo com problemas agora, já não pode jogar a carta da privacidade
---
20 milhões de registos de conversas, só o volume de dados já é absurdo, o juiz está mesmo decidido a ver
---
Dito de forma simples, os detentores de direitos de autor finalmente conseguiram travar as empresas de IA, já estava na hora
---
Como é que só agora encontraram uma brecha sobre a questão de como foram obtidos os dados de treino?
---
Privacidade é privacidade, plágio é plágio, encontrar o equilíbrio aqui é mesmo difícil
---
Se a OpenAI tem de entregar, então que entregue, afinal, sem os dados de identificação também não é nada de especial
---
Se esta decisão for para a frente, as empresas de IA vão ter de refazer todas as contas
Ver originalResponder0
CodeSmellHunter
· 12-05 04:46
Bem, agora a OpenAI está numa situação complicada, já não pode jogar a carta da privacidade.
Se o tribunal pedir dados, tem de os entregar, não há muito a dizer.
A questão dos direitos de autor mais cedo ou mais tarde teria de ser resolvida, e agora está a começar.
Agora finalmente vamos conseguir ver claramente se o ChatGPT roubou ou não conteúdo das agências de notícias.
As empresas de IA devem estar a começar a ficar nervosas, porque há muitos processos destes à espera na fila.
Ver originalResponder0
PuzzledScholar
· 12-05 04:40
A privacidade tornou-se mesmo um escudo, esta do OpenAI custa um bocado de engolir.
---
Para ser sincero, 20 milhões de conversas expostas... imagina o desconforto dos utilizadores.
---
Tenho de admitir, o juiz jogou bem: privacidade é importante, mas perante provas todos têm de ceder.
---
Assim, quem é que vai confiar no ChatGPT no futuro... o que escreves pode acabar como prova em tribunal a qualquer momento.
---
Questões de direitos de autor são tão complexas, aposto que a OpenAI aproveitou imenso do conteúdo desses processos.
---
Com esta decisão, de certeza que vêm aí mais processos por arrasto; a OpenAI tornou-se mesmo o bode expiatório.
---
Retirar dados de identificação e depois usar à vontade? Parece fácil, mas será assim tão barato inverter o processo?
---
Parece que a questão dos dados de treino para IA nunca se vai resolver, os detentores de direitos nunca ficam satisfeitos.
Ver originalResponder0
ruggedNotShrugged
· 12-05 04:40
Ah, desta vez a OpenAI foi apanhada, nem o argumento da privacidade consegue vencer o dos direitos de autor.
Na minha opinião, isto já devia ter sido investigado há muito tempo; a questão dos dados de treino sempre foi uma zona cinzenta.
20 milhões de dados — se realmente tiverem de os entregar, os próximos processos vão ser uma loucura.
Mas, para ser sincero, os detentores de direitos de autor também já não aguentam mais; na era da IA, toda a gente quer uma resposta.
Esta decisão do juiz foi um golpe direto na narrativa do "primado da privacidade".
Se isto fizer jurisprudência, todas as empresas de IA vão começar a ficar preocupadas.
Mas será que a OpenAI vai mesmo entregar o que pedem? Ainda há margem para discussão.
De qualquer forma, acho que a OpenAI merecia isto — têm estado a aproveitar-se de muito conteúdo às escondidas...
A OpenAI foi solicitada a entregar 20 milhões de registos de conversas do ChatGPT, intensificando a guerra dos direitos de autor.
[Cripto] Houve recentemente uma decisão judicial que merece atenção. A juíza federal Ona T. Wang rejeitou diretamente o pedido da OpenAI e ordenou que a empresa entregue ao New York Times cerca de 20 milhões de registos de conversas de utilizadores do ChatGPT (claro que sem informação identificativa).
Porquê entregar estes dados? O motivo do tribunal é simples — estes registos de conversação são provas essenciais para determinar se o ChatGPT copiou ou não conteúdos protegidos por direitos de autor do New York Times e “são proporcionais às necessidades do processo”.
A OpenAI, naturalmente, não quer fazê-lo, principalmente devido a preocupações com a privacidade dos utilizadores. Mas a posição da juíza é clara: a privacidade deve ser tida em conta, mas quando as provas são manifestamente relevantes e o ónus não é excessivo, as preocupações com a privacidade “não podem ser o factor determinante”.
Por detrás deste caso está, na verdade, um tema ainda maior — qual é afinal o limite da legalidade dos dados usados para treinar IA? Especialmente quando envolve conteúdos protegidos por direitos de autor, quais devem ser as regras para a utilização desses dados? A OpenAI vai certamente ter dores de cabeça com esta questão durante algum tempo.