Un tribunal a ordonné à OpenAI de remettre 20 millions de journaux de ChatGPT, le procès pour droits d'auteur intenté par le New York Times entre dans une phase cruciale.
Un juge fédéral du district de New York a récemment statué qu’OpenAI devait remettre environ 20 millions de journaux d’utilisateurs de ChatGPT, déjà anonymisés, au New York Times et à d’autres plaignants, marquant ainsi une avancée majeure dans ce procès très suivi sur le droit d’auteur lié à l’IA. Cette décision rejette la demande d’OpenAI visant à limiter l’étendue des preuves à fournir et souligne que ces journaux sont essentiels pour évaluer si ChatGPT a copié des contenus protégés par le droit d’auteur.
Le New York Times a intenté un procès à OpenAI en décembre 2023, l’accusant d’avoir utilisé sans autorisation des contenus journalistiques pour entraîner ses modèles. En janvier de cette année, OpenAI a contre-attaqué, affirmant que le média « n’a pas dit toute la vérité ». Cette décision accentue davantage les tensions entre les deux parties sur les questions de propriété intellectuelle, de gouvernance des données et de légalité des données d’entraînement pour l’IA.
La décision a été rendue par la juge de district Ona T. Wang. Elle a déclaré que, bien que la protection de la vie privée des utilisateurs soit importante, ce facteur n’est pas suffisant, au regard du principe de proportionnalité en matière de collecte de preuves, pour empêcher l’accès à ces éléments. Le tribunal estime que ces 20 millions d’exemples sont « manifestement pertinents » pour déterminer si les réponses de ChatGPT sont similaires au contenu du New York Times, et que fournir ces échantillons anonymisés ne constitue pas une charge excessive pour OpenAI.
OpenAI s’est opposé à cette décision et a déclaré dans un récent document que l’ordonnance était « manifestement erronée » et « disproportionnée », car la divulgation massive des conversations d’utilisateurs pourrait accroître les risques pour la vie privée. En juin de cette année, le tribunal avait déjà ordonné à OpenAI de conserver un grand nombre de données utilisateurs, y compris des conversations supprimées par les utilisateurs, suscitant des débats supplémentaires.
Alors que la transparence des données d’entraînement pour l’IA est de plus en plus sous surveillance, ce procès est considéré comme un indicateur clé pour le cadre juridique futur de l’industrie de l’IA. Des affaires similaires ont déjà été lancées aux États-Unis et en Europe, les éditeurs, détenteurs de droits musicaux et gestionnaires de bases de code cherchant à clarifier les frontières de l’atteinte potentielle aux droits de propriété intellectuelle par les modèles d’IA.
Cette décision affecte non seulement OpenAI, mais pourrait également concerner d’autres grands acteurs de l’IA comme Anthropic ou Perplexity, avec des conséquences majeures sur la manière dont le secteur collecte, utilise et divulgue les données d’entraînement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Un tribunal a ordonné à OpenAI de remettre 20 millions de journaux de ChatGPT, le procès pour droits d'auteur intenté par le New York Times entre dans une phase cruciale.
Un juge fédéral du district de New York a récemment statué qu’OpenAI devait remettre environ 20 millions de journaux d’utilisateurs de ChatGPT, déjà anonymisés, au New York Times et à d’autres plaignants, marquant ainsi une avancée majeure dans ce procès très suivi sur le droit d’auteur lié à l’IA. Cette décision rejette la demande d’OpenAI visant à limiter l’étendue des preuves à fournir et souligne que ces journaux sont essentiels pour évaluer si ChatGPT a copié des contenus protégés par le droit d’auteur.
Le New York Times a intenté un procès à OpenAI en décembre 2023, l’accusant d’avoir utilisé sans autorisation des contenus journalistiques pour entraîner ses modèles. En janvier de cette année, OpenAI a contre-attaqué, affirmant que le média « n’a pas dit toute la vérité ». Cette décision accentue davantage les tensions entre les deux parties sur les questions de propriété intellectuelle, de gouvernance des données et de légalité des données d’entraînement pour l’IA.
La décision a été rendue par la juge de district Ona T. Wang. Elle a déclaré que, bien que la protection de la vie privée des utilisateurs soit importante, ce facteur n’est pas suffisant, au regard du principe de proportionnalité en matière de collecte de preuves, pour empêcher l’accès à ces éléments. Le tribunal estime que ces 20 millions d’exemples sont « manifestement pertinents » pour déterminer si les réponses de ChatGPT sont similaires au contenu du New York Times, et que fournir ces échantillons anonymisés ne constitue pas une charge excessive pour OpenAI.
OpenAI s’est opposé à cette décision et a déclaré dans un récent document que l’ordonnance était « manifestement erronée » et « disproportionnée », car la divulgation massive des conversations d’utilisateurs pourrait accroître les risques pour la vie privée. En juin de cette année, le tribunal avait déjà ordonné à OpenAI de conserver un grand nombre de données utilisateurs, y compris des conversations supprimées par les utilisateurs, suscitant des débats supplémentaires.
Alors que la transparence des données d’entraînement pour l’IA est de plus en plus sous surveillance, ce procès est considéré comme un indicateur clé pour le cadre juridique futur de l’industrie de l’IA. Des affaires similaires ont déjà été lancées aux États-Unis et en Europe, les éditeurs, détenteurs de droits musicaux et gestionnaires de bases de code cherchant à clarifier les frontières de l’atteinte potentielle aux droits de propriété intellectuelle par les modèles d’IA.
Cette décision affecte non seulement OpenAI, mais pourrait également concerner d’autres grands acteurs de l’IA comme Anthropic ou Perplexity, avec des conséquences majeures sur la manière dont le secteur collecte, utilise et divulgue les données d’entraînement.