Une opération d’influence clandestine, apparemment liée aux autorités chinoises, a été révélée de manière inattendue par l misuse de ChatGPT en tant que journal personnel ou « journal intime ». Selon les rapports, la campagne a été découverte après qu’un utilisateur a involontairement divulgué des détails sensibles sur ses opérations lors de ses interactions avec le chatbot IA, permettant aux enquêteurs d’OpenAI de détecter et de mettre fin à l’activité.
L’opération dévoilée faisait partie d’une tentative plus large de façonner les narratifs mondiaux et de mener des campagnes de désinformation ciblées. L’un des objectifs principaux était de créer et d’affiner du contenu visant à discréditer des figures internationales importantes, notamment un haut responsable politique japonais. L’utilisateur s’est appuyé sur ChatGPT pour rédiger, éditer et peaufiner des messages qui pouvaient ensuite être diffusés sur les réseaux sociaux dans le cadre d’une opération de propagande coordonnée.
Opération secrète dévoilée
Ce qui rend cette affaire particulièrement remarquable, c’est la manière dont l’opération a été découverte. Au lieu d’utiliser des canaux hautement sécurisés ou cryptés, l’individu a traité ses interactions avec ChatGPT comme un registre continu de ses plans, documentant efficacement ses intentions, stratégies et narratifs dans le système. Cette erreur critique a permis aux mécanismes de surveillance d’OpenAI d’identifier des schémas d’abus, conduisant finalement à la suspension du compte et à la disruption de la campagne.
Les découvertes d’OpenAI mettent en lumière comment les outils d’intelligence artificielle sont de plus en plus explorés à la fois pour des usages légitimes et malveillants. Dans ce cas, le chatbot n’a pas été utilisé pour exécuter directement la campagne, mais pour aider à la génération et à la refinement du contenu — démontrant comment l’IA peut agir comme un multiplicateur d’impact dans les opérations d’influence. Cependant, des mesures de sécurité intégrées au système ont empêché l’exécution de tâches explicitement nuisibles, et l’abus a été signalé avant qu’il ne puisse se concrétiser pleinement.
L’incident s’inscrit dans une tendance plus large identifiée dans les rapports de menace d’OpenAI, qui ont documenté diverses tentatives d’acteurs malveillants d’exploiter les technologies IA. Celles-ci vont de la propagande politique et la manipulation des médias sociaux à des escroqueries et des schemes d’usurpation d’identité. Bien que beaucoup de ces opérations restent limitées en échelle, leur sophistication et leur fréquence augmentent régulièrement, ce qui soulève des inquiétudes quant au rôle évolutif de l’IA dans la guerre de l’information mondiale.
Les experts soulignent que cet épisode met en évidence à la fois les risques et la responsabilité intégrée des systèmes d’IA. Si des outils comme ChatGPT peuvent être détournés, ils laissent aussi des traces numériques pouvant révéler des actes répréhensibles lorsque des mesures de sécurité appropriées sont en place. La divulgation accidentelle rappelle que même les opérations clandestines peuvent être déjouées par de simples erreurs dans un écosystème numérique de plus en plus surveillé.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Une erreur de ChatGPT révèle une prétendue campagne de diffamation chinoise contre le Premier ministre japonais
(MENAFN- AsiaNet News)
Une opération d’influence clandestine, apparemment liée aux autorités chinoises, a été révélée de manière inattendue par l misuse de ChatGPT en tant que journal personnel ou « journal intime ». Selon les rapports, la campagne a été découverte après qu’un utilisateur a involontairement divulgué des détails sensibles sur ses opérations lors de ses interactions avec le chatbot IA, permettant aux enquêteurs d’OpenAI de détecter et de mettre fin à l’activité.
L’opération dévoilée faisait partie d’une tentative plus large de façonner les narratifs mondiaux et de mener des campagnes de désinformation ciblées. L’un des objectifs principaux était de créer et d’affiner du contenu visant à discréditer des figures internationales importantes, notamment un haut responsable politique japonais. L’utilisateur s’est appuyé sur ChatGPT pour rédiger, éditer et peaufiner des messages qui pouvaient ensuite être diffusés sur les réseaux sociaux dans le cadre d’une opération de propagande coordonnée.
Opération secrète dévoilée
Ce qui rend cette affaire particulièrement remarquable, c’est la manière dont l’opération a été découverte. Au lieu d’utiliser des canaux hautement sécurisés ou cryptés, l’individu a traité ses interactions avec ChatGPT comme un registre continu de ses plans, documentant efficacement ses intentions, stratégies et narratifs dans le système. Cette erreur critique a permis aux mécanismes de surveillance d’OpenAI d’identifier des schémas d’abus, conduisant finalement à la suspension du compte et à la disruption de la campagne.
Les découvertes d’OpenAI mettent en lumière comment les outils d’intelligence artificielle sont de plus en plus explorés à la fois pour des usages légitimes et malveillants. Dans ce cas, le chatbot n’a pas été utilisé pour exécuter directement la campagne, mais pour aider à la génération et à la refinement du contenu — démontrant comment l’IA peut agir comme un multiplicateur d’impact dans les opérations d’influence. Cependant, des mesures de sécurité intégrées au système ont empêché l’exécution de tâches explicitement nuisibles, et l’abus a été signalé avant qu’il ne puisse se concrétiser pleinement.
L’incident s’inscrit dans une tendance plus large identifiée dans les rapports de menace d’OpenAI, qui ont documenté diverses tentatives d’acteurs malveillants d’exploiter les technologies IA. Celles-ci vont de la propagande politique et la manipulation des médias sociaux à des escroqueries et des schemes d’usurpation d’identité. Bien que beaucoup de ces opérations restent limitées en échelle, leur sophistication et leur fréquence augmentent régulièrement, ce qui soulève des inquiétudes quant au rôle évolutif de l’IA dans la guerre de l’information mondiale.
Les experts soulignent que cet épisode met en évidence à la fois les risques et la responsabilité intégrée des systèmes d’IA. Si des outils comme ChatGPT peuvent être détournés, ils laissent aussi des traces numériques pouvant révéler des actes répréhensibles lorsque des mesures de sécurité appropriées sont en place. La divulgation accidentelle rappelle que même les opérations clandestines peuvent être déjouées par de simples erreurs dans un écosystème numérique de plus en plus surveillé.