تم الكشف عن عملية تأثير سرية يُزعم أنها مرتبطة بالسلطات الصينية بطريقة غير متوقعة من خلال سوء استخدام ChatGPT كمذكرات شخصية أو “يوميات”. ووفقًا للتقارير، ظهرت الحملة بعد أن كشف مستخدم عن غير قصد عن تفاصيل حساسة تتعلق بالعملية أثناء تفاعله مع روبوت الدردشة الذكي، مما سمح لمحققين من OpenAI بالكشف عن النشاط وإيقافه.
كانت العملية المكتشفة جزءًا من محاولة أوسع لتشكيل السرد العالمي وتنفيذ جهود تضليل مستهدفة. وأحد الأهداف الرئيسية المزعومة كان صياغة وتحسين محتوى يهدف إلى تشويه سمعة شخصيات دولية بارزة، بما في ذلك زعيم سياسي ياباني كبير. اعتمد المستخدم على ChatGPT لصياغة وتحرير وتنقيح الرسائل التي يمكن نشرها لاحقًا على وسائل التواصل الاجتماعي كجزء من حملة دعاية منسقة.
عملية سرية مكشوفة
ما جعل الحالة مثيرة بشكل خاص هو الطريقة التي تم بها الكشف عن العملية. بدلاً من استخدام قنوات آمنة أو مشفرة للغاية، تعامل الشخص مع تفاعلات ChatGPT كسجل مستمر للخطط، موثقًا بشكل فعال النوايا والاستراتيجيات والسرديات داخل النظام. هذا الخطأ الحاسم سمح لآليات المراقبة في OpenAI بتحديد أنماط سوء الاستخدام، مما أدى في النهاية إلى حظر الحساب وتعطيل الحملة.
تسلط نتائج OpenAI الضوء على كيف يتم استكشاف أدوات الذكاء الاصطناعي بشكل متزايد لأغراض مشروعة وخبيثة على حد سواء. في هذه الحالة، لم يُستخدم الروبوت مباشرة لتنفيذ الحملة، بل لمساعدتها في توليد المحتوى وتحسينه — مما يوضح كيف يمكن للذكاء الاصطناعي أن يعمل كعامل مضاعف في عمليات التأثير. ومع ذلك، منعت التدابير الوقائية المدمجة في النظام تنفيذ مهام ضارة صريحة، وتم اكتشاف سوء الاستخدام قبل أن يتجسد بشكل كامل.
تعد الحادثة جزءًا من اتجاه أكبر تم تحديده في تقارير التهديدات الخاصة بـ OpenAI، والتي وثقت محاولات مختلفة من قبل جهات خبيثة لاستغلال تقنيات الذكاء الاصطناعي. تتراوح هذه بين الدعاية السياسية والتلاعب عبر وسائل التواصل الاجتماعي والاحتيال وخطط الانتحال. وعلى الرغم من أن العديد من هذه العمليات تظل محدودة النطاق، إلا أن مستوى تعقيدها وتكرارها يتزايدان باستمرار، مما يثير مخاوف بشأن الدور المتطور للذكاء الاصطناعي في حرب المعلومات العالمية.
يقول الخبراء إن الحادثة تؤكد على كل من المخاطر والمسؤولية المدمجة في أنظمة الذكاء الاصطناعي. فبينما يمكن أن يُساء استخدام أدوات مثل ChatGPT، فإنها تترك أيضًا آثارًا رقمية يمكن أن تكشف عن المخالفات عند وجود التدابير الوقائية المناسبة. وتعد الكشف العرضي تذكيرًا بأن حتى العمليات السرية يمكن أن تنهار بسبب أخطاء بسيطة في نظام رقابي رقمي يتزايد مراقبته.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسريب Chatgpt يكشف عن حملة تشويه مزعومة من الصين على رئيس وزراء اليابان
(MENAFN- AsiaNet News)
تم الكشف عن عملية تأثير سرية يُزعم أنها مرتبطة بالسلطات الصينية بطريقة غير متوقعة من خلال سوء استخدام ChatGPT كمذكرات شخصية أو “يوميات”. ووفقًا للتقارير، ظهرت الحملة بعد أن كشف مستخدم عن غير قصد عن تفاصيل حساسة تتعلق بالعملية أثناء تفاعله مع روبوت الدردشة الذكي، مما سمح لمحققين من OpenAI بالكشف عن النشاط وإيقافه.
كانت العملية المكتشفة جزءًا من محاولة أوسع لتشكيل السرد العالمي وتنفيذ جهود تضليل مستهدفة. وأحد الأهداف الرئيسية المزعومة كان صياغة وتحسين محتوى يهدف إلى تشويه سمعة شخصيات دولية بارزة، بما في ذلك زعيم سياسي ياباني كبير. اعتمد المستخدم على ChatGPT لصياغة وتحرير وتنقيح الرسائل التي يمكن نشرها لاحقًا على وسائل التواصل الاجتماعي كجزء من حملة دعاية منسقة.
عملية سرية مكشوفة
ما جعل الحالة مثيرة بشكل خاص هو الطريقة التي تم بها الكشف عن العملية. بدلاً من استخدام قنوات آمنة أو مشفرة للغاية، تعامل الشخص مع تفاعلات ChatGPT كسجل مستمر للخطط، موثقًا بشكل فعال النوايا والاستراتيجيات والسرديات داخل النظام. هذا الخطأ الحاسم سمح لآليات المراقبة في OpenAI بتحديد أنماط سوء الاستخدام، مما أدى في النهاية إلى حظر الحساب وتعطيل الحملة.
تسلط نتائج OpenAI الضوء على كيف يتم استكشاف أدوات الذكاء الاصطناعي بشكل متزايد لأغراض مشروعة وخبيثة على حد سواء. في هذه الحالة، لم يُستخدم الروبوت مباشرة لتنفيذ الحملة، بل لمساعدتها في توليد المحتوى وتحسينه — مما يوضح كيف يمكن للذكاء الاصطناعي أن يعمل كعامل مضاعف في عمليات التأثير. ومع ذلك، منعت التدابير الوقائية المدمجة في النظام تنفيذ مهام ضارة صريحة، وتم اكتشاف سوء الاستخدام قبل أن يتجسد بشكل كامل.
تعد الحادثة جزءًا من اتجاه أكبر تم تحديده في تقارير التهديدات الخاصة بـ OpenAI، والتي وثقت محاولات مختلفة من قبل جهات خبيثة لاستغلال تقنيات الذكاء الاصطناعي. تتراوح هذه بين الدعاية السياسية والتلاعب عبر وسائل التواصل الاجتماعي والاحتيال وخطط الانتحال. وعلى الرغم من أن العديد من هذه العمليات تظل محدودة النطاق، إلا أن مستوى تعقيدها وتكرارها يتزايدان باستمرار، مما يثير مخاوف بشأن الدور المتطور للذكاء الاصطناعي في حرب المعلومات العالمية.
يقول الخبراء إن الحادثة تؤكد على كل من المخاطر والمسؤولية المدمجة في أنظمة الذكاء الاصطناعي. فبينما يمكن أن يُساء استخدام أدوات مثل ChatGPT، فإنها تترك أيضًا آثارًا رقمية يمكن أن تكشف عن المخالفات عند وجود التدابير الوقائية المناسبة. وتعد الكشف العرضي تذكيرًا بأن حتى العمليات السرية يمكن أن تنهار بسبب أخطاء بسيطة في نظام رقابي رقمي يتزايد مراقبته.