تقول OpenAI إنها تجري إعادة تفاوض على اتفاقها “المتعجل” مع البنتاغون لإضافة حظر صريح على استخدام الذكاء الاصطناعي الخاص بها للمراقبة الداخلية للمواطنين الأمريكيين—وهو بند يعالج أحد أكثر القضايا إثارة للجدل في المواجهة بين الجيش الأمريكي وصناعة الذكاء الاصطناعي.
مقطع فيديو موصى به
في مذكرة داخلية نُشرت على وسائل التواصل الاجتماعي، قال الرئيس التنفيذي لـ OpenAI سام ألتمان إن الشركة “لم يكن ينبغي لها أن تتسرع” في إصدار الاتفاق يوم الجمعة.
كتب قائلاً: “القضايا معقدة جدًا وتتطلب تواصلًا واضحًا.” وأضاف: “كنا نحاول حقًا تهدئة الأمور وتجنب نتيجة أسوأ بكثير، لكني أعتقد أن الأمر بدا فقط استغلاليًا ومرتبكًا.”
وفقًا لألتمان، ستنص لغة العقد الجديدة على أن أنظمة الذكاء الاصطناعي الخاصة بـ OpenAI لن تُستخدم “عن عمد للمراقبة الداخلية للأشخاص والأجانب الأمريكيين”، بما يتوافق مع التعديل الرابع، وقانون الأمن القومي لعام 1947، وقانون المراقبة الاستخباراتية الأجنبية لعام 1978.
قالت كاترينا موليجان، رئيسة شراكات الأمن الوطني في OpenAI ومسؤولة سابقة في البنتاغون، ومجلس الأمن القومي، ووزارة العدل، إن مكونات الاستخبارات الدفاعية—بما في ذلك وكالة الأمن القومي، ووكالة الاستخبارات الجغرافية الفضائية الوطنية، ووكالة الاستخبارات الدفاعية—سيُحظر عليها استخدام خدمات OpenAI بموجب الاتفاق، وأي استخدام من قبل تلك الوكالات يتطلب تعديل عقد منفصل.
ستضيف الشروط المعاد التفاوض عليها أيضًا قيودًا صريحة تغطي البيانات المشتراة تجاريًا—مثل سجلات مواقع الهواتف المحمولة أو معلومات تطبيقات اللياقة البدنية—وهو مجال قانوني غامض. وفقًا لتقرير في The Atlantic، سعت شركة Anthropic المنافسة بشكل خاص للحصول على ضمانات مماثلة ضد المراقبة الداخلية في مفاوضاتها مع البنتاغون. وكان إصرارها على تدابير حماية أكثر صرامة لمنع استخدام أدواتها للمراقبة أحد العقبات الرئيسية التي أدت في النهاية إلى انهيار تلك المفاوضات.
على الرغم من الشروط المعاد التفاوض عليها، شكك خبراء قانونيون في مدى قابلية تنفيذ القيود.
قال تشارلي بولك، زميل أبحاث كبير في معهد القانون والذكاء الاصطناعي، في منشور على X: “يبدو أن هذا تحسن كبير مقارنة باللغة السابقة فيما يتعلق بالمراقبة، وأنا سعيد برؤيته.” وأضاف: “هو لا يعالج مخاوف الأسلحة الذاتية، ولا يدعي ذلك.”
كما دعا محللون مستقلون وموظفو OpenAI إلى عملية يتمكن فيها محامون مستقلون من مراجعة العقد بالكامل ومشاركة تحليلاتهم مع الموظفين المعنيين.
ردود الفعل من الموظفين
جاءت الشروط المعاد التفاوض عليها بعد أن واجهت OpenAI موجة من ردود الفعل الغاضبة من داخل وخارج الشركة. كان ألتمان قد اعترف بالفعل أن الصورة التي تظهر عند الموافقة على صفقة البنتاغون بعد ساعات من تصنيف إدارة ترامب لشركة Anthropic كمخاطر في سلسلة التوريد لرفضها عقدًا بدون ضمانات واضحة للذكاء الاصطناعي لم “تبدو جيدة.” وكان هذا صحيحًا بشكل خاص لأن ألتمان كان قد قال سابقًا علنًا إنه يدعم الخطوط الحمراء التي وضعتها Anthropic بشأن المراقبة الجماعية والأسلحة الذاتية.
كانت Anthropic قد طلبت في مفاوضاتها مع البنتاغون تحديدين صارمين: حظر استخدام ذكائها الاصطناعي للمراقبة الجماعية للمواطنين الأمريكيين، ومنع دمج تقنيتها في أنظمة الأسلحة الذاتية—التي تُعرف بأنها تلك القادرة على اتخاذ قرار بضرب الأهداف دون إشراف بشري مباشر.
انتقد النقاد، بمن فيهم جوناثان إرويري، زميل في مختبر الذكاء الاصطناعي المسؤول في كلية وارتون بجامعة بنسلفانيا، شركة OpenAI لأنها أضعفت موقف Anthropic في لحظة حاسمة.
قال إرويري لـ فورشن: “ما يبعث على خيبة الأمل بشكل خاص هو أن باقي صناعة الذكاء الاصطناعي فشل في دعم Anthropic.” وأضاف: “لو كانت هذه الشركات جادة بشأن التزامها بالذكاء الاصطناعي الآمن والمسؤول (الذي بنى بعض سمعتها عليه)، لكان بإمكانها أن تتحد وتقف معًا ضد البنتاغون نيابة عن الجمهور. بدلاً من ذلك، تركوا الإدارة تلعب بهم ضد بعضهم البعض كمنافسين في السوق.”
وقع العديد من موظفي OpenAI على رسالة مفتوحة تدعم Anthropic بعد المواجهة. وأرسل المستهلكون أيضًا إشارات دعم من خلال دفع تطبيق Claude، مساعد الذكاء الاصطناعي الخاص بـ Anthropic، إلى قمة مخططات متجر آبل للتطبيقات لأول مرة، مما يشير إلى أن المستخدمين كانوا يتحولون احتجاجًا. كما ظهرت رسومات جرافيتي تنتقد قرار OpenAI على الرصيف خارج مكاتبها في سان فرانسيسكو.
حتى بعض باحثي OpenAI خرجوا علنًا. نشر عايدان مكلافلين، عالم أبحاث في الشركة، على X أن شخصيًا لا يعتقد أن “هذه الصفقة كانت تستحق ذلك” في منشور حصد ما يقرب من 500,000 مشاهدة.
انضم إلينا في قمة ابتكار مكان العمل من فورشن 19-20 مايو 2026، في أتلانتا. لقد حان عصر جديد من ابتكار مكان العمل—وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، سيجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشر والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
سام ألتمان يقول إن OpenAI يعيد التفاوض مع البنتاغون بعد صفقة "انتهازية ومرهقة"
تقول OpenAI إنها تجري إعادة تفاوض على اتفاقها “المتعجل” مع البنتاغون لإضافة حظر صريح على استخدام الذكاء الاصطناعي الخاص بها للمراقبة الداخلية للمواطنين الأمريكيين—وهو بند يعالج أحد أكثر القضايا إثارة للجدل في المواجهة بين الجيش الأمريكي وصناعة الذكاء الاصطناعي.
مقطع فيديو موصى به
في مذكرة داخلية نُشرت على وسائل التواصل الاجتماعي، قال الرئيس التنفيذي لـ OpenAI سام ألتمان إن الشركة “لم يكن ينبغي لها أن تتسرع” في إصدار الاتفاق يوم الجمعة.
كتب قائلاً: “القضايا معقدة جدًا وتتطلب تواصلًا واضحًا.” وأضاف: “كنا نحاول حقًا تهدئة الأمور وتجنب نتيجة أسوأ بكثير، لكني أعتقد أن الأمر بدا فقط استغلاليًا ومرتبكًا.”
وفقًا لألتمان، ستنص لغة العقد الجديدة على أن أنظمة الذكاء الاصطناعي الخاصة بـ OpenAI لن تُستخدم “عن عمد للمراقبة الداخلية للأشخاص والأجانب الأمريكيين”، بما يتوافق مع التعديل الرابع، وقانون الأمن القومي لعام 1947، وقانون المراقبة الاستخباراتية الأجنبية لعام 1978.
قالت كاترينا موليجان، رئيسة شراكات الأمن الوطني في OpenAI ومسؤولة سابقة في البنتاغون، ومجلس الأمن القومي، ووزارة العدل، إن مكونات الاستخبارات الدفاعية—بما في ذلك وكالة الأمن القومي، ووكالة الاستخبارات الجغرافية الفضائية الوطنية، ووكالة الاستخبارات الدفاعية—سيُحظر عليها استخدام خدمات OpenAI بموجب الاتفاق، وأي استخدام من قبل تلك الوكالات يتطلب تعديل عقد منفصل.
ستضيف الشروط المعاد التفاوض عليها أيضًا قيودًا صريحة تغطي البيانات المشتراة تجاريًا—مثل سجلات مواقع الهواتف المحمولة أو معلومات تطبيقات اللياقة البدنية—وهو مجال قانوني غامض. وفقًا لتقرير في The Atlantic، سعت شركة Anthropic المنافسة بشكل خاص للحصول على ضمانات مماثلة ضد المراقبة الداخلية في مفاوضاتها مع البنتاغون. وكان إصرارها على تدابير حماية أكثر صرامة لمنع استخدام أدواتها للمراقبة أحد العقبات الرئيسية التي أدت في النهاية إلى انهيار تلك المفاوضات.
على الرغم من الشروط المعاد التفاوض عليها، شكك خبراء قانونيون في مدى قابلية تنفيذ القيود.
قال تشارلي بولك، زميل أبحاث كبير في معهد القانون والذكاء الاصطناعي، في منشور على X: “يبدو أن هذا تحسن كبير مقارنة باللغة السابقة فيما يتعلق بالمراقبة، وأنا سعيد برؤيته.” وأضاف: “هو لا يعالج مخاوف الأسلحة الذاتية، ولا يدعي ذلك.”
كما دعا محللون مستقلون وموظفو OpenAI إلى عملية يتمكن فيها محامون مستقلون من مراجعة العقد بالكامل ومشاركة تحليلاتهم مع الموظفين المعنيين.
ردود الفعل من الموظفين
جاءت الشروط المعاد التفاوض عليها بعد أن واجهت OpenAI موجة من ردود الفعل الغاضبة من داخل وخارج الشركة. كان ألتمان قد اعترف بالفعل أن الصورة التي تظهر عند الموافقة على صفقة البنتاغون بعد ساعات من تصنيف إدارة ترامب لشركة Anthropic كمخاطر في سلسلة التوريد لرفضها عقدًا بدون ضمانات واضحة للذكاء الاصطناعي لم “تبدو جيدة.” وكان هذا صحيحًا بشكل خاص لأن ألتمان كان قد قال سابقًا علنًا إنه يدعم الخطوط الحمراء التي وضعتها Anthropic بشأن المراقبة الجماعية والأسلحة الذاتية.
كانت Anthropic قد طلبت في مفاوضاتها مع البنتاغون تحديدين صارمين: حظر استخدام ذكائها الاصطناعي للمراقبة الجماعية للمواطنين الأمريكيين، ومنع دمج تقنيتها في أنظمة الأسلحة الذاتية—التي تُعرف بأنها تلك القادرة على اتخاذ قرار بضرب الأهداف دون إشراف بشري مباشر.
انتقد النقاد، بمن فيهم جوناثان إرويري، زميل في مختبر الذكاء الاصطناعي المسؤول في كلية وارتون بجامعة بنسلفانيا، شركة OpenAI لأنها أضعفت موقف Anthropic في لحظة حاسمة.
قال إرويري لـ فورشن: “ما يبعث على خيبة الأمل بشكل خاص هو أن باقي صناعة الذكاء الاصطناعي فشل في دعم Anthropic.” وأضاف: “لو كانت هذه الشركات جادة بشأن التزامها بالذكاء الاصطناعي الآمن والمسؤول (الذي بنى بعض سمعتها عليه)، لكان بإمكانها أن تتحد وتقف معًا ضد البنتاغون نيابة عن الجمهور. بدلاً من ذلك، تركوا الإدارة تلعب بهم ضد بعضهم البعض كمنافسين في السوق.”
وقع العديد من موظفي OpenAI على رسالة مفتوحة تدعم Anthropic بعد المواجهة. وأرسل المستهلكون أيضًا إشارات دعم من خلال دفع تطبيق Claude، مساعد الذكاء الاصطناعي الخاص بـ Anthropic، إلى قمة مخططات متجر آبل للتطبيقات لأول مرة، مما يشير إلى أن المستخدمين كانوا يتحولون احتجاجًا. كما ظهرت رسومات جرافيتي تنتقد قرار OpenAI على الرصيف خارج مكاتبها في سان فرانسيسكو.
حتى بعض باحثي OpenAI خرجوا علنًا. نشر عايدان مكلافلين، عالم أبحاث في الشركة، على X أن شخصيًا لا يعتقد أن “هذه الصفقة كانت تستحق ذلك” في منشور حصد ما يقرب من 500,000 مشاهدة.
انضم إلينا في قمة ابتكار مكان العمل من فورشن 19-20 مايو 2026، في أتلانتا. لقد حان عصر جديد من ابتكار مكان العمل—وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، سيجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشر والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.