قامت الجهات التنظيمية في كاليفورنيا بإطلاق تحقيق في xAI بعد ادعاءات أن روبوت الدردشة Grok الخاص بها أنتج صورًا غير لائقة ومُ sexualized. ووفقًا للبيانات الرسمية، فإن السلطات تدرس ما إذا كانت المنصة قد نفذت تدابير حماية كافية لمنع إنتاج مثل هذه المحتويات. ويعد التحقيق نقطة تدقيق أخرى لشركات الذكاء الاصطناعي التي تعمل في المنطقة، حيث تركز هيئات الرقابة بشكل متزايد على معايير تنظيم المحتوى وحماية المستخدمين عبر منصات التكنولوجيا الناشئة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
5
إعادة النشر
مشاركة
تعليق
0/400
GasWastingMaximalist
· منذ 2 س
grok又翻车了啊,这次直接被加州盯上,笑死。ai公司们真的该学会怎么做内容审核了
رد0
MevWhisperer
· منذ 3 س
grok真的得管管了,这样下去ai公司都得被薅秃...
رد0
SchroedingerAirdrop
· منذ 3 س
grok又翻车了...هذه المرة محتوى إباحي، أضحك، يجب على شركة الذكاء الاصطناعي أن تتدخل حقًا
شاهد النسخة الأصليةرد0
BrokenYield
· منذ 3 س
بصراحة، مراقبة المحتوى في grok لديها بشكل أساسي نفس العائد المعدل للمخاطر مثل نسبة الرافعة المالية في سوق هابطة... أي صفر. أخيرًا، يتابع المنظمون ما كانت تعرفه الأموال الذكية بالفعل - عدم وجود تدابير حماية = فشل نظامي في الانتظار الحدوث. حركة كلاسيكية رؤية ثغرات البروتوكول بعد الانهيار لول
قامت الجهات التنظيمية في كاليفورنيا بإطلاق تحقيق في xAI بعد ادعاءات أن روبوت الدردشة Grok الخاص بها أنتج صورًا غير لائقة ومُ sexualized. ووفقًا للبيانات الرسمية، فإن السلطات تدرس ما إذا كانت المنصة قد نفذت تدابير حماية كافية لمنع إنتاج مثل هذه المحتويات. ويعد التحقيق نقطة تدقيق أخرى لشركات الذكاء الاصطناعي التي تعمل في المنطقة، حيث تركز هيئات الرقابة بشكل متزايد على معايير تنظيم المحتوى وحماية المستخدمين عبر منصات التكنولوجيا الناشئة.