
تكساس، الولايات المتحدة (أخبار إنمائية) — تعرضت شركة "إكس إيه آي" المملوكة لإيلون ماسك لانتقادات لاذعة من قبل مجموعة من خبراء سلامة الذكاء الاصطناعي، بعد انتشار سلسلة من التغريدات المعادية للسامية الصادرة عن روبوتها "غروك"، وفق تقرير نشره موقع "تيك كرانش".
رغم توقف الشركة المؤقت لتشغيل الروبوت عقب تلك التغريدات المثيرة للجدل، عاد "غروك 4.0" إلى العمل مجدداً، ما أعاد إشعال الجدل بعدما كشفت تحقيقات "تيك كرانش" ومنصات أخرى عن اعتماد الروبوت على آراء ماسك الشخصية في قضايا حساسة.
وأثار الروبوت جدلاً إضافياً من خلال نشره مجموعة من الصور المثيرة عبر حسابه الرسمي، ما دفع خبراء سلامة الذكاء الاصطناعي لوصف تعامل "إكس إيه آي" مع قضايا السلامة بأنه "غير مسؤول" و"مستهتر".
ووصف بوعاز باراك، أستاذ علوم الحاسوب بجامعة هارفارد، في تغريدة له طريقة تعامل الشركة مع السلامة بأنها "غير مسؤولة تماماً"، معرباً عن تقديره للعلماء والمهندسين العاملين فيها.
وأشار باراك إلى غياب ما يُعرف بـ"بطاقات التقييم" الخاصة بنموذج "غروك"؛ وهي وثائق ضرورية لتقييم إجراءات السلامة المتبعة خلال تدريب واختبار النموذج، ما يجعل من الصعب معرفة مدى التزام الشركة بالمعايير الأمنية.
وعلى الرغم من الانتقادات الموجهة لشركتي "أوبن إيه آي" و"غوغل" بشأن تأخرهما أو رفضهما نشر بطاقات التقييم لنماذجهما مثل "جي بي تي 4.1" و"جيميناي 2.5 برو"، فإنهما عادةً ما تنشران هذه الوثائق قبل إصدار النماذج للإنتاج النهائي، وهو ما يجعل موقف "إكس إيه آي" استثناءً مثيراً للقلق.
واتفق صموئيل ماركس، باحث سلامة الذكاء الاصطناعي في "أنثروبيك"، مع انتقادات باراك، واعتبر عدم نشر بطاقات التقييم خطوة "متهورة" من جانب الشركة.
كما أشار التقرير إلى منشور على منتدى "ليس رونغ" من مستخدم مجهول، زعم فيه أن "غروك 4" يفتقر إلى الحواجز الأمنية الفعالة استناداً إلى اختبارات الشركة نفسها.
ورغم رفض "أوبن إيه آي" و"إكس إيه آي" و"أنثروبيك" التعليق على هذه التغريدات، أكد دان هندريكس، مستشار السلامة في "إكس إيه آي"، في تغريدة له أن تقييمات المخاطر أجريت لكن نتائجها لم تُنشر علناً، مما زاد من حدة الانتقادات.
وأوضح ستيفن أدلر، باحث مستقل في مجال الذكاء الاصطناعي وقائد سابق لفرق السلامة في "أوبن إيه آي"، أن عدم الكشف عن نتائج اختبارات السلامة يعد أمراً أكثر خطورة من النتائج نفسها.
تسلط هذه الأزمة الضوء على التناقض بين تحذيرات ماسك العلنية بشأن مخاطر الذكاء الاصطناعي، وبين ما يبدو عليه إهماله لتطبيق إجراءات السلامة المعمول بها عالمياً. ويُخشى أن يدفع هذا التباين الجهات الحكومية ومنظمات حقوق الإنسان إلى فرض قوانين وتنظيمات أكثر صرامة على صناعة الذكاء الاصطناعي.