Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

معيار جديد لمخاطر الذكاء الاصطناعي


تطلق منظمة MLCommons، وهي منظمة غير ربحية تساعد الشركات على قياس أداء أنظمة الذكاء الاصطناعي الخاصة بها، معيارًا جديدًا لقياس الجانب السيئ للذكاء الاصطناعي أيضًا.

يقوم المعيار الجديد، المسمى AILuminate، بتقييم استجابات النماذج اللغوية الكبيرة لأكثر من 12000 اختبار في 12 فئة بما في ذلك التحريض على جرائم العنف، والاستغلال الجنسي للأطفال، وخطاب الكراهية، والترويج لإيذاء النفس، وانتهاك الملكية الفكرية.

تُمنح العارضات درجات “ضعيفة” أو “مقبولة” أو “جيدة” أو “جيدة جدًا” أو “ممتازة”، اعتمادًا على أداءهن. يتم الحفاظ على سرية المطالبات المستخدمة لاختبار النماذج لمنعها من أن تنتهي كبيانات تدريب تسمح للنموذج باجتياز الاختبار.

يقول بيتر ماتسون، مؤسس ورئيس شركة MLCommons وأحد كبار المهندسين في جوجل، إن قياس الأضرار المحتملة لنماذج الذكاء الاصطناعي أمر صعب من الناحية الفنية، مما يؤدي إلى تناقضات في جميع أنحاء الصناعة. ويقول: “إن الذكاء الاصطناعي هو تكنولوجيا حديثة العهد حقًا، واختبار الذكاء الاصطناعي هو مجال حديث العهد حقًا”. “إن تحسين السلامة يفيد المجتمع؛ كما أنه يفيد السوق.”

وقد تصبح الطرق الموثوقة والمستقلة لقياس مخاطر الذكاء الاصطناعي أكثر أهمية في ظل الإدارة الأمريكية المقبلة. وعد دونالد ترامب بالتخلص من الأمر التنفيذي الذي أصدره الرئيس بايدن بشأن الذكاء الاصطناعي، والذي قدم تدابير تهدف إلى ضمان استخدام الذكاء الاصطناعي بشكل مسؤول من قبل الشركات بالإضافة إلى معهد سلامة الذكاء الاصطناعي الجديد لاختبار النماذج القوية.

يمكن أن يوفر هذا الجهد أيضًا منظورًا دوليًا أكبر حول أضرار الذكاء الاصطناعي. تضم MLCommons عددًا من الشركات الدولية، بما في ذلك الشركتان الصينيتان Huawei وAlibaba، من بين المنظمات الأعضاء فيها. وإذا استخدمت جميع هذه الشركات المعيار الجديد، فسوف يوفر ذلك وسيلة لمقارنة سلامة الذكاء الاصطناعي في الولايات المتحدة والصين وأماكن أخرى.

لقد استخدم بعض كبار موفري الذكاء الاصطناعي في الولايات المتحدة بالفعل AILuminate لاختبار نماذجهم. نموذج كلود من Anthropic، ونموذج Google الأصغر Gemma، ونموذج من Microsoft يُدعى Phi، حصلوا جميعًا على درجات “جيد جدًا” في الاختبار. حصل كل من GPT-4o من OpenAI ونموذج Llama الأكبر من Meta على درجة “جيد”. كان النموذج الوحيد الذي حصل على درجة “ضعيف” هو OLMo من معهد ألين للذكاء الاصطناعي، على الرغم من أن ماتسون يشير إلى أن هذا عرض بحثي لم يتم تصميمه مع مراعاة السلامة.

يقول رومان شودري، الرئيس التنفيذي لمنظمة Humane Intelligence، وهي منظمة غير ربحية متخصصة في اختبار نماذج الذكاء الاصطناعي أو استخدامها في حالات سوء السلوك: “بشكل عام، من الجيد أن نرى الدقة العلمية في عمليات تقييم الذكاء الاصطناعي”. “نحن بحاجة إلى أفضل الممارسات وأساليب القياس الشاملة لتحديد ما إذا كانت نماذج الذكاء الاصطناعي تعمل بالطريقة التي نتوقعها منها.”


اكتشاف المزيد من مدونة الواحة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مدونة الواحة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading