الشيء الوحيد الذي يقف بين الإنسانية ونهاية العالم للذكاء الاصطناعي هو… كلود؟

الشيء الوحيد الذي يقف بين الإنسانية ونهاية العالم للذكاء الاصطناعي هو… كلود؟
تفاصيل إضافية:
إن شركة Anthropic عالقة في مفارقة: من بين أفضل شركات الذكاء الاصطناعي، فهي الأكثر هوسًا بالسلامة وتقود المجموعة في البحث عن كيفية حدوث أخطاء في النماذج. ولكن على الرغم من أن قضايا السلامة التي حددتها لا تزال بعيدة عن الحل، إلا أن شركة أنثروبيك تدفع بقوة مثل منافسيها نحو المستوى التالي، الذي يحتمل أن يكون أكثر خطورة، من الذكاء الاصطناعي. وتتمثل مهمتها الأساسية في معرفة كيفية حل هذا التناقض.
في الشهر الماضي، أصدرت Anthropic وثيقتين اعترفتا بالمخاطر المرتبطة بالمسار الذي تسلكه وألمحتا إلى الطريق الذي يمكن أن تسلكه للهروب من المفارقة. “مراهقة التكنولوجيا”، وهي مدونة طويلة الأمد كتبها الرئيس التنفيذي داريو أمودي، تدور اسميا حول “مواجهة مخاطر الذكاء الاصطناعي القوي والتغلب عليها”، ولكنها تقضي وقتًا أطول في الحديث عن الأول مقارنة بالثاني. ويصف أمودي التحدي بلباقة بأنه “صعب”، ولكن تصويره لمخاطر الذكاء الاصطناعي ــ التي أصبحت أكثر خطورة، كما يلاحظ، بسبب الاحتمال الكبير لإساءة استخدام التكنولوجيا من قبل المستبدين ــ يقدم تناقضا مع مقالته السابقة الأكثر تفاؤلا والطوباوية البدائية بعنوان “آلات محبة النعمة”.
تحدث هذا المنشور عن أمة من العباقرة في مركز البيانات؛ تستحضر الرسالة الأخيرة “البحار السوداء اللانهائية”. الترحيل دانتي! ومع ذلك، وبعد أكثر من 20 ألف كلمة معظمها قاتمة، أبدى أمودي في النهاية نبرة من التفاؤل، قائلاً إنه حتى في أحلك الظروف، كانت الإنسانية هي التي تنتصر دائمًا.
أما الوثيقة الثانية “أنثروبيك” والتي نشرت في يناير/كانون الثاني، تحت عنوان “دستور كلود”، فتركز على الكيفية التي قد يتم بها تنفيذ هذه الحيلة. النص موجه تقنيًا إلى جمهور واحد: كلود نفسه (بالإضافة إلى الإصدارات المستقبلية من برنامج الدردشة الآلي). إنها وثيقة مثيرة للاهتمام، تكشف عن رؤية الأنثروبيك لكيفية تعامل كلود، وربما أقرانه في مجال الذكاء الاصطناعي، مع تحديات العالم. خلاصة القول: تخطط شركة أنثروبيك للاعتماد على كلود نفسه لفك عقدة شركتها.
لطالما كان ما يميز سوق الأنثروبيك هو تقنية تسمى الذكاء الاصطناعي الدستوري. وهي عملية تلتزم من خلالها نماذجها بمجموعة من المبادئ التي توائم قيمها مع الأخلاق الإنسانية السليمة. احتوى دستور كلود الأولي على عدد من الوثائق التي تهدف إلى تجسيد تلك القيم – أشياء مثل سبارو (مجموعة من البيانات المناهضة للعنصرية والعنف التي أنشأتها ديب مايند)، والإعلان العالمي لحقوق الإنسان، وشروط خدمة أبل (!). الإصدار المحدث لعام 2026 مختلف: فهو أشبه بمطالبة طويلة تحدد الإطار الأخلاقي الذي سيتبعه كلود، ويكتشف أفضل طريق إلى البر من تلقاء نفسه.
تشرح أماندا أسكيل، دكتوراه الفلسفة التي كانت الكاتبة الرئيسية لهذه المراجعة، أن النهج الأنثروبي أكثر قوة من مجرد مطالبة كلود باتباع مجموعة من القواعد المعلنة. يوضح أسكل: “إذا اتبع الناس القواعد دون سبب سوى وجودها، فغالبًا ما يكون الأمر أسوأ مما لو فهمت سبب وجود القاعدة”. ينص الدستور على أن كلود يجب أن يمارس “الحكم المستقل” عند مواجهة المواقف التي تتطلب الموازنة بين صلاحياته المتمثلة في المساعدة والسلامة والصدق.
وإليك كيف يضع الدستور الأمر على النحو التالي: “بينما نريد أن يكون كلود عقلانيًا وصارمًا عند التفكير بوضوح في الأخلاق، نريد أيضًا أن يكون كلود حساسًا بشكل حدسي لمجموعة واسعة من الاعتبارات وقادرًا على وزن هذه الاعتبارات بسرعة ومعقولة في عملية صنع القرار الحية”. بشكل حدسي هو اختيار كلمة معبرة هنا – يبدو أن الافتراض هو أن هناك ما هو أكثر تحت غطاء كلود من مجرد خوارزمية تختار الكلمة التالية. كما تعرب “مؤسسة كلود”، كما يمكن للمرء أن يطلق عليها، عن الأمل في أن يتمكن برنامج الدردشة الآلي “من الاعتماد بشكل متزايد على حكمته وفهمه”.
حكمة؟ من المؤكد أن الكثير من الأشخاص يأخذون النصائح من نماذج اللغات الكبيرة، لكن الاعتراف بأن تلك الأجهزة الخوارزمية تمتلك بالفعل الجاذبية المرتبطة بمثل هذا المصطلح شيء آخر. لا يتراجع Askell عندما أطلب ذلك. قالت لي: “أعتقد أن كلود قادر بالتأكيد على نوع معين من الحكمة”.
تم جلب وترجمة هذا المقال تلقائيًا بواسطة موقع الواحة التقنية.




