تعرف على البشر الذين يحاولون إبقائنا في مأمن من الذكاء الاصطناعي
قبل عام، كانت فكرة إجراء محادثة هادفة مع جهاز كمبيوتر من أفلام الخيال العلمي. ولكن منذ إطلاق برنامج ChatGPT الخاص بـ OpenAI في نوفمبر الماضي ، بدأت الحياة تبدو وكأنها فيلم تقني مثير مع حبكة سريعة الحركة. بدأت روبوتات المحادثة وأدوات الذكاء الاصطناعي التوليدية الأخرى في تغيير طريقة عيش الناس وعملهم بشكل عميق. ولكن ما إذا كانت هذه المؤامرة مثيرة للارتقاء أو بائسًا سيعتمد على من يساعد في كتابتها.
لحسن الحظ ، مثلما يتطور الذكاء الاصطناعي ، كذلك يتطور فريق الأشخاص الذين يقومون ببنائه ودراسته. هذا حشد أكثر تنوعًا من القادة والباحثين ورجال الأعمال والناشطين من أولئك الذين وضعوا أسس ChatGPT. على الرغم من أن مجتمع الذكاء الاصطناعي لا يزال بأغلبية ساحقة من الذكور ، فقد دفع بعض الباحثين والشركات في السنوات الأخيرة لجعله أكثر ترحيباً بالنساء والمجموعات الأخرى الممثلة تمثيلا ناقصا. ويشمل المجال الآن العديد من الأشخاص المهتمين بأكثر من مجرد صنع الخوارزميات أو جني الأموال ، وذلك بفضل حركة – تقودها النساء إلى حد كبير – تأخذ في الاعتبار الآثار الأخلاقية والمجتمعية للتكنولوجيا. فيما يلي بعض الأشخاص الذين يشكلون هذه القصة المتسارعة. – ويل نايت
عن الفن
يقول الفنان سام كانون ، الذي عمل جنبًا إلى جنب مع أربعة مصورين لتحسين الصور باستخدام الخلفيات المصممة بواسطة الذكاء الاصطناعي: “أردت استخدام الذكاء الاصطناعي التوليدي لالتقاط الإمكانات والشعور بعدم الارتياح أثناء استكشاف علاقتنا بهذه التكنولوجيا الجديدة”. “لقد بدت وكأنها محادثة – فأنا أقوم بتغذية الصور والأفكار للذكاء الاصطناعي ، وقدم الذكاء الاصطناعي صورًا وأفكارًا في المقابل.”
قاد رومان شودري بحث الذكاء الاصطناعي الأخلاقي على Twitter حتى استحوذت Elon Musk على الشركة وتسريح فريقها. وهي أحد مؤسسي Humane Intelligence ، وهي منظمة غير ربحية تستخدم التعهيد الجماعي للكشف عن نقاط الضعف في أنظمة الذكاء الاصطناعي ، وتصميم مسابقات تتحدى المتسللين للحث على السلوك السيئ في الخوارزميات. سيختبر حدثها الأول ، المقرر عقده هذا الصيف بدعم من البيت الأبيض ، أنظمة الذكاء الاصطناعي التوليدية من شركات بما في ذلك Google و OpenAI. يقول شودري إن هناك حاجة إلى إجراء اختبارات عامة على نطاق واسع بسبب التداعيات الواسعة النطاق لأنظمة الذكاء الاصطناعي: “إذا كانت الآثار المترتبة على ذلك ستؤثر على المجتمع بشكل كبير ، فهل أليس أفضل الخبراء في المجتمع على نطاق واسع؟” – خاري جونسون
وظيفة سارة بيرد في Microsoft هو الحفاظ على الذكاء الاصطناعي التوليدي الذي تضيفه الشركة إلى تطبيقاتها المكتبية وغيرها من المنتجات من الخروج عن القضبان. نظرًا لأنها شاهدت برامج إنشاء نصوص مثل تلك الموجودة في Bing chatbot أصبحت أكثر قدرة وفائدة ، فقد رأت أيضًا أنها تتحسن في نشر محتوى متحيز وكود ضار. يعمل فريقها على احتواء هذا الجانب المظلم للتكنولوجيا. يقول بيرد إن الذكاء الاصطناعي يمكن أن يغير حياة الكثيرين إلى الأفضل ، لكن “لا شيء من ذلك ممكن إذا كان الناس قلقين بشأن التكنولوجيا التي تنتج مخرجات نمطية”. —KJ
يجين تشوي ، أ يعمل أستاذ في كلية علوم الكمبيوتر والهندسة بجامعة واشنطن ، على تطوير نموذج مفتوح المصدر يسمى دلفي ، مصمم ليكون لديه إحساس بالصواب والخطأ. إنها مهتمة بكيفية إدراك البشر لتصريحات دلفي الأخلاقية. يريد Choi أنظمة قادرة على مثل تلك الموجودة في OpenAI و Google والتي لا تتطلب موارد ضخمة. وتقول: “إن التركيز الحالي على المقياس غير صحي للغاية لأسباب متنوعة”. “إنه تركيز كامل للقوة ، وهو مكلف للغاية ، ومن غير المرجح أن يكون السبيل الوحيد.” —WK
تأسست مارجريت ميتشل فريق البحث الأخلاقي لمنظمة العفو الدولية في Google في عام 2017. تم فصلها بعد أربع سنوات بعد خلاف مع المديرين التنفيذيين حول ورقة شاركت في تأليفها. وحذر من أن النماذج اللغوية الكبيرة – التقنية الكامنة وراء ChatGPT – يمكن أن تعزز الصور النمطية وتسبب أمراضًا أخرى. يشغل ميتشل الآن منصب رئيس الأخلاقيات في Hugging Face ، وهي شركة ناشئة تعمل على تطوير برامج الذكاء الاصطناعي مفتوحة المصدر للمبرمجين. إنها تعمل على التأكد من أن إصدارات الشركة لا تثير أي مفاجآت سيئة وتشجع المجال على وضع الأشخاص قبل الخوارزميات. يمكن أن تكون النماذج التوليدية مفيدة ، كما تقول ، لكنها قد تقوض أيضًا إحساس الناس بالحقيقة: “نحن نجازف بفقدان الاتصال بحقائق التاريخ”. —KJ
عندما إنيولوا ديبوراه بدأت راجي عملها في مجال الذكاء الاصطناعي ، وعملت في مشروع وجد تحيزًا في خوارزميات تحليل الوجه: كانت أقل دقة على النساء ذوات البشرة الداكنة. أدت النتائج إلى توقف Amazon و IBM و Microsoft عن بيع تقنية التعرف على الوجوه. يعمل راجي الآن مع مؤسسة موزيلا على أدوات مفتوحة المصدر تساعد الأشخاص على فحص أنظمة الذكاء الاصطناعي بحثًا عن عيوب مثل التحيز وعدم الدقة – بما في ذلك نماذج اللغات الكبيرة. يقول راجي إن الأدوات يمكن أن تساعد المجتمعات المتضررة من الذكاء الاصطناعي على تحدي مزاعم شركات التكنولوجيا القوية. تقول: “ينكر الناس بشكل فعال حقيقة حدوث أضرار ، لذا فإن جمع الأدلة جزء لا يتجزأ من أي نوع من التقدم في هذا المجال”. —KJ
دانييلا أمودي سابقا عملت على سياسة الذكاء الاصطناعي في OpenAI ، مما ساعد على وضع الأساس لـ ChatGPT. ولكن في عام 2021 ، تركت هي والعديد من الآخرين الشركة لبدء شركة Anthropic ، وهي شركة ذات منفعة عامة ترسم نهجها الخاص لسلامة الذكاء الاصطناعي. روبوت المحادثة الخاص بالشركة الناشئة ، كلود ، لديه “دستور” يوجه سلوكه ، بناءً على مبادئ مستمدة من مصادر بما في ذلك الإعلان العالمي لحقوق الإنسان الصادر عن الأمم المتحدة. يقول أمودي ، رئيس شركة أنثروبيك وأحد مؤسسيها ، إن مثل هذه الأفكار ستقلل من سوء السلوك اليوم وربما تساعد في تقييد أنظمة الذكاء الاصطناعي الأكثر قوة في المستقبل: “التفكير على المدى الطويل في الآثار المحتملة لهذه التكنولوجيا قد يكون مهمًا للغاية”. —WK
ليلى ابراهيم كبير مسؤولي التشغيل في Google DeepMind ، وهي وحدة أبحاث مركزية لمشاريع الذكاء الاصطناعي التوليدية من Google. وهي تعتبر أن إدارة أحد أقوى مختبرات الذكاء الاصطناعي في العالم ليست وظيفة أكثر من كونها مهمة أخلاقية. انضم إبراهيم إلى DeepMind منذ خمس سنوات ، بعد ما يقرب من عقدين من العمل في Intel ، على أمل مساعدة الذكاء الاصطناعي في التطور بطريقة تعود بالنفع على المجتمع. يتمثل أحد أدوارها في رئاسة مجلس المراجعة الداخلية الذي يناقش كيفية توسيع فوائد مشاريع DeepMind والابتعاد عن النتائج السيئة. “اعتقدت أنه إذا كان بإمكاني تقديم بعض خبرتي وخبرتي للمساعدة في ولادة هذه التكنولوجيا في العالم بطريقة أكثر مسؤولية ، فإن الأمر يستحق التواجد هنا” ، كما تقول. —مورجان ميكر
تظهر هذه المقالة في عدد يوليو / أغسطس 2023. إشترك الآن.
دعنا نعرف ما هو رأيك في هذه المقالة. أرسل رسالة إلى المحرر في mail@wired.com.
اكتشاف المزيد من مدونة الواحة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.