تقنية

رد فعل إنساني بعد أن وصفه الجيش الأمريكي بأنه “خطر سلسلة التوريد”

رد فعل إنساني بعد أن وصفه الجيش الأمريكي بأنه “خطر سلسلة التوريد”

تفاصيل إضافية:


وجه وزير الدفاع الأمريكي بيت هيجسيث يوم الجمعة البنتاغون إلى تصنيف الأنثروبولوجيا على أنها “خطر على سلسلة التوريد”، مما أرسل موجات صادمة عبر وادي السليكون وترك العديد من الشركات تتدافع لفهم ما إذا كان بإمكانها الاستمرار في استخدام أحد نماذج الذكاء الاصطناعي الأكثر شعبية في الصناعة.

وكتب هيجسيث في منشور على وسائل التواصل الاجتماعي: “اعتبارًا من الآن، لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي إجراء أي نشاط تجاري مع Anthropic”.

ويأتي هذا التصنيف بعد أسابيع من المفاوضات المتوترة بين البنتاغون وشركة أنثروبيك حول كيفية استخدام الجيش الأمريكي لنماذج الذكاء الاصطناعي الخاصة بالشركة الناشئة. وفي تدوينة هذا الأسبوع، قالت شركة أنثروبيك إن عقودها مع البنتاغون يجب ألا تسمح باستخدام تكنولوجيتها في المراقبة المحلية الجماعية للأمريكيين أو الأسلحة المستقلة بالكامل. وطلب البنتاغون من شركة أنثروبيك الموافقة على السماح للجيش الأمريكي بتطبيق الذكاء الاصطناعي الخاص به على “جميع الاستخدامات المشروعة” دون استثناءات محددة.

يسمح تحديد مخاطر سلسلة التوريد للبنتاغون بتقييد أو استبعاد بعض البائعين من عقود الدفاع إذا اعتبروا أنهم يشكلون نقاط ضعف أمنية، مثل المخاطر المتعلقة بالملكية الأجنبية أو السيطرة أو النفوذ. والغرض منه هو حماية الأنظمة والبيانات العسكرية الحساسة من التسوية المحتملة.

وردت شركة أنثروبيك في منشور مدونة آخر مساء الجمعة، قائلة إنها “ستتحدى أي تصنيف لمخاطر سلسلة التوريد في المحكمة”، وأن مثل هذا التصنيف “سيشكل سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة”.

وأضافت أنثروبيك أنها لم تتلق أي اتصال مباشر من وزارة الدفاع أو البيت الأبيض فيما يتعلق بالمفاوضات حول استخدام نماذج الذكاء الاصطناعي الخاصة بها.

وكتبت الشركة: “ألمح الوزير هيجسيث ضمنًا إلى أن هذا التصنيف سيمنع أي شخص يتعامل مع الجيش من التعامل مع شركة أنثروبيك. ولا يملك الوزير السلطة القانونية لدعم هذا البيان”.

ورفض البنتاغون التعليق.

يقول دين بول، وهو زميل بارز في مؤسسة الابتكار الأمريكي والمستشار الكبير السابق لسياسات الذكاء الاصطناعي في البيت الأبيض: “هذا هو الشيء الأكثر إثارة للصدمة والأذى والأشد تأثيرًا الذي رأيته على الإطلاق من قبل حكومة الولايات المتحدة”. “لقد فرضنا للتو عقوبات على شركة أمريكية. إذا كنت أمريكيًا، فيجب أن تفكر فيما إذا كان يجب عليك العيش هنا بعد 10 سنوات من الآن أم لا”.

وتحدث الناس في جميع أنحاء وادي السيليكون على وسائل التواصل الاجتماعي معربين عن صدمة وفزع مماثلين. وقال بول جراهام، مؤسس شركة Y Combinator لتسريع الشركات الناشئة: “الأشخاص الذين يديرون هذه الإدارة متهورون وانتقاميون. وأعتقد أن هذا يكفي لتفسير سلوكهم”.

قال بوعز باراك، الباحث في OpenAI، في منشور له: “إن ركوع إحدى شركاتنا الرائدة في مجال الذكاء الاصطناعي هو أمر محق فيما يتعلق بأسوأ هدف يمكننا القيام به. آمل بشدة أن تسود العقول الأكثر هدوءًا وأن يتم عكس هذا الإعلان”.

وفي الوقت نفسه، أعلن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، ليلة الجمعة أن الشركة توصلت إلى اتفاق مع وزارة الدفاع لنشر نماذج الذكاء الاصطناعي الخاصة بها في بيئات سرية، على ما يبدو مع اقتطاعات. وقال ألتمان: “اثنان من أهم مبادئ السلامة لدينا هما حظر المراقبة الجماعية المحلية والمسؤولية البشرية عن استخدام القوة، بما في ذلك أنظمة الأسلحة المستقلة”. “توافق وزارة العمل على هذه المبادئ، وتعكسها في القانون والسياسة، ونضعها في اتفاقيتنا.”

العملاء الخلط

في منشور مدونتها يوم الجمعة، قالت Anthropic إن تصنيف مخاطر سلسلة التوريد، بموجب السلطة 10 USC 3252، ينطبق فقط على عقود وزارة الدفاع مباشرة مع الموردين، ولا يغطي كيفية استخدام المقاولين لبرنامج Claude AI لخدمة العملاء الآخرين.

يقول ثلاثة خبراء في العقود الفيدرالية إنه من المستحيل في هذه المرحلة تحديد عملاء Anthropic، إن وجدوا، الذين يجب عليهم الآن قطع العلاقات مع الشركة. يقول أليكس ميجور، الشريك في شركة المحاماة McCarter & English، التي تعمل مع شركات التكنولوجيا، إن إعلان هيجسيث “ليس غارقًا في أي قانون يمكننا التكهن به في الوقت الحالي”.


تم جلب وترجمة هذا المقال تلقائيًا بواسطة موقع الواحة التقنية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى