تكشف قاعدة البيانات المكشوفة لمولد صورة AI

بالإضافة إلى CSAM ، يقول فاولر ، كانت هناك صور إباحية تم إنشاؤها من الذكاء الاصطناعى للبالغين في قاعدة البيانات بالإضافة إلى صور “SWAP” المحتملة. من بين الملفات ، لاحظ ما يبدو أنه صور لأشخاص حقيقيين ، والتي من المحتمل أن تستخدم لإنشاء الصور العارية أو الجنسية التي يتم إنشاؤها من الذكاء الاصطناعي ، كما يقول. لقد كانوا يلتقطون صورًا حقيقية للأشخاص ويتبادلون وجوههم هناك ، كما يدعي بعض الصور التي تم إنشاؤها.
عندما كان مباشرًا ، سمح موقع Gennomis على صور البالغين الصريحة. تضمنت العديد من الصور التي ظهرت على صفحتها الرئيسية ، وقسم النماذج “صورًا جنسية للنساء” ، وكان بعضها “واقعية” ، بينما كان الآخرون يتم إنشاؤهم بالكامل أو في ألبوم ، حيث يمكن للمستخدمين أن يتمكنوا من بيع ألبوم ومحتملة. وقالت الصور التي تم إنشاؤها من الذكاء الاصطناعي.
ذكرت سياسات مستخدم Gennomisâ € ™ أنه فقط “المحتوى المحترم” مسموح به ، قائلة “العنف” ويحظر خطاب الكراهية. “المواد الإباحية عن المشاركة وأي أنشطة غير قانونية أخرى محظورة بشكل صارم على جينوميس ، – تقرأ إرشادات المجتمع ، قائلة إن حسابات نشر المحتوى المحظور سيتم إنهاءها. (قام الباحثون ، ودعاة الضحايا ، والصحفيين ، وشركات التكنولوجيا ، وأكثر من ذلك إلى حد كبير بتخليص العبارة “المواد الإباحية” ، لصالح CSAM ، على مدى العقد الماضي).
ليس من الواضح إلى أي مدى استخدم جينوميس أي أدوات أو أنظمة الاعتدال لمنع أو حظر إنشاء CSAM الناتجة عن الذكاء الاصطناعي. تم نشر بعض المستخدمين على صفحة “التواصل” في العام الماضي أنهم لا يستطيعون توليد صور لأشخاص يمارسون الجنس وأن مطالباتهم قد تم حظرها من أجل الفكاهة غير الجنسية “.
– إذا تمكنت من رؤية تلك الصور التي لا تحتوي على شيء أكثر من عنوان URL ، فإن ذلك يوضح لي أنهم لا يتخذون جميع الخطوات اللازمة لمنع هذا المحتوى ، “يزعم فاولر من قاعدة البيانات.
يقول هنري أجدر ، خبير عميق ومؤسس الاستشارات في الفضاء الكامنة للاستشارات ، حتى لو لم يسمح الشركة بمحتوى ضار وغير قانوني من قبل الشركة ، فإن علامة العلامة التجارية “لا تنويش”. التدابير
يقول أجدر إنه فوجئ أن موقع اللغة الإنجليزية مرتبط بكيان كوري جنوبي. في العام الماضي ، ابتليت البلاد بدولة ديبفيك غير العادية – “الطوارئ” التي تستهدف الفتيات ، قبل أن تتخذ تدابير لمكافحة موجة من سوء المعاملة العميقة. يقول Ajder إن المزيد من الضغط يجب أن يتم وضعه على جميع أجزاء النظام الإيكولوجي الذي يسمح بإنشاء صور غير عادية باستخدام الذكاء الاصطناعي. – كلما نراه أكثر ، كلما كان الأمر أكثر من ذلك السؤال على المشرعين ، على منصات التكنولوجيا ، على شركات استضافة الويب ، على مقدمي الدفع. جميع الأشخاص الذين بشكل أو بآخر ، عن قصد أو بطريقة أخرى – في الغالب غير مدركين – يسهلون ويمكّنون حدوث ذلك ، كما يقول.
يقول فاولر إن قاعدة البيانات المكشوفة أيضًا ملفات ظهرت لتتضمن مطالبات الذكاء الاصطناعي. يقول الباحث إنه لم يتم تضمين بيانات مستخدم ، مثل تسجيل الدخول أو أسماء المستخدمين ، في البيانات المكشوفة. تُظهر لقطات المطالبات استخدام كلمات مثل “” ، “،” الفتاة “، والمراجع إلى الأفعال الجنسية بين أفراد الأسرة. كانت المطالبات تحتوي أيضًا على أعمال جنسية بين المشاهير.
يقول فاولر: “يبدو لي أن التكنولوجيا قد تسابق قبل أي من الإرشادات أو الضوابط”. “من وجهة نظر قانونية ، نعلم جميعًا أن الصور الصريحة للطفل غير قانونية ، لكن ذلك لم يمنع التكنولوجيا من توليد تلك الصور.
نظرًا لأن أنظمة الذكاء الاصطناعى التوليدي قد عززت بشكل كبير مدى سهولة إنشاء وتعديل الصور في العامين الماضيين ، فقد كان هناك انفجار في CSAM الناتجة عن الذكاء الاصطناعي. يقول ديريك راي هيل ، المدير التنفيذي المؤقت لمؤسسة مراقبة الإنترنت (IWF) ، وهو غير مقرها في المملكة المتحدة ، إن مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها من الذكاء الاصطناعى قد تجاوزت أكثر من رباعي منذ عام 2023 ، كما أن الواقعية في هذا المحتوى الرهيب قد قفزت أيضًا في التطور.
قامت IWF بتوثيق كيف يقوم المجرمون بإنشاء CSAM الذي تم إنشاؤه بواسطة AI وتطوير الأساليب التي يستخدمونها لإنشائها. يقول راي هيل: “إنه من السهل جدًا على المجرمين في الوقت الحالي استخدام المجرمين لإنشاء وتوزيع محتوى صريح جنسيًا من الأطفال على نطاق واسع وسرعة”.




