تكنولوجيا

ما حقيقة استخدام الذكاء الاصطناعي صور اعتداء جنسي على الأطفال

25 كانون الأول, 2023

كشف تقرير جديد عن استخدام بعض أنظمة توليد الصور بالذكاء الاصطناعي الآلاف من صور اعتداء الجنسي على الأطفال، وذلك دون موافقة أسرهم.
ووفقا للتقرير، الذي نقلته وكالة أنباء “أسوشييتد برس”، فقد سهلت هذه الصور على أنظمة الذكاء الاصطناعي إنتاج صور صريحة لأطفال مزيفين، بالإضافة إلى تحويل صور وسائل التواصل الاجتماعي الخاصة بمراهقين حقيقيين يرتدون ملابس كاملة إلى صور عارية، الأمر الذي أثار قلق المدارس وجهات إنفاذ القانون في جميع أنحاء العالم.

وحتى وقت قريب، اعتقد الباحثون في مجال مكافحة إساءة استخدام الإنترنت والجرائم السيبرانية عبر المواد الإباحية للبالغين والصور العادية الخاصة بالأطفال.
لكن التقرير الجديد الذي أصدره مرصد الإنترنت بجامعة ستانفورد عثر على أكثر من 3200 صورة للاعتداء الجنسي على الأطفال في قاعدة بيانات الذكاء الاصطناعي العملاقة LAION، والتي تستخدمها أشهر أنظمة توليد الصور بالذكاء الاصطناعي مثل Stable Diffusion.

شارك الخبر: