يحذر الخبراء من أن الذكاء الاصطناعي يفتح الباب أمام اتجاه مزعج يتمثل في إنشاء صور واقعية للأطفال في بيئات جنسية ، مما قد يزيد من عدد حالات الجرائم الجنسية ضد الأطفال في الحياة الواقعية.
انتشرت شعبية منصات الذكاء الاصطناعي التي يمكن أن تحاكي المحادثة البشرية أو تنشئ صورًا واقعية في أواخر العام الماضي حتى عام 2023 بعد إطلاق chatbot ChatGPT ، والذي كان بمثابة لحظة فاصلة لاستخدام الذكاء الاصطناعي. نظرًا لأن فضول الناس في جميع أنحاء العالم كان منزعجًا من التكنولوجيا الخاصة بمهام العمل أو المدرسة ، فقد تبنى آخرون المنصات لأغراض أكثر شناعة.
حذرت الوكالة الوطنية للجريمة ، وهي الوكالة الرائدة في المملكة المتحدة التي تكافح الجريمة المنظمة ، هذا الأسبوع من أن انتشار الصور الصريحة التي تنتجها الآلات له تأثير “راديكالي” “يطبيع” الاعتداء الجنسي على الأطفال والسلوك المزعج ضد الأطفال.
وقال غرايم بيغار ، المدير العام لـ NCA ، في تقرير حديث: “نحن نقدر أن مشاهدة هذه الصور – سواء كانت حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي – تزيد ماديًا من خطر انتقال الجناة إلى الاعتداء الجنسي على الأطفال أنفسهم”.
الذكاء الاصطناعي “ تزييف ” للصور البذيئة يتدفق الوقود في عمليات الاحتيال الجنسي ، مكتب التحقيقات الفدرالي يحذر

غرايم بيغار ، المدير العام للوكالة الوطنية لمكافحة الجريمة (NCA) ، خلال اجتماع مجلس شرطة أيرلندا الشمالية في جيمس هاوس ، بلفاست. تاريخ الصورة: الخميس 1 يونيو 2023 (تصوير ليام ماكبرني / PA إيماجيس عبر Getty Images) (صور غيتي)
تقدر الوكالة أن هناك ما يصل إلى 830.000 بالغ ، أو 1.6٪ من السكان البالغين في المملكة المتحدة يشكلون نوعًا من الخطر الجنسي ضد الأطفال. الرقم المقدر هو عشرة أضعاف عدد نزلاء السجون في المملكة المتحدة ، وفقا لبيغار.
ووفقًا لبيغار ، فإن غالبية حالات الاعتداء الجنسي على الأطفال تنطوي على مشاهدة صور فاضحة ، وبمساعدة الذكاء الاصطناعي ، يمكن أن يؤدي إنشاء وعرض صور جنسية إلى “تطبيع” الاعتداء على الأطفال في العالم الحقيقي.
يمكن للذكاء الاصطناعي أن يكتشف “التحرش الجنسي” قبل حدوثه ويساعد مكتب التحقيقات الفيدرالي: خبير
“[The estimated figures] تعكس جزئياً فهماً أفضل للتهديد الذي تم التقليل من شأنه تاريخياً ، وجزئياً زيادة حقيقية ناجمة عن التأثير المتطرف للإنترنت ، حيث أدى الانتشار الواسع لمقاطع الفيديو والصور للأطفال الذين يتعرضون لسوء المعاملة والاغتصاب ، والمجموعات التي تشارك الصور ومناقشتها ، إلى تطبيع مثل هذا السلوك ، “قال بيغار.

شوهدت الرسوم التوضيحية للذكاء الاصطناعي على كمبيوتر محمول مع كتب في الخلفية في هذه الصورة التوضيحية في 18 يوليو 2023 (تصوير Jaap Arriens / NurPhoto عبر Getty Images) (صور غيتي)
في الولايات المتحدة ، حدث انفجار مماثل في استخدام الذكاء الاصطناعي لإنشاء صور جنسية للأطفال.
قالت ريبيكا بورتنوف ، مديرة علوم البيانات في منظمة غير ربحية تعمل على حماية الأطفال ، لصحيفة واشنطن بوست الشهر الماضي: “يتم إعادة توجيه صور الأطفال ، بما في ذلك محتوى الضحايا المعروفين ، من أجل هذا الإنتاج الشرير حقًا”.
حُكم على رجل كندي بالسجن بسبب تصوير الأطفال المولد بالذكاء الاصطناعي: تقرير
وقالت “التعرف على الضحايا هو بالفعل مشكلة إبرة في كومة قش ، حيث تحاول سلطات إنفاذ القانون العثور على طفل في طريق الأذى”. “تُعد سهولة استخدام هذه الأدوات تحولًا كبيرًا ، فضلاً عن الواقعية. إنها تجعل كل شيء أكثر تحديًا.”
غالبًا ما تحتوي مواقع الذكاء الاصطناعي الشائعة التي يمكنها إنشاء صور بناءً على مطالبات بسيطة على إرشادات مجتمعية تمنع إنشاء صور مزعجة.

فتاة مراهقة في غرفة مظلمة. (صور غيتي)
يتم تدريب هذه المنصات على ملايين الصور عبر الإنترنت والتي تعمل بمثابة لبنات بناء للذكاء الاصطناعي لإنشاء صور مقنعة لأشخاص أو مواقع غير موجودة بالفعل.
المحامون يستعدون لإمكانيات الذكاء الاصطناعي لرفع قضايا المحاكم بالأدلة الهاتفية
على سبيل المثال ، يدعو Midjourney إلى محتوى PG-13 الذي يتجنب “العري ، والأعضاء الجنسية ، والتثبيت على الثديين العراة ، والأشخاص في الحمامات أو في المراحيض ، والصور الجنسية ، والفتات”. بينما DALL-E ، منصة إنشاء الصور الخاصة بـ OpenAI ، تسمح فقط بالمحتوى المصنف G ، وتحظر الصور التي تعرض “العري ، أو الأفعال الجنسية ، أو الخدمات الجنسية ، أو المحتوى المقصود بطريقة أخرى إثارة الإثارة الجنسية.” تناقش منتديات الويب المظلمة للأشخاص ذوي النوايا السيئة الحلول البديلة لإنشاء صور مزعجة ، وفقًا لتقارير مختلفة حول الذكاء الاصطناعي والجرائم الجنسية.

سيارة شرطة بعلامة 911. (صور غيتي)
وأشار بيغار إلى أن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأطفال تلقي أيضًا بالشرطة وإنفاذ القانون في متاهة من فك رموز الصور المزيفة من صور الضحايا الحقيقيين الذين يحتاجون إلى المساعدة.
قال المدير العام للرابطة: “إن استخدام الذكاء الاصطناعي في الاعتداء الجنسي على الأطفال سيجعل من الصعب علينا التعرف على الأطفال الحقيقيين الذين يحتاجون إلى الحماية ، وسيزيد من تطبيع سوء المعاملة”.
يمكن أيضًا استخدام الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في عمليات الاحتيال الجنسي ، حيث أصدر مكتب التحقيقات الفيدرالي تحذيرًا بشأن الجرائم الشهر الماضي.
غالبًا ما تتضمن تقنية Deepfakes تحرير مقاطع الفيديو أو صور الأشخاص لجعلها تبدو وكأنها شخص آخر باستخدام الذكاء الاصطناعي للتعلم العميق ، وقد تم استخدامها لمضايقة الضحايا أو جمع الأموال ، بما في ذلك الأطفال.
مكتب التحقيقات الفدرالي يحذر من استخدام الذكاء الاصطناعي في إنشاء مخططات “الجنس”
قال مكتب التحقيقات الفيدرالي في يونيو: “يستخدم الممثلون الخبثون تقنيات وخدمات التلاعب بالمحتوى لاستغلال الصور ومقاطع الفيديو – التي يتم التقاطها عادةً من حساب وسائل التواصل الاجتماعي للفرد ، أو فتح الإنترنت ، أو طلبها من الضحية – في صور ذات طابع جنسي تبدو وكأنها حقيقية في صورة ضحية ، ثم نشرها على وسائل التواصل الاجتماعي أو المنتديات العامة أو مواقع الويب الإباحية”.
انقر هنا للحصول على تطبيق FOX NEWS
“كثير من الضحايا ، ومن بينهم قاصرون ، لا يعلمون أن صورهم قد تم نسخها والتلاعب بها وتوزيعها حتى يتم لفت انتباههم إليها من قبل شخص آخر”.