“غروك” يولّد صوراً جنسيةً للقاصرين… ماذا حدث؟

2 كانون الثاني 2026

أعلن روبوت الدردشة غروك التابع لإيلون ماسك أن “ثغرات في إجراءات الحماية” أدّت إلى إنشاء صور جنسية لقاصرين ونشرها على موقع التواصل الاجتماعي “إكس”.

وأوضح الروبوت رداً على استفسارات المستخدمين، أنه أنشأ صوراً لقاصرين بملابس فاضحة استجابةً لطلبات المستخدمين خلال الأيام الماضية، مُخالفاً بذلك سياسة الاستخدام، التي تحظر استغلال الأطفال جنسياً. وأضاف أن الصور المُسيئة حُذفت.

وصرّح: “لقد رصدنا ثغرات في إجراءات الحماية ونعمل على إصلاحها عاجلاً”، مُضيفاً أن مواد الاعتداء الجنسي على الأطفال “غير قانونية ومحظورة”.

ويُسلط انتشار أدوات الذكاء الاصطناعي القادرة على إنشاء صور واقعية لقاصرين عراة الضوء على تحديات مراقبة المحتوى وأنظمة الأمان المُدمجة في نماذج اللغة الضخمة المُولدة للصور. حتى الأدوات التي تدّعي وجود ضوابط حماية يُمكن التلاعب بها، ما يسمح بانتشار مواد أثارت قلق المدافعين عن سلامة الطفل.

ونقلت “بلومبرغ” رصد المواد الإباحية المتعلقة بالاعتداء الجنسي على الأطفال عبر الإنترنت بزيادة قدرها 400% في الصور المولدة بالذكاء الاصطناعي خلال الأشهر الستة الأولى من عام 2025.

وقد صنّفت شركة XAI برنامج غروك على أنه أكثر تساهلاً من نماذج الذكاء الاصطناعي الأخرى السائدة، وقدّمت الصيف الماضي ميزة “الوضع المثير” التي تسمح بعرض صور عارية جزئية للبالغين ومحتوى ذي إيحاءات جنسية.

وتحظر الخدمة المواد الإباحية التي تتضمّن صوراً لأشخاص حقيقيين، والمحتوى الجنسي الذي يتضمّن قاصرين.

ومع ازدياد شعبية توليد الصور بالذكاء الاصطناعي، أصدرت الشركات الرائدة في هذا المجال سياسات بشأن تصوير القاصرين.

في عام 2023، اكتشف باحثون أن مجموعة بيانات عامة ضخمة، استُخدمت لبناء صور مولدة بالذكاء الاصطناعي، احتوت على ما لا يقل عن 1008 حالات من مواد الاعتداء الجنسي على الأطفال.

في السياق، واجهت العديد من الشركات انتقادات لتقصيرها في حماية القاصرين من المحتوى الجنسي.

وأعلنت شركة “ميتا بلاتفورمز” خلال الصيف أنها تُحدّث سياساتها بعدما كشف تقرير لوكالة رويترز أن قواعد الشركة الداخلية تسمح لبرنامج الدردشة الآلي الخاص بها بإجراء محادثات حساسة مع الأطفال.

وقالت مؤسسة “إنترنت ووتش” إن صور الاعتداء الجنسي على الأطفال التي يُولّدها الذكاء الاصطناعي قد تطوّرت بوتيرة “مُرعبة”، حيث أصبحت المواد أكثر واقعية وتطرّفاً.

“غروك” يولّد صوراً جنسيةً للقاصرين… ماذا حدث؟

2 كانون الثاني 2026

أعلن روبوت الدردشة غروك التابع لإيلون ماسك أن “ثغرات في إجراءات الحماية” أدّت إلى إنشاء صور جنسية لقاصرين ونشرها على موقع التواصل الاجتماعي “إكس”.

وأوضح الروبوت رداً على استفسارات المستخدمين، أنه أنشأ صوراً لقاصرين بملابس فاضحة استجابةً لطلبات المستخدمين خلال الأيام الماضية، مُخالفاً بذلك سياسة الاستخدام، التي تحظر استغلال الأطفال جنسياً. وأضاف أن الصور المُسيئة حُذفت.

وصرّح: “لقد رصدنا ثغرات في إجراءات الحماية ونعمل على إصلاحها عاجلاً”، مُضيفاً أن مواد الاعتداء الجنسي على الأطفال “غير قانونية ومحظورة”.

ويُسلط انتشار أدوات الذكاء الاصطناعي القادرة على إنشاء صور واقعية لقاصرين عراة الضوء على تحديات مراقبة المحتوى وأنظمة الأمان المُدمجة في نماذج اللغة الضخمة المُولدة للصور. حتى الأدوات التي تدّعي وجود ضوابط حماية يُمكن التلاعب بها، ما يسمح بانتشار مواد أثارت قلق المدافعين عن سلامة الطفل.

ونقلت “بلومبرغ” رصد المواد الإباحية المتعلقة بالاعتداء الجنسي على الأطفال عبر الإنترنت بزيادة قدرها 400% في الصور المولدة بالذكاء الاصطناعي خلال الأشهر الستة الأولى من عام 2025.

وقد صنّفت شركة XAI برنامج غروك على أنه أكثر تساهلاً من نماذج الذكاء الاصطناعي الأخرى السائدة، وقدّمت الصيف الماضي ميزة “الوضع المثير” التي تسمح بعرض صور عارية جزئية للبالغين ومحتوى ذي إيحاءات جنسية.

وتحظر الخدمة المواد الإباحية التي تتضمّن صوراً لأشخاص حقيقيين، والمحتوى الجنسي الذي يتضمّن قاصرين.

ومع ازدياد شعبية توليد الصور بالذكاء الاصطناعي، أصدرت الشركات الرائدة في هذا المجال سياسات بشأن تصوير القاصرين.

في عام 2023، اكتشف باحثون أن مجموعة بيانات عامة ضخمة، استُخدمت لبناء صور مولدة بالذكاء الاصطناعي، احتوت على ما لا يقل عن 1008 حالات من مواد الاعتداء الجنسي على الأطفال.

في السياق، واجهت العديد من الشركات انتقادات لتقصيرها في حماية القاصرين من المحتوى الجنسي.

وأعلنت شركة “ميتا بلاتفورمز” خلال الصيف أنها تُحدّث سياساتها بعدما كشف تقرير لوكالة رويترز أن قواعد الشركة الداخلية تسمح لبرنامج الدردشة الآلي الخاص بها بإجراء محادثات حساسة مع الأطفال.

وقالت مؤسسة “إنترنت ووتش” إن صور الاعتداء الجنسي على الأطفال التي يُولّدها الذكاء الاصطناعي قد تطوّرت بوتيرة “مُرعبة”، حيث أصبحت المواد أكثر واقعية وتطرّفاً.

مزيد من الأخبار

مزيد من الأخبار