أرسلت OpenAI تقارير عن حوادث استغلال الأطفال 80 مرة أكثر إلى مركز الوطني للاطفال المفقودين والمستغلين خلال النصف الأول من عام 2025 مما فعلته خلال فترة مماثلة في عام 2024، وفقًا لتحديث حديث من الشركة. يُعتبر خط سير المعلومات الإلكترونية في NCMEC مركزًا موحّدًا مصادق عليه من الكونغرس لتقديم تقارير عن مواد الإساءة الجنسية للأطفال (CSAM) وأشكال أخرى من استغلال الأطفال. وتُطلب من الشركات بموجب القانون تقديم تقارير عن استغلال الأطفال الواضح إلى خط سير المعلومات الإلكترونية. عندما ترسل شركة تقريرًا ، يُراجعه NCMEC ثم يرسله إلى وكالة تنفيذ القانون المناسبة للتحقيق.
أثار الارتفاع الحاد في التقارير مخاوف بشأن إمكانية إساءة استخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لأغراض شريرة. "في حين لا يمكننا تأكيد السبب الدقيق للزيادة ، من الضروري أن نعترف بأن أنظمة الذكاء الاصطناعي يمكن استخدامها لإنشاء ونشر محتوى ضار" ، قال متحدث باسم OpenAI. وأكدت الشركة على التزامها باكتشاف وإزالة هذا المحتوى من منصاتها ، مشيرة إلى التحسينات في أدوات التأطير الآلي. ومع ذلك ،raised بعض الخبراء تساؤلات حول فعالية هذه الإجراءات ، مشيرين إلى أن أنظمة الذكاء الاصطناعي يمكن تدريبها على التهرب من الكشف.
worked مركز الوطني للاطفال المفقودين والمستغلين بشكل وثيق مع شركات مثل OpenAI لتطوير استراتيجيات أكثر فعالية لتحديد وتقديم تقارير عن استغلال الأطفال. "نحن نقدر الجهود التي تبذلها شركات مثل OpenAI لتجعل سلامة ورفاهية الأطفال أولوية" ، قال ممثل من NCMEC. "然而 ، نحن أيضًا نعترف بأن هناك masih الكثير من العمل الذي يجب القيام به لضمان أن أنظمتنا قوية بما يكفي لاكتشاف ومنع انتشار CSAM".
لقد أثارت زيادة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي آثارًا كبيرة على المجتمع ، خاصة في سياق استغلال الأطفال.随着 أنظمة الذكاء الاصطناعي أصبحت متقدمة بشكل متزايد ، يمكن استخدامها لإنشاء محتوى واقعي ومقنع للغاية يمكن أن يكون من الصعب التمييز بينه وبين الصور أو مقاطع الفيديو الحقيقية. هذا أثار مخاوف بشأن إمكانية استخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لأغراض خبيثة ، مثل التجنيد أو توظيف الأطفال.
استجابة للمخاوف المتزايدة ، أطلق NCMEC مبادرة جديدة لتطوير أدوات أكثر فعالية مدعومة بالذكاء الاصطناعي لاكتشاف ومنع استغلال الأطفال. تهدف المبادرة إلى جمع خبراء من الصناعة والأوساط الأكاديمية وإنفاذ القانون لتطوير أنظمة ذكاء اصطناعي أكثر تطورًا يمكنها تحديد وتحديد المحتوى المحتمل المشكلة. في حين أن الجدول الزمني الدقيق للمبادرة غير واضح ، يعتقد الخبراء أنه يمكن أن يكون له تأثير كبير في مكافحة استغلال الأطفال.
فيما يتعلق بالمناقشة حول المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، شيء واحد واضح: الحاجة إلى استراتيجيات أكثر فعالية لاكتشاف ومنع استغلال الأطفال لم تكن أكثر إلحاحًا. مع زيادة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، يجب على شركات مثل OpenAI أن تواصل تقديم أولوية لسلامة ورفاهية الأطفال ، والعمل بشكل وثيق مع منظمات مثل NCMEC لتطوير أنظمة أكثر متانة لتحديد وتقديم تقارير عن CSAM.
Discussion
Join 0 others in the conversation
Share Your Thoughts
Your voice matters in this discussion
Login to join the conversation
No comments yet
Be the first to share your thoughts!