OpenAI направила в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC) в 80 раз больше сообщений о случаях эксплуатации детей в первом полугодии 2025 года, чем за аналогичный период в 2024 году, согласно недавнему обновлению компании. CyberTipline NCMEC - это уполномоченный Конгрессом центр сбора информации для сообщения о детской сексуальной эксплуатации (CSAM) и других формах эксплуатации детей. Компании обязаны законом сообщать о предполагаемой эксплуатации детей в CyberTipline. Когда компания отправляет сообщение, NCMEC рассматривает его, а затем пересылает его в соответствующий правоохранительный орган для расследования.
Острый рост количества сообщений вызвал обеспокоенность по поводу потенциального использования контента, сгенерированного ИИ, для зловещих целей. "Хотя мы не можем подтвердить точную причину роста, важно признать, что системы ИИ могут быть использованы для создания и распространения вредного контента", - сказал представитель OpenAI. Компания подчеркнула свою приверженность обнаружению и удалению такого контента с своих платформ, ссылаясь на улучшения в своих автоматических инструментах модерации. Однако некоторые эксперты поставили под сомнение эффективность этих мер, указав на то, что системы ИИ могут быть обучены для избежания обнаружения.
Национальный центр по делам пропавших и эксплуатируемых детей тесно сотрудничает с компаниями, такими как OpenAI, для разработки более эффективных стратегий выявления и сообщения о случаях эксплуатации детей. "Мы ценим усилия компаний, таких как OpenAI, для приоритета безопасности и благополучия детей", - сказал представитель NCMEC. "Однако мы также признаем, что еще много работы предстоит сделать, чтобы наши системы были достаточно прочными, чтобы обнаружить и предотвратить распространение CSAM".
Рост контента, сгенерированного ИИ, имеет значительные последствия для общества, особенно в контексте эксплуатации детей. По мере того, как системы ИИ становятся все более совершенными, они могут быть использованы для создания высокореалистичного и убедительного контента, который может быть трудноотличим от реальных изображений или видео. Это вызвало обеспокоенность по поводу потенциального использования контента, сгенерированного ИИ, для зловещих целей, таких как вербовка или привлечение детей.
В ответ на растущие опасения NCMEC запустила новую инициативу по разработке более эффективных инструментов ИИ для обнаружения и предотвращения эксплуатации детей. Инициатива направлена на объединение экспертов из промышленности, академии и правоохранительных органов для разработки более совершенных систем ИИ, которые могут выявлять и помечать потенциально проблемный контент. Хотя точный график инициативы неясен, эксперты считают, что она имеет потенциал сделать значительный вклад в борьбу с эксплуатацией детей.
По мере того, как продолжается дискуссия вокруг контента, сгенерированного ИИ, одно ясно: необходимость в более эффективных стратегиях для обнаружения и предотвращения эксплуатации детей никогда не была более актуальной. С ростом контента, сгенерированного ИИ, компании, такие как OpenAI, должны продолжать уделять приоритетное внимание безопасности и благополучию детей и тесно сотрудничать с организациями, такими как NCMEC, для разработки более прочных систем для выявления и сообщения о CSAM.
Discussion
Join 0 others in the conversation
Share Your Thoughts
Your voice matters in this discussion
Login to join the conversation
No comments yet
Be the first to share your thoughts!