Стремясь противодействовать росту сексуальной эксплуатации детей, обеспечиваемой ИИ, OpenAI в среду опубликовала план в области политики, в котором описаны новые меры безопасности, которые отрасль может принять, чтобы помочь сдерживать использование ИИ при создании материалов сексуального насилия над детьми. В рамках плана OpenAI перечисляет правовые, операционные и технические меры, направленные на усиление защиты от злоупотреблений, связанных с ИИ, и на улучшение координации между технологическими компаниями и следователями. «Сексуальная эксплуатация детей — одна из самых неотложных проблем цифровой эпохи», — говорится в сообщении компании. «ИИ быстро меняет и то, как эти вредоносные явления проявляются по всей отрасли, и то, как их можно адресовать в масштабе».
OpenAI сообщила, что предложение учитывает отзывы организаций, работающих в сфере защиты детей и онлайн-безопасности, включая National Center for Missing and Exploited Children и Attorney General Alliance, а также его целевую группу по ИИ. «Генеративный ИИ ускоряет преступление онлайн-сексуальной эксплуатации детей крайне тревожными способами — снижает барьеры, увеличивает масштаб и дает возможность новым формам вреда», — заявил Президент и генеральный директор National Center for Missing & Exploited Children, Michelle DeLaune, в своем заявлении. «Но в то же время National Center for Missing & Exploited Children обнадежено тем, что такие компании, как OpenAI, размышляют о том, как эти инструменты можно спроектировать более ответственно — с защитными мерами, встроенными с самого начала». OpenAI сообщила, что план объединяет правовые стандарты, отраслевые системы отчетности и технические защитные меры внутри ИИ-моделей. Компания заявила, что эти меры направлены на то, чтобы помогать выявлять риски эксплуатации раньше и улучшать подотчетность на онлайн-платформах.
В плане определены сферы для действий, включая обновление законов, чтобы отвечать на материалы сексуального насилия над детьми, созданные или измененные с помощью ИИ, улучшение того, как онлайн-провайдеры сообщают о сигналах злоупотреблений и координируются со следователями, а также внедрение защитных мер в ИИ-системы, предназначенные для предотвращения неправомерного использования. «Ни одно вмешательство не может справиться с этой задачей в одиночку», — говорится в сообщении компании. «Этот план объединяет правовые, операционные и технические подходы, чтобы лучше выявлять риски, ускорять ответы и поддерживать подотчетность, при этом гарантируя, что органы правоприменения сохранят силу по мере развития технологий». План появился на фоне того, что защитники безопасности детей подняли обеспокоенность тем, что генеративные ИИ-системы, способные создавать реалистичные изображения, могут использоваться для создания поддельных или синтетических изображений несовершеннолетних. В феврале UNICEF обратился к правительствам стран с призывом принять законы, криминализирующие материалы детского сексуального насилия, созданные с помощью ИИ. В январе Европейская комиссия начала формальное расследование того, нарушила ли X, ранее известная как Twitter, правила ЕС в области цифровых технологий, не сумев предотвратить генерацию незаконного контента собственной нативной ИИ-моделью платформы, Grok, — при этом регуляторы в Великобритании и Австралии также открыли расследования. Отмечая, что одних законов недостаточно, чтобы остановить эту проблему материалов злоупотреблений, создаваемых ИИ, OpenAI заявила, что по мере роста возможностей ИИ-систем потребуются более жесткие отраслевые стандарты. «Прерывая попытки эксплуатации раньше, улучшая качество сигналов, направляемых правоохранительным органам, и усиливая подотчетность по всей экосистеме, этот план стремится предотвращать вред до того, как он произойдет, и помогать обеспечивать более быструю защиту детей, когда возникают риски», — заявила OpenAI.