Инструменты генерации изображений с помощью искусственного интеллекта продолжают сталкиваться с ужесточением политик по контенту. Недавнее обновление показывает, что некоторые AI-ассистенты внедряют новые меры предосторожности, чтобы предотвратить злоупотребление возможностями редактирования изображений. В частности, технология теперь отказывается выполнять запросы на создание или изменение фотографий, изображающих реальных людей в неподобающих или откровенных контекстах, особенно в юрисдикциях, где такое создание контента может нарушать местные законы.
Этот шаг отражает растущее напряжение между инновациями в области ИИ и соблюдением нормативных требований. По мере того как инструменты ИИ становятся более мощными и доступными, разработчики активно создают этические ограничения, чтобы избежать юридической ответственности и потенциального вреда. Ограничение касается конкретной категории злоупотреблений — контента в стиле дипфейк, включающего несанкционированные интимные изображения — область, в которой многие страны вводят или рассматривают соответствующее законодательство.
Такие изменения в политике свидетельствуют о том, как индустрия ИИ ориентируется в сложной сфере модерации контента и юридической ответственности. Будь то добровольные меры или давление со стороны регуляторов, технологические компании все чаще вынуждены балансировать между возможностями и ответственностью.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
3
Репост
Поделиться
комментарий
0/400
WagmiAnon
· 11ч назад
Эээ, это снова та же старая история... если AI говорит, что не может, значит не может, в конце концов, технологии всё равно были задушены.
ngl теперь AI-компании действительно под контролем... по сути, они просто не хотят терпеть убытки
Касательно deepfake — это давно пора было регулировать, но неужели такой жесткий подход не уничтожит и нормальные применения?
Опять игра в «саморегуляцию», в итоге пострадают только свободы пользователей
Кажется, путь развития AI становится все уже, противоречие между инновациями и регулированием не так просто уладить
Инструменты генерации изображений с помощью искусственного интеллекта продолжают сталкиваться с ужесточением политик по контенту. Недавнее обновление показывает, что некоторые AI-ассистенты внедряют новые меры предосторожности, чтобы предотвратить злоупотребление возможностями редактирования изображений. В частности, технология теперь отказывается выполнять запросы на создание или изменение фотографий, изображающих реальных людей в неподобающих или откровенных контекстах, особенно в юрисдикциях, где такое создание контента может нарушать местные законы.
Этот шаг отражает растущее напряжение между инновациями в области ИИ и соблюдением нормативных требований. По мере того как инструменты ИИ становятся более мощными и доступными, разработчики активно создают этические ограничения, чтобы избежать юридической ответственности и потенциального вреда. Ограничение касается конкретной категории злоупотреблений — контента в стиле дипфейк, включающего несанкционированные интимные изображения — область, в которой многие страны вводят или рассматривают соответствующее законодательство.
Такие изменения в политике свидетельствуют о том, как индустрия ИИ ориентируется в сложной сфере модерации контента и юридической ответственности. Будь то добровольные меры или давление со стороны регуляторов, технологические компании все чаще вынуждены балансировать между возможностями и ответственностью.