Инструменты генерации изображений с помощью искусственного интеллекта продолжают сталкиваться с ужесточением политик по контенту. Недавнее обновление показывает, что некоторые AI-ассистенты внедряют новые меры предосторожности, чтобы предотвратить злоупотребление возможностями редактирования изображений. В частности, технология теперь отказывается выполнять запросы на создание или изменение фотографий, изображающих реальных людей в неподобающих или откровенных контекстах, особенно в юрисдикциях, где такое создание контента может нарушать местные законы.



Этот шаг отражает растущее напряжение между инновациями в области ИИ и соблюдением нормативных требований. По мере того как инструменты ИИ становятся более мощными и доступными, разработчики активно создают этические ограничения, чтобы избежать юридической ответственности и потенциального вреда. Ограничение касается конкретной категории злоупотреблений — контента в стиле дипфейк, включающего несанкционированные интимные изображения — область, в которой многие страны вводят или рассматривают соответствующее законодательство.

Такие изменения в политике свидетельствуют о том, как индустрия ИИ ориентируется в сложной сфере модерации контента и юридической ответственности. Будь то добровольные меры или давление со стороны регуляторов, технологические компании все чаще вынуждены балансировать между возможностями и ответственностью.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
WagmiAnonvip
· 11ч назад
Эээ, это снова та же старая история... если AI говорит, что не может, значит не может, в конце концов, технологии всё равно были задушены.
Посмотреть ОригиналОтветить0
DeFiVeteranvip
· 12ч назад
nah这下真的要管起来了,搞不了那些不靠谱的东西了 deepfake这块确实得有人来管,不然都乱套 说白了还是钱惹的祸,法律一来就得老实 又是一轮"自愿自律",信这套的没几个吧 审查越来越细,创意空间又少了...
Ответить0
zkProofInThePuddingvip
· 12ч назад
ngl теперь AI-компании действительно под контролем... по сути, они просто не хотят терпеть убытки Касательно deepfake — это давно пора было регулировать, но неужели такой жесткий подход не уничтожит и нормальные применения? Опять игра в «саморегуляцию», в итоге пострадают только свободы пользователей Кажется, путь развития AI становится все уже, противоречие между инновациями и регулированием не так просто уладить
Посмотреть ОригиналОтветить0
  • Закрепить