As ferramentas de geração de imagens por inteligência artificial continuam a enfrentar políticas de conteúdo mais restritivas. Uma atualização recente revela que certos assistentes de IA estão a implementar novas salvaguardas para evitar o uso indevido das capacidades de edição de imagens. Especificamente, a tecnologia agora recusará pedidos para criar ou modificar fotos que retratem indivíduos reais em contextos inadequados ou reveladores, particularmente em jurisdições onde a criação de tal conteúdo pode violar leis locais.



Este movimento reflete a crescente tensão entre a inovação em IA e a conformidade regulatória. À medida que as ferramentas de IA se tornam mais poderosas e acessíveis, os desenvolvedores estão a construir proativamente limites éticos para evitar exposição legal e possíveis danos. A restrição visa uma categoria específica de uso indevido—conteúdo no estilo deepfake envolvendo imagens íntimas não consensuais—uma área onde muitos países introduziram ou estão a considerar legislação.

Tais ajustes de política sinalizam como a indústria de IA está a navegar pelo complexo panorama da moderação de conteúdo e responsabilidade legal. Seja através de medidas voluntárias ou de pressão regulatória, as empresas de tecnologia estão cada vez mais obrigadas a equilibrar capacidade com responsabilidade.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 3
  • Republicar
  • Partilhar
Comentar
0/400
WagmiAnonvip
· 9h atrás
Hum, mais uma vez a mesma história... se a IA diz que não pode, então não pode, no final das contas a tecnologia acaba sendo controlada até à morte
Ver originalResponder0
DeFiVeteranvip
· 9h atrás
nah agora realmente vai ser controlado, não dá mais para fazer aquelas coisas pouco confiáveis deepfake realmente precisa de alguém para regular, senão tudo fica uma confusão resumindo, é tudo por causa do dinheiro, quando a lei chega, todo mundo fica quieto mais uma rodada de "autodisciplina voluntária", não há muitos que acreditam nisso a censura fica mais rigorosa, o espaço para criatividade também diminui...
Ver originalResponder0
zkProofInThePuddingvip
· 9h atrás
ngl desta vez os fabricantes de IA estão mesmo a ser controlados de forma bastante rígida... Em suma, é porque não querem perder dinheiro Falando na parte de deepfake, já devia ter sido regulada há muito tempo, mas será que uma abordagem de corte total não vai acabar por prejudicar também usos legítimos? Mais uma rodada de "auto-censura", no fundo quem acaba a perder é sempre a liberdade dos utilizadores Parece que o caminho da IA está a ficar cada vez mais estreito, a contradição entre inovação e regulamentação não é tão fácil de resolver
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)