Minnesota avança para proibir aplicativos de IA que geram imagens falsas de nus

Resumidamente

  • Legisladores de Minnesota aprovaram um projeto de lei que proíbe ferramentas de IA que geram imagens falsas de nus.
  • Os infratores podem enfrentar multas de até $500.000 por uso e danos potenciais triplicados.
  • A lei mantém as proteções da Seção 230 e entrará em vigor em 1º de agosto, se for sancionada.

Legisladores de Minnesota aprovaram um projeto de lei com o objetivo de parar uma forma crescente de abuso de IA, direcionando-se às plataformas que o possibilitam. Na quinta-feira, o Senado de Minnesota votou 65-0 a favor do House File 1606, enviando-o ao governador Tim Walz para sua assinatura. A medida proíbe sites e aplicativos de oferecer ferramentas que geram imagens falsas realistas de nus de pessoas identificáveis. Sob o projeto, empresas que controlam um site, aplicativo ou serviço de software não podem permitir que usuários acessem ou usem ferramentas para criar essas imagens ou gerá-las em nome de um usuário. A publicidade ou promoção de tais serviços também é proibida.

A medida permite que vítimas processem as pessoas ou empresas que operam ou controlam ferramentas de nudeificação, como sites, aplicativos ou softwares que geram imagens falsas de nus. Pessoas retratadas em imagens nuas geradas por IA podem buscar indenizações, incluindo por angústia mental, e os tribunais podem conceder até três vezes os danos reais, além de danos punitivos, honorários advocatícios e ordens para cessar a conduta.  A lei também concede ao procurador-geral do estado o poder de fazer cumprir a lei, com penalidades civis de até $500.000 por uso. Segundo o projeto, essas penalidades são direcionadas ao fundo geral do estado e posteriormente destinadas a serviços às vítimas, incluindo apoio a sobreviventes de abuso sexual, violência doméstica e abuso infantil. A lei tem como alvo ferramentas que exigem pouca expertise técnica e que se tornaram amplamente acessíveis, inclusive para menores de idade. Se sancionada, a lei entra em vigor em 1º de agosto e se aplica a novos casos a partir dessa data.

Embora o novo projeto de lei não mencione um único desenvolvedor de IA, a notícia vem após uma série de incidentes de alto perfil na plataforma social X, incluindo em agosto de 2025, quando a ferramenta xAI de Elon Musk, Grok, gerou deepfakes nus de Taylor Swift. A superestrela do pop moveu-se para registrar sua voz e semelhança no Escritório de Patentes dos EUA em abril, talvez como uma medida para evitar futuras reproduções de IA. Musk também enfrenta crescente pressão legal, incluindo uma ação coletiva federal movida por três menores do Tennessee, alegando que o Grok gerou material de abuso sexual infantil a partir de suas imagens. Além disso, uma ação de proteção ao consumidor da cidade de Baltimore afirma que a empresa conscientemente implantou um sistema que produz e espalha conteúdo sexualizado não consensual, incluindo de menores. O co-presidente do Public Citizen, Robert Weissman, afirmou que a disseminação dessas ferramentas reflete o quão rapidamente a IA reduziu a barreira para criar imagens íntimas não consensuais e expandiu seu alcance. “Esses aplicativos são 99% direcionados às mulheres, das quais mais de 90% têm menos de 18 anos. É uma ferramenta de intimidação e assédio às mulheres, com consequências psicológicas muito graves,” disse Weissman ao Decrypt. “Você viu isso em todo o país e no mundo. Portanto, a necessidade de intervenção e regulação governamental é aguda.” Weissman acrescentou que leis estaduais podem atuar junto com esforços federais, especialmente no que diz respeito à aplicação. Ele disse que autoridades locais podem estar melhor posicionadas para agir rapidamente em casos individuais, enquanto agências federais podem não priorizar ou perseguir esses casos. A lei de Minnesota também ocorre durante uma luta contínua entre a administração do presidente Donald Trump e os estados sobre quem deve controlar a regulamentação de IA. A Take It Down Act, sancionada pelo presidente Donald Trump em maio de 2025, criminaliza a distribuição de imagens íntimas não consensuais e oferece às vítimas um caminho para buscar indenizações civis. “Acredito que ter padrões federais e estaduais complementares é positivo, especialmente em teoria. Estamos falando de sistemas de aplicação e agências de aplicação diferentes,” disse Weissman. “Então, você pode ter um padrão federal, mas talvez não tenha capacidade federal para ações de fiscalização.” O escritório do governador Walz não respondeu imediatamente ao pedido de comentário do Decrypt.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar