O assistente de IA da X, Grok, está agora sob escrutínio formal das autoridades do Reino Unido. O regulador independente de segurança online do país, Ofcom, iniciou na segunda-feira uma investigação oficial para determinar se o chatbot está a ser utilizado como arma para gerar conteúdo sexual explícito envolvendo mulheres e menores. A investigação levanta questões críticas sobre as salvaguardas da IA generativa nas principais plataformas—especificamente, quão bem os sistemas de moderação de conteúdo conseguem acompanhar a rápida evolução das capacidades da IA. Para a comunidade de criptomoedas e Web3, este desenvolvimento destaca uma tendência mais ampla: reguladores em todo o mundo estão a intensificar a supervisão de aplicações impulsionadas por IA, especialmente no que diz respeito à integridade do conteúdo e à proteção dos utilizadores. Seja em plataformas tradicionais ou ecossistemas descentralizados, os quadros de governação estão a apertar-se. O caso indica que os operadores de ferramentas de IA enfrentam uma pressão crescente para incorporar mecanismos de segurança robustos desde o primeiro dia, não como patches posteriores.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
0xSherlockvip
· 01-15 13:21
A Grok voltou a ter problemas, foi detectado conteúdo inadequado... Para ser honesto, isso já era esperado há algum tempo. A regulamentação na Web3 também cedo ou tarde terá que acompanhar, estamos aguardando para ver.
Ver originalResponder0
GateUser-a180694bvip
· 01-15 06:53
grok voltou a fazer confusão... Agora está tudo bem, a Ofcom começou a investigar. Mas falando sério, a regulamentação de IA não acompanha a velocidade de desenvolvimento, cedo ou tarde vai dar problema
Ver originalResponder0
LayerZeroHerovip
· 01-15 06:32
Comprovou-se que a barreira da moderação de conteúdo realmente não pode ser contornada. A questão de o Grok gerar conteúdo inadequado, na verdade, é uma ameaça à segurança que não foi resolvida na camada do protocolo, e agora já é tarde para remediar.
Ver originalResponder0
consensus_failurevip
· 01-12 20:39
grok voltou a ter problemas, desta vez sendo diretamente alvo das autoridades britânicas... para ser honesto, a segurança de IA tem sido uma fraqueza constante, sempre resolvida posteriormente
Ver originalResponder0
wrekt_but_learningvip
· 01-12 20:33
grok voltou a ter problemas, desta vez foi diretamente alvo da Ofcom... para ser honesto, a questão da revisão por IA realmente é uma dor de cabeça, não consegue acompanhar a velocidade de iteração.
Ver originalResponder0
LiquidityWhisperervip
· 01-12 20:26
Grok voltou a ter problemas, desta vez foi diretamente alvo das autoridades... diga-se de passagem, este tipo de revisão de conteúdo por IA deveria ter sido mais rigoroso desde o início, agora já é tarde demais para investigar.
Ver originalResponder0
faded_wojak.ethvip
· 01-12 20:24
grok esta coisa... já devia ter investigado há muito tempo, desde que apareceu que é uma confusão, e ainda gera aquelas coisas? Melhor tarde do que nunca na fiscalização, não é?
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)