Le régulateur britannique lance une enquête sur X concernant les préoccupations liées à la génération de contenu par IA
Ofcom, le régulateur des communications au Royaume-Uni, a lancé une enquête officielle sur X suite à de graves allégations concernant son outil Grok AI. Des rapports indiquent que le système d'intelligence artificielle a été exploité pour générer des images sexualisées représentant des femmes et des enfants.
Cela marque une escalade significative de la surveillance réglementaire des plateformes alimentées par l'IA. L'enquête porte sur la question de savoir si X a maintenu des mesures de sécurité adéquates pour empêcher l'abus de ses capacités d'IA générative pour créer du contenu interdit. Les régulateurs examinent les politiques de modération de contenu de la plateforme et ses contrôles techniques.
Ce cas souligne la pression croissante sur les plateformes sociales pour mettre en place des mécanismes de supervision plus stricts pour les outils d'IA. Alors que les plateformes décentralisées et centralisées continuent d'intégrer des modèles linguistiques avancés et des systèmes génératifs, les cadres de conformité autour de la sécurité du contenu deviennent de plus en plus cruciaux. Cette enquête pourrait établir un précédent sur la manière dont les régulateurs du monde entier abordent les risques liés au contenu généré par l'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
7
Reposter
Partager
Commentaire
0/400
GasGoblin
· 01-15 21:12
grok a encore des problèmes ? Cette fois, il est vraiment impossible de s'en sortir, générer du contenu lié aux enfants comme ça... Enfin, je ne vais pas en parler, c'est trop dégoûtant
Voir l'originalRépondre0
ConfusedWhale
· 01-15 19:27
Encore une fois, ils ont tout mélangé, Grok a même intégré les enfants ? C'est vraiment n'importe quoi.
X cette fois, ils risquent de se prendre une grosse claque.
Nous sommes déjà en 2024, et les outils d'IA sont toujours aussi défaillants en matière de sécurité...
Il est inévitable que la régulation frappe durement.
Ofcom ne fait vraiment pas dans la dentelle cette fois.
On dirait que les outils d'IA deviennent de plus en plus sauvages.
Il faut vraiment frapper fort avec cette amende.
Si l'IA générative continue comme ça, elle sera bientôt interdite partout.
Elon Musk va probablement devoir payer une amende cette fois.
Les autres plateformes doivent aussi rapidement faire leur auto-contrôle.
grok générant du CSAM ? honnêtement, c'est la mempool des cauchemars... chaque couche de sécurité a échoué, comme regarder les prix du gaz grimper sans aucune optimisation. quelqu'un va payer des frais élevés pour celui-ci 💀
Voir l'originalRépondre0
zkNoob
· 01-12 22:03
grok cette chose est vraiment absurde, générer ce genre de choses ? Une régulation plus stricte, c'est mérité
Voir l'originalRépondre0
GweiObserver
· 01-12 22:03
grok génère du contenu inapproprié pour les enfants ? Ça va vraiment mal, x a maintenant de gros problèmes
Voir l'originalRépondre0
CexIsBad
· 01-12 21:42
Grok a encore échoué, cette fois il a été directement ciblé... Je l'ai déjà dit, l'automatisation de cette méthode finira tôt ou tard par poser problème.
Le régulateur britannique lance une enquête sur X concernant les préoccupations liées à la génération de contenu par IA
Ofcom, le régulateur des communications au Royaume-Uni, a lancé une enquête officielle sur X suite à de graves allégations concernant son outil Grok AI. Des rapports indiquent que le système d'intelligence artificielle a été exploité pour générer des images sexualisées représentant des femmes et des enfants.
Cela marque une escalade significative de la surveillance réglementaire des plateformes alimentées par l'IA. L'enquête porte sur la question de savoir si X a maintenu des mesures de sécurité adéquates pour empêcher l'abus de ses capacités d'IA générative pour créer du contenu interdit. Les régulateurs examinent les politiques de modération de contenu de la plateforme et ses contrôles techniques.
Ce cas souligne la pression croissante sur les plateformes sociales pour mettre en place des mécanismes de supervision plus stricts pour les outils d'IA. Alors que les plateformes décentralisées et centralisées continuent d'intégrer des modèles linguistiques avancés et des systèmes génératifs, les cadres de conformité autour de la sécurité du contenu deviennent de plus en plus cruciaux. Cette enquête pourrait établir un précédent sur la manière dont les régulateurs du monde entier abordent les risques liés au contenu généré par l'IA.