Les autorités de régulation australiennes émettent un avertissement, une augmentation des plaintes pour abus d'images générées par l'intelligence artificielle Grok entraîne une intensification de la régulation
L’organisme australien de régulation de la cybersécurité a récemment publié un avertissement indiquant que le nombre de plaintes concernant l’abus d’images liées au chatbot d’intelligence artificielle Grok augmente rapidement, en particulier celles portant sur la génération non consensuelle d’images à caractère sexuel, qui constitue actuellement un point critique dans la régulation de l’intelligence artificielle générative. L’agence indépendante australienne de cybersécurité eSafety a signalé que, au cours des derniers mois, le nombre de plaintes liées à Grok a doublé, impliquant divers types d’atteintes à l’image de mineurs et d’adultes.
Julie Inman Grant, commissaire australienne à la cybersécurité, a déclaré que certaines plaintes pourraient concerner du matériel d’exploitation sexuelle d’enfants, tandis que d’autres seraient liées à des abus basés sur des images subis par des adultes. Sur LinkedIn, elle a souligné que l’intelligence artificielle générative est de plus en plus utilisée pour sexualiser et exploiter autrui, en particulier lorsqu’il s’agit d’enfants, ce qui pose de graves défis à la société et au cadre réglementaire. Avec l’amélioration constante du réalisme du contenu généré par l’IA, la difficulté à l’identifier et à en recueillir des preuves augmente également.
Grok a été développé par xAI, la société d’intelligence artificielle fondée par Elon Musk, et est directement intégré à la plateforme X, permettant aux utilisateurs de modifier et de générer des images. Par rapport à d’autres modèles d’IA grand public, Grok est positionné comme un produit plus « avant-gardiste », capable de produire certains contenus que la plupart des autres modèles refuseraient généralement. Auparavant, xAI avait également lancé un mode capable de générer du contenu explicite, ce qui est devenu l’un des points d’attention majeurs des régulateurs.
Julie Inman Grant a indiqué que, selon la législation australienne en vigueur, tous les services en ligne doivent prendre des mesures efficaces pour empêcher la diffusion de matériel d’exploitation sexuelle d’enfants, qu’il soit ou non généré par l’IA. Elle a souligné que les entreprises doivent intégrer des mécanismes de sécurité tout au long du cycle de vie de la conception, du déploiement et de l’exploitation des produits d’IA générative, faute de quoi elles risquent des enquêtes et des sanctions.
Concernant la problématique de la deepfake, l’Australie a adopté une position plus ferme. Les autorités de régulation ont récemment promu plusieurs mises à jour législatives visant à combler les lacunes du cadre juridique actuel dans la lutte contre le contenu synthétique non consensuel. La proposition de loi déposée par le sénateur indépendant David Pocock prévoit des amendes élevées pour les particuliers et les entreprises diffusant des deepfakes, afin de renforcer l’effet dissuasif.
Dans l’ensemble, l’incident d’abus d’images par l’intelligence artificielle Grok reflète le décalage entre la rapide expansion des technologies d’IA générative et la lenteur de la régulation. Alors que la deepfake, l’abus d’images par l’IA et la protection des mineurs deviennent des enjeux mondiaux, la tendance réglementaire australienne pourrait servir de référence à d’autres pays, annonçant également une accélération vers une période de conformité accrue pour l’IA générative.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les autorités de régulation australiennes émettent un avertissement, une augmentation des plaintes pour abus d'images générées par l'intelligence artificielle Grok entraîne une intensification de la régulation
L’organisme australien de régulation de la cybersécurité a récemment publié un avertissement indiquant que le nombre de plaintes concernant l’abus d’images liées au chatbot d’intelligence artificielle Grok augmente rapidement, en particulier celles portant sur la génération non consensuelle d’images à caractère sexuel, qui constitue actuellement un point critique dans la régulation de l’intelligence artificielle générative. L’agence indépendante australienne de cybersécurité eSafety a signalé que, au cours des derniers mois, le nombre de plaintes liées à Grok a doublé, impliquant divers types d’atteintes à l’image de mineurs et d’adultes.
Julie Inman Grant, commissaire australienne à la cybersécurité, a déclaré que certaines plaintes pourraient concerner du matériel d’exploitation sexuelle d’enfants, tandis que d’autres seraient liées à des abus basés sur des images subis par des adultes. Sur LinkedIn, elle a souligné que l’intelligence artificielle générative est de plus en plus utilisée pour sexualiser et exploiter autrui, en particulier lorsqu’il s’agit d’enfants, ce qui pose de graves défis à la société et au cadre réglementaire. Avec l’amélioration constante du réalisme du contenu généré par l’IA, la difficulté à l’identifier et à en recueillir des preuves augmente également.
Grok a été développé par xAI, la société d’intelligence artificielle fondée par Elon Musk, et est directement intégré à la plateforme X, permettant aux utilisateurs de modifier et de générer des images. Par rapport à d’autres modèles d’IA grand public, Grok est positionné comme un produit plus « avant-gardiste », capable de produire certains contenus que la plupart des autres modèles refuseraient généralement. Auparavant, xAI avait également lancé un mode capable de générer du contenu explicite, ce qui est devenu l’un des points d’attention majeurs des régulateurs.
Julie Inman Grant a indiqué que, selon la législation australienne en vigueur, tous les services en ligne doivent prendre des mesures efficaces pour empêcher la diffusion de matériel d’exploitation sexuelle d’enfants, qu’il soit ou non généré par l’IA. Elle a souligné que les entreprises doivent intégrer des mécanismes de sécurité tout au long du cycle de vie de la conception, du déploiement et de l’exploitation des produits d’IA générative, faute de quoi elles risquent des enquêtes et des sanctions.
Concernant la problématique de la deepfake, l’Australie a adopté une position plus ferme. Les autorités de régulation ont récemment promu plusieurs mises à jour législatives visant à combler les lacunes du cadre juridique actuel dans la lutte contre le contenu synthétique non consensuel. La proposition de loi déposée par le sénateur indépendant David Pocock prévoit des amendes élevées pour les particuliers et les entreprises diffusant des deepfakes, afin de renforcer l’effet dissuasif.
Dans l’ensemble, l’incident d’abus d’images par l’intelligence artificielle Grok reflète le décalage entre la rapide expansion des technologies d’IA générative et la lenteur de la régulation. Alors que la deepfake, l’abus d’images par l’IA et la protection des mineurs deviennent des enjeux mondiaux, la tendance réglementaire australienne pourrait servir de référence à d’autres pays, annonçant également une accélération vers une période de conformité accrue pour l’IA générative.