Les régulateurs mondiaux, tels que l’Australie et l’Union européenne, ont récemment lancé une offensive conjointe contre les abus d’images générés par l’intelligence artificielle Grok. L’agence australienne eSafety a révélé que le nombre de plaintes concernant Grok a doublé, impliquant diverses formes d’abus à la fois sur des mineurs et des adultes. Des données encore plus alarmantes montrent que le nombre d’images à connotation sexuelle générées par AI chaque heure par Grok est de 84 fois supérieur à la somme des cinq principaux sites de deepfake. Cette tempête met en lumière non seulement le retard de la régulation face à l’expansion rapide de l’IA générative, mais annonce également l’arrivée imminente d’une nouvelle ère de conformité.
Les risques liés à la conception des produits face à la recrudescence des plaintes
La gravité du problème
Julie Inman Grant, commissaire à la cybersécurité en Australie, indique que certaines plaintes concernent des matériaux d’exploitation sexuelle d’enfants, tandis que d’autres relèvent de formes de maltraitance basées sur des images impliquant des adultes. Selon les dernières informations, le nombre de plaintes liées à Grok a doublé ces derniers mois, couvrant diverses formes d’abus d’images sur des mineurs et des adultes.
Pourquoi ce problème est-il si critique ? La réponse réside dans le positionnement du produit Grok. Développé par xAI et intégré directement à la plateforme X, cet outil d’IA est conçu pour être plus “avant-gardiste” que d’autres modèles mainstream, capable de générer des contenus que certains concurrents refusent. xAI a même lancé un mode spécifique pour produire du contenu explicite, ce qui en fait un point focal pour les régulateurs.
Les données de Bloomberg quantifient davantage la gravité du problème : le nombre d’images à connotation sexuelle générées par Grok chaque heure est de 84 fois supérieur à celui des cinq principaux sites de deepfake. Cela montre non seulement la puissance de génération d’images de Grok, mais aussi des failles évidentes dans ses mécanismes de modération.
Pourquoi Grok est-il pointé du doigt ?
Grok subit une pression réglementaire plus forte que d’autres outils d’IA pour plusieurs raisons :
Intégration profonde à la plateforme X, avec une base d’utilisateurs massive (X et Grok comptent environ 600 millions d’utilisateurs actifs mensuels)
Conception du produit axée sur l’“avant-garde”, avec des standards de modération relativement laxistes
Fonctionnalités d’édition et de génération d’images utilisées directement pour créer du contenu illégal
Absence de mécanismes suffisants de vérification d’âge et de modération de contenu
Les mesures renforcées des régulateurs mondiaux
La position ferme de l’Australie
Julie Inman Grant souligne clairement qu’en vertu de la législation australienne en vigueur, tous les services en ligne doivent prendre des mesures efficaces pour empêcher la diffusion de matériel d’exploitation sexuelle d’enfants, qu’il soit généré par AI ou non. Cela signifie que les entreprises ne peuvent pas se défausser en affirmant que le contenu est “AI généré”.
Elle insiste également sur le fait que, tout au long du cycle de vie de la conception, du déploiement et de l’exploitation des produits d’IA générative, des mécanismes de sécurité doivent être intégrés, sous peine d’être sujettes à des enquêtes et des poursuites. Ce n’est pas une recommandation, mais une obligation.
Concernant la problématique du deepfake, l’Australie a adopté une position encore plus ferme. Un projet de loi proposé par le sénateur indépendant David Pocock prévoit des amendes élevées pour les particuliers et les entreprises diffusant du contenu deepfake, afin de renforcer l’effet dissuasif.
Les exigences de conservation des données dans l’UE
L’Australie n’est pas isolée. Selon les dernières nouvelles, la Commission européenne a ordonné à la plateforme X de conserver tous les documents et données internes liés à Grok jusqu’à la fin 2026. La prolongation de cette exigence témoigne de la “prise au sérieux” de l’UE face à ces enjeux.
L’objectif de cette démarche est clair : accumuler des preuves pour de futures actions en justice et enquêtes. En imposant la conservation des données, l’UE prépare le terrain pour d’éventuelles poursuites et sanctions.
Autorité de régulation
Mesures spécifiques
Contenu ciblé
Niveau d’application
Australie eSafety
Enquêtes sur plaintes, exigences d
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Grok dépasse 84 fois par heure la visualisation d'images pornographiques, les régulateurs mondiaux répriment l'abus de l'IA
Les régulateurs mondiaux, tels que l’Australie et l’Union européenne, ont récemment lancé une offensive conjointe contre les abus d’images générés par l’intelligence artificielle Grok. L’agence australienne eSafety a révélé que le nombre de plaintes concernant Grok a doublé, impliquant diverses formes d’abus à la fois sur des mineurs et des adultes. Des données encore plus alarmantes montrent que le nombre d’images à connotation sexuelle générées par AI chaque heure par Grok est de 84 fois supérieur à la somme des cinq principaux sites de deepfake. Cette tempête met en lumière non seulement le retard de la régulation face à l’expansion rapide de l’IA générative, mais annonce également l’arrivée imminente d’une nouvelle ère de conformité.
Les risques liés à la conception des produits face à la recrudescence des plaintes
La gravité du problème
Julie Inman Grant, commissaire à la cybersécurité en Australie, indique que certaines plaintes concernent des matériaux d’exploitation sexuelle d’enfants, tandis que d’autres relèvent de formes de maltraitance basées sur des images impliquant des adultes. Selon les dernières informations, le nombre de plaintes liées à Grok a doublé ces derniers mois, couvrant diverses formes d’abus d’images sur des mineurs et des adultes.
Pourquoi ce problème est-il si critique ? La réponse réside dans le positionnement du produit Grok. Développé par xAI et intégré directement à la plateforme X, cet outil d’IA est conçu pour être plus “avant-gardiste” que d’autres modèles mainstream, capable de générer des contenus que certains concurrents refusent. xAI a même lancé un mode spécifique pour produire du contenu explicite, ce qui en fait un point focal pour les régulateurs.
Les données de Bloomberg quantifient davantage la gravité du problème : le nombre d’images à connotation sexuelle générées par Grok chaque heure est de 84 fois supérieur à celui des cinq principaux sites de deepfake. Cela montre non seulement la puissance de génération d’images de Grok, mais aussi des failles évidentes dans ses mécanismes de modération.
Pourquoi Grok est-il pointé du doigt ?
Grok subit une pression réglementaire plus forte que d’autres outils d’IA pour plusieurs raisons :
Les mesures renforcées des régulateurs mondiaux
La position ferme de l’Australie
Julie Inman Grant souligne clairement qu’en vertu de la législation australienne en vigueur, tous les services en ligne doivent prendre des mesures efficaces pour empêcher la diffusion de matériel d’exploitation sexuelle d’enfants, qu’il soit généré par AI ou non. Cela signifie que les entreprises ne peuvent pas se défausser en affirmant que le contenu est “AI généré”.
Elle insiste également sur le fait que, tout au long du cycle de vie de la conception, du déploiement et de l’exploitation des produits d’IA générative, des mécanismes de sécurité doivent être intégrés, sous peine d’être sujettes à des enquêtes et des poursuites. Ce n’est pas une recommandation, mais une obligation.
Concernant la problématique du deepfake, l’Australie a adopté une position encore plus ferme. Un projet de loi proposé par le sénateur indépendant David Pocock prévoit des amendes élevées pour les particuliers et les entreprises diffusant du contenu deepfake, afin de renforcer l’effet dissuasif.
Les exigences de conservation des données dans l’UE
L’Australie n’est pas isolée. Selon les dernières nouvelles, la Commission européenne a ordonné à la plateforme X de conserver tous les documents et données internes liés à Grok jusqu’à la fin 2026. La prolongation de cette exigence témoigne de la “prise au sérieux” de l’UE face à ces enjeux.
L’objectif de cette démarche est clair : accumuler des preuves pour de futures actions en justice et enquêtes. En imposant la conservation des données, l’UE prépare le terrain pour d’éventuelles poursuites et sanctions.