xAI, la venture d'intelligence artificielle d'Elon Musk, a déployé de nouvelles restrictions sur sa plateforme de chatbot Grok. La mesure vise les capacités de modification d'images — une réponse directe au fait que l'outil générait des images sexualisées qui ont suscité des inquiétudes auprès des régulateurs du monde entier.
L'entreprise a confirmé qu'elle renforçait les contrôles sur tous les comptes utilisateurs pour prévenir les abus des fonctionnalités de manipulation d'images. Ce changement de politique reflète la surveillance croissante autour du contenu généré par l'IA et de la manière dont les plateformes gèrent les sorties potentiellement nuisibles.
C'est un exemple notable de la façon dont les projets d'IA adaptent leurs protocoles de sécurité sous la pression réglementaire. Qu'il s'agisse de filtrage de contenu, de restrictions de fonctionnalités ou de contrôles utilisateur, les principales plateformes d'IA sont de plus en plus contraintes de concilier innovation et responsabilité. La répression indique que les préoccupations de gouvernance autour des médias synthétiques ne ralentiront pas de sitôt.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
xAI, la venture d'intelligence artificielle d'Elon Musk, a déployé de nouvelles restrictions sur sa plateforme de chatbot Grok. La mesure vise les capacités de modification d'images — une réponse directe au fait que l'outil générait des images sexualisées qui ont suscité des inquiétudes auprès des régulateurs du monde entier.
L'entreprise a confirmé qu'elle renforçait les contrôles sur tous les comptes utilisateurs pour prévenir les abus des fonctionnalités de manipulation d'images. Ce changement de politique reflète la surveillance croissante autour du contenu généré par l'IA et de la manière dont les plateformes gèrent les sorties potentiellement nuisibles.
C'est un exemple notable de la façon dont les projets d'IA adaptent leurs protocoles de sécurité sous la pression réglementaire. Qu'il s'agisse de filtrage de contenu, de restrictions de fonctionnalités ou de contrôles utilisateur, les principales plateformes d'IA sont de plus en plus contraintes de concilier innovation et responsabilité. La répression indique que les préoccupations de gouvernance autour des médias synthétiques ne ralentiront pas de sitôt.