xAI, a iniciativa de inteligência artificial de Elon Musk, lançou novas restrições na sua plataforma de chatbot Grok. A medida foca nas capacidades de edição de imagens—uma resposta direta ao fato de a ferramenta gerar imagens sexualizadas que levantaram preocupações junto de reguladores em todo o mundo.
A empresa confirmou que está a reforçar os controlos em todas as contas de utilizador para evitar o uso indevido das funcionalidades de manipulação de imagens. Esta mudança de política reflete a crescente atenção em relação ao conteúdo gerado por IA e à forma como as plataformas lidam com outputs potencialmente prejudiciais.
É um exemplo notável de como os projetos de IA estão a adaptar os seus protocolos de segurança sob pressão regulatória. Seja através de filtragem de conteúdo, restrições de funcionalidades ou controlos de utilizador, as principais plataformas de IA estão cada vez mais obrigadas a equilibrar inovação com responsabilidade. A repressão indica que as preocupações de governação em torno de mídia sintética não vão desacelerar tão cedo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
xAI, a iniciativa de inteligência artificial de Elon Musk, lançou novas restrições na sua plataforma de chatbot Grok. A medida foca nas capacidades de edição de imagens—uma resposta direta ao fato de a ferramenta gerar imagens sexualizadas que levantaram preocupações junto de reguladores em todo o mundo.
A empresa confirmou que está a reforçar os controlos em todas as contas de utilizador para evitar o uso indevido das funcionalidades de manipulação de imagens. Esta mudança de política reflete a crescente atenção em relação ao conteúdo gerado por IA e à forma como as plataformas lidam com outputs potencialmente prejudiciais.
É um exemplo notável de como os projetos de IA estão a adaptar os seus protocolos de segurança sob pressão regulatória. Seja através de filtragem de conteúdo, restrições de funcionalidades ou controlos de utilizador, as principais plataformas de IA estão cada vez mais obrigadas a equilibrar inovação com responsabilidade. A repressão indica que as preocupações de governação em torno de mídia sintética não vão desacelerar tão cedo.