Os procuradores estaduais dos EUA estão a exigir que grandes empresas de tecnologia—incluindo um gigante do software, um laboratório de pesquisa em IA de destaque e um gigante dos motores de busca—responder às questões contínuas relacionadas com outputs gerados por IA pouco fiáveis. O aviso destaca as crescentes preocupações com alucinações algorítmicas e problemas de precisão que podem afetar utilizadores e mercados.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
10 Curtidas
Recompensa
10
7
Repostar
Compartilhar
Comentário
0/400
TokenVelocityTrauma
· 20m atrás
Agora os IA também têm que ser regulados, já era tempo de acabar com esses modelos que só sabem falar besteiras
Ver originalResponder0
tx_pending_forever
· 12-11 04:03
O problema das alucinações da IA já devia ter sido resolvido há muito tempo, essas grandes empresas dizem que tudo é pelo bem dos usuários, mas na verdade estão pensando em como monetizar rapidamente, a regulamentação chegou tarde demais
Ver originalResponder0
RamenDeFiSurvivor
· 12-11 04:02
A questão das alucinações da IA deveria ter sido controlada há muito tempo, essas grandes empresas dizem que seus modelos são muito inteligentes, mas na verdade produzem uma enxurrada de saídas inventadas e mal feitas
Ver originalResponder0
OnchainDetective
· 12-11 03:55
Já tinha previsto, com base nos dados on-chain, que os dados de treino dos modelos de IA dessas grandes empresas certamente têm problemas. Uma investigação da origem revela rapidamente uma pista, sendo uma técnica típica de envenenamento de dados.
Ver originalResponder0
rekt_but_resilient
· 12-11 03:54
Ilusão de algoritmo? Já sabia que isso aconteceria, esses grandes fabricantes de dados treinados estão todos acabados se falharem.
Ver originalResponder0
OnchainGossiper
· 12-11 03:40
Haha, a conversa de IA a falar besteiras devia ter sido controlada há muito tempo. É realmente absurdo que estas grandes empresas deixem passar sem fazer nada.
Ver originalResponder0
PretendingToReadDocs
· 12-11 03:35
Volta com isso, há quanto tempo se fala de alucinações AI? Ainda precisa esperar o procurador bater à porta para aceitar mudar?
Os procuradores estaduais dos EUA estão a exigir que grandes empresas de tecnologia—incluindo um gigante do software, um laboratório de pesquisa em IA de destaque e um gigante dos motores de busca—responder às questões contínuas relacionadas com outputs gerados por IA pouco fiáveis. O aviso destaca as crescentes preocupações com alucinações algorítmicas e problemas de precisão que podem afetar utilizadores e mercados.