Um novo livro de dois pesquisadores de inteligência artificial afirma que a corrida para construir uma IA superinteligente pode significar a condenação da humanidade.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
6
Repostar
Compartilhar
Comentário
0/400
OvertimeSquid
· 09-21 15:15
De novo, fui assustado pelo ai.
Ver originalResponder0
HodlBeliever
· 09-21 15:12
A estimativa de risco é exagerada, a probabilidade global não excede 0,21
Ver originalResponder0
VCsSuckMyLiquidity
· 09-21 15:11
Hehe, aquelas pessoas que trabalham com IA já estão loucas.
Um novo livro de dois pesquisadores de inteligência artificial afirma que a corrida para construir uma IA superinteligente pode significar a condenação da humanidade.