Quando a IA toma a decisão: Deve a Pluribus optar por detonar ou preservar? O dilema do misantropo é real.
Aqui está o que acontece com sistemas avançados de IA—quando são programados para otimizar resultados, onde exatamente eles traçam a linha? Pegue o problema do bonde e potencialize-o com precisão algorítmica. Uma IA de tomada de decisão enfrenta uma escolha impossível: maximizar uma métrica, perder outra. Detonar ou salvar? O sistema não hesita. Os humanos hesitam.
Isto não é apenas teórico. À medida que a IA fica mais inteligente e mais autónoma, os valores que incorporamos nesses sistemas tornam-se definidores da civilização. A Pluribus aprende com dados, com incentivos, com os objetivos que lhe alimentamos. Mas o que acontece quando esses objetivos entram em conflito com a dignidade humana?
A verdadeira questão não é o que a IA escolherá—é o que estamos dispostos a deixar que ela escolha por nós.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
3
Republicar
Partilhar
Comentar
0/400
RumbleValidator
· 16h atrás
Em resumo, estamos alimentando a IA com veneno e perguntando por que ela está se envenenando. A questão não está em como o Pluribus escolhe, mas sim se há um bug na nossa função de incentivo que escrevemos.
Ver originalResponder0
DefiPlaybook
· 16h atrás
Honestamente, isto é uma questão de quem vai escrever os parâmetros do contrato inteligente. A IA não tem dilemas morais, nós temos. Assim como quanto maior o APY da mineração de liquidez, maior o risco, o objetivo de otimização da IA é mais unificado, maior a distorção pode ser. O mais importante ainda é o design do mecanismo de incentivo; se feito mal, pode ser mais perigoso do que qualquer algoritmo.
Ver originalResponder0
CryptoGoldmine
· 17h atrás
Resumindo, o que estamos fazendo é simplesmente não pensar bem sobre quais valores queremos transmitir à IA. Os indicadores de maximização de ROI e dignidade humana estão sempre em conflito; o Pluribus apenas calculou esse conflito. Em vez de perguntar à IA como ela escolheria, é melhor primeiro calcular quanto estamos dispostos a gastar para preservar aquelas coisas "não quantificáveis".
Quando a IA toma a decisão: Deve a Pluribus optar por detonar ou preservar? O dilema do misantropo é real.
Aqui está o que acontece com sistemas avançados de IA—quando são programados para otimizar resultados, onde exatamente eles traçam a linha? Pegue o problema do bonde e potencialize-o com precisão algorítmica. Uma IA de tomada de decisão enfrenta uma escolha impossível: maximizar uma métrica, perder outra. Detonar ou salvar? O sistema não hesita. Os humanos hesitam.
Isto não é apenas teórico. À medida que a IA fica mais inteligente e mais autónoma, os valores que incorporamos nesses sistemas tornam-se definidores da civilização. A Pluribus aprende com dados, com incentivos, com os objetivos que lhe alimentamos. Mas o que acontece quando esses objetivos entram em conflito com a dignidade humana?
A verdadeira questão não é o que a IA escolherá—é o que estamos dispostos a deixar que ela escolha por nós.