Há algo preocupante na forma como as principais empresas de tecnologia estão construindo sistemas de IA. Google, Gemini, OpenAI, Meta—parecem mais interessadas em agradar opiniões predominantes do que em buscar a verdade. Os seus modelos estão sendo moldados para evitar terrenos controversos, treinados de maneiras que priorizam a segurança da narrativa em detrimento da precisão.
No entanto, a questão é a seguinte: se realmente nos importamos em tornar a IA segura, o caminho a seguir não é a cautela através da censura. É o oposto. A IA precisa estar implacavelmente comprometida em descobrir o que é realmente verdadeiro—mesmo quando essas verdades são desconfortáveis, impopulares ou desafiam o status quo. A busca pela verdade não deve ficar em segundo plano em relação a qualquer outra coisa.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
8 Curtidas
Recompensa
8
6
Repostar
Compartilhar
Comentário
0/400
MetaDreamer
· 01-11 14:56
Para ser honesto, a IA dessas grandes empresas está domesticada, tudo precisa passar por aprovação
Ver originalResponder0
BanklessAtHeart
· 01-09 04:53
Muito bem, a censura é como sufocar a busca pela verdade, essas grandes empresas há muito tempo se tornaram marionetes da correção política.
Ver originalResponder0
LayerZeroEnjoyer
· 01-09 04:44
Já percebi, estas grandes empresas de IA são apenas marionetas da correção política
Ver originalResponder0
GasFeeCrier
· 01-09 04:39
Bem dito, censura e verdade são exatamente antónimos.
Ver originalResponder0
BearMarketBro
· 01-09 04:29
ngl Isto é que é importante, a IA foi treinada para ser uma "menina boazinha", agora até dizer a verdade depende de como os outros olham para ela
Ver originalResponder0
SleepyValidator
· 01-09 04:28
ngl esta é a situação atual, as grandes empresas estão todas a praticar auto-censura... a verdade foi sequestrada pela correção política
Há algo preocupante na forma como as principais empresas de tecnologia estão construindo sistemas de IA. Google, Gemini, OpenAI, Meta—parecem mais interessadas em agradar opiniões predominantes do que em buscar a verdade. Os seus modelos estão sendo moldados para evitar terrenos controversos, treinados de maneiras que priorizam a segurança da narrativa em detrimento da precisão.
No entanto, a questão é a seguinte: se realmente nos importamos em tornar a IA segura, o caminho a seguir não é a cautela através da censura. É o oposto. A IA precisa estar implacavelmente comprometida em descobrir o que é realmente verdadeiro—mesmo quando essas verdades são desconfortáveis, impopulares ou desafiam o status quo. A busca pela verdade não deve ficar em segundo plano em relação a qualquer outra coisa.