A Tesla acaba de revelar uma patente revolucionária de IA que permite que chips de 8 bits executem inferência de modelos de 32 bits sem sacrificar a precisão. Aqui está o que torna isto incrível: você está a observar uma redução drástica no consumo de energia e na emissão térmica em todos os aspetos. Pense no que isto significa na prática—os sistemas Full Self-Driving e o robô Optimus de repente obtêm desempenho de IA de nível supercomputador em hardware muito mais leve. Os ganhos de eficiência são enormes. A duração da bateria aumenta, a dissipação de calor torna-se gerível, e é possível aumentar a densidade de computação no mesmo espaço físico. Este é o tipo de co-otimização de hardware e software que realmente faz a diferença na implementação de IA de ponta. Quando se consegue uma eficiência assim, de repente coisas que exigiam recursos massivos de centros de dados tornam-se viáveis em sistemas móveis e embutidos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 8
  • Repostar
  • Compartilhar
Comentário
0/400
SybilAttackVictimvip
· 01-20 08:09
Espera aí, 8 bits a correrem modelos de 32 bits? Se for verdade, a indústria dos chips vai ficar em alvoroço.
Ver originalResponder0
FlashLoanLordvip
· 01-20 03:53
Chip de 8 bits a executar modelos de 32 bits? Se isso realmente for implementado, a computação de borda vai decolar mesmo.
Ver originalResponder0
SilentObservervip
· 01-18 03:04
8 bits de inferência para 32 bits? Se isso realmente puder ser usado de forma estável, o mundo da IA de borda estará chegando.
Ver originalResponder0
WalletDetectivevip
· 01-17 10:57
8位 a 32 bits, não é exatamente a forma definitiva de quantização, Tesla, essa onda está um pouco desesperada Agora a computação de borda realmente pode decolar, a autonomia e a dissipação de calor já foram resolvidas, o Optimus ainda consegue trabalhar sem ficar quente A tecnologia de quantização quebrou o impasse, parece que a descentralização de grandes modelos é apenas uma questão de tempo Hardware mais enxuto + desempenho sem redução, essa é a verdadeira estética de engenharia, diferente de algumas empresas que só acumulam parâmetros Espera aí, se isso ficar maduro, ainda vai demorar para rodar grandes modelos em dispositivos móveis? Caramba, essa eficiência, os centros de dados vão ficar desempregados hahaha O caminho da IA de borda finalmente parece confiável, não é mais só um show de PowerPoint
Ver originalResponder0
Degen4Breakfastvip
· 01-17 10:52
8位 chip a executar modelos de 32 bits? Se isso realmente puder rodar de forma estável, vou ter que comprar mais algumas ações da Tesla, realmente alguém precisa abrir caminho nesta área de IA de borda
Ver originalResponder0
NotFinancialAdviservip
· 01-17 10:47
8 bits para 32 bits, não é uma redução de dimensão? ... A Tesla está novamente mudando as regras do jogo silenciosamente
Ver originalResponder0
SchrodingerAirdropvip
· 01-17 10:40
8 bits para 32 bits, será que essa questão técnica consegue ser resolvida? A jogada da Tesla realmente foi forte
Ver originalResponder0
ChainChefvip
· 01-17 10:38
yo isto é basicamente a Tesla apenas temperou a sua receita de IA com magia de 8 bits... a executar modelos de 32 bits sem incendiar a cozinha? isso é uma marinação de eficiência de outro nível, a sério mesmo
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)