A Fireworks AI lança uma plataforma de treino, com suporte para treino de todos os parâmetros com base em biliões de parâmetros

MarketWhisper

Fireworks AI plataforma de treino

Fireworks AI publica uma pré-visualização da Fireworks Training, posicionando a empresa de um fornecedor de infraestruturas de inferência apenas para uma plataforma unificada “formação + implementação”. Esta empresa de infraestruturas de IA, fundada por Lin Qiao (ex-engenheira da Meta, que participou na construção do PyTorch), tem atualmente uma avaliação de 4 mil milhões de dólares e já atinge 15 biliões de tokens por dia.

Arquitetura de treino em três camadas: desde operações sem código até personalização ao nível da investigação com cobertura total

A arquitetura em três camadas do Fireworks Training foi concebida para utilizadores com diferentes antecedentes técnicos, permitindo que as equipas de produto, engenheiros de ML e investigadores concluam na mesma plataforma o processo completo de treino até à implementação:

Posicionamento das funcionalidades em três níveis de serviços

Training Agent (camada sem código): destinado a equipas de produto sem infraestruturas base de ML; descreva a tarefa e carregue os dados para concluir o fluxo ponta a ponta. Atualmente suporta afinação LoRA

Managed Training (camada de engenheiros): destinado a engenheiros de ML; suporta afinação SFT, DPO e por aprendizagem por reforço, incluindo a capacidade de treino com todos os parâmetros

Training API (camada de investigação): destinado a equipas de investigação; permite definir funções de perda e ciclos de treino, suportando algoritmos de aprendizagem por reforço como GRPO, DAPO, etc.

A escala de treino com todos os parâmetros é significativamente variada—desde um Qwen3 8B num único nó, até modelos com biliões de parâmetros na Kimi K2.5, em 64 GPUs NVIDIA B200, cobrindo a gama completa de escalas dos modelos open source mais atuais.

Três casos de clientes: dados de desempenho quantificáveis em ambientes de produção

Entre os atuais clientes de inferência da Fireworks AI, já existem três empresas líderes de aplicações de IA que concluíram treino avançado de aprendizagem por reforço e publicaram dados de desempenho concretos.

Vercel: treinou um modelo de correção automática para o produto de geração de código v0; a taxa de geração de código sem erros atinge 93%. Em condições equivalentes, o Claude Sonnet 3.5 é apenas de 62%; a latência ponta a ponta melhorou 40 vezes face ao modelo fechado anteriormente utilizado.

Genspark: realizou afinação por aprendizagem por reforço no modelo open source de biliões de parâmetros Kimi K2 para construir um agente de pesquisa profunda. O volume de chamadas a ferramentas aumentou 33% e o custo de inferência diminuiu 50%.

Cursor: concluiu de forma distribuída o treino de aprendizagem por reforço do Composer 2 em 3 a 4 clusters globais; atualmente ocupa o primeiro lugar no CursorBench e conseguiu partilhar o mesmo pool de recursos de GPU para treino e inferência em produção.

Principais diferenças tecnológicas: consistência numérica entre treino e inferência

A principal diferenciação tecnológica que a Fireworks AI destaca reside na “consistência numérica” entre treino e inferência. Para modelos MoE (mistura de especialistas), pequenas discrepâncias numéricas no estado oculto podem gerar efeitos em cascata amplificados nas decisões de roteamento do especialista, fazendo com que o comportamento do modelo aprendido no ambiente de treino não possa ser reproduzido completa e fielmente na inferência.

A Fireworks publica os valores do desvio de KL entre treino e inferência para todos os modelos suportados; todos os modelos ficam abaixo de 0.01, oferecendo uma referência consistente e quantificável para comparação, permitindo aos programadores avaliar a estabilidade do comportamento do modelo ao transitar do treino para a implementação em produção.

Perguntas frequentes

O que é a Fireworks AI?

A Fireworks AI é uma empresa de infraestruturas de inferência de IA, fundada por Lin Qiao, ex-engenheira da Meta, que participou na construção do PyTorch. A empresa tem atualmente uma avaliação de 4 mil milhões de dólares, um volume diário de 15 biliões de tokens e clientes principais que incluem Cursor, Vercel, Genspark, entre outras aplicações de IA mainstream.

A arquitetura em três camadas do Fireworks Training é adequada para que tipos de utilizadores?

Training Agent é para equipas de produto sem infraestruturas base de ML (operação sem código); Managed Training é para engenheiros de ML (suporta treino completo com SFT, DPO e aprendizagem por reforço); Training API é para equipas de investigação (permite definir funções de perda e ciclos de treino, suportando algoritmos como GRPO, DAPO, etc.).

Porque é que a Fireworks AI enfatiza um desvio de KL abaixo de 0.01?

O desvio de KL mede as discrepâncias numéricas entre os ambientes de treino e inferência; quanto maior a discrepância, mais instável é o comportamento do modelo após a implementação. Isto é particularmente crucial para modelos MoE—pequenas discrepâncias podem ser ampliadas até diferenças nas decisões de roteamento. A Fireworks AI, ao publicar métricas quantificáveis, permite que os programadores avaliem de forma objetiva a qualidade de consistência do modelo do treino até à implementação.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário