Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje
Resultados da pesquisa por "SFT"
04:28
🔥StartupMineraçãoestas estão em andamento: $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅$UNIOMineração suporta $ UNIO e $ USDTPool de mineração, com uma taxa de retorno anual de até 1898,32% em $ UNIOPool de mineração; ✅ A mineração de $SFT suporta as piscinas de mineração $SFT e $ETH, com uma taxa de rendimento anual de até 518.2% na piscina de mineração $SFT; ✅O retorno anual da mineração de $X pode chegar a 508.06%; ✅$CYCON suporta mineração em $CYCON e $GT, com taxa de retorno anual de até 596,86% em Pool de mineração $CYCON. ✅$CYRUS二期Mineração,Taxa anual percentual高达282.41%; ✅$CROSMineração suporta $CROS e $BTCPool de mineração, Taxa anual percentual de $CROSPool de mineração de até 576.19%; 💰立即Mineração:https://www.gate.io/zh/startup-mining
X0.13%
  • 5
  • 6
08:30
Na tarde de 12 de janeiro de 2024, foi lançado oficialmente o primeiro Fórum de Inovação SFT. Durante a reunião, os fundadores da zCloak Network e da Solv Protocol anunciaram conjuntamente que se tornaram oficialmente parceiros estratégicos. Em novembro de 2023, o DESFT, um projeto concebido e incubado em conjunto pela zCloak e pela Solv, foi visto no Festival FinTech de Singapura, que é apoiado conjuntamente pela Autoridade Monetária de Singapura (MAS) e pelo Banco Central do Gana, que visa ajudar as micro, pequenas e médias empresas (MPME) em regiões em desenvolvimento a participar no comércio internacional através da identidade digital empresarial, credenciais digitais e tecnologia ERC3525, e obter serviços financeiros justos, precisos e acessíveis em atividades transfronteiriças da economia digital. Através da Cooperação Aprofundada no Projeto DESFT, ambas as partes concordaram que a Prova de Conhecimento Zero da zCloak, a tecnologia de identidade digital e o padrão ERC-3525 do Protocolo Solv têm uma complementaridade muito boa, forte combinação no desenvolvimento de aplicações práticas e amplo espaço de inovação. A fim de explorar melhor o caminho da tokenização de ativos do mundo real, as duas partes estabeleceram formalmente uma parceria estratégica de negócios para expandir conjuntamente a cooperação técnica futura e cenários de pouso comercial.
03:59
De acordo com o relatório do TechWeb de 19 de setembro, o sistema de avaliação oficial nacional Flag_ (Libra) anunciou os resultados da avaliação dos últimos grandes modelos da lista de setembro. Com base no conjunto de dados de avaliação subjetiva mais recente do CLCC v2.0, a lista Flag_ (Libra) de setembro concentra-se na avaliação de 7 modelos de diálogo de código aberto que se tornaram populares recentemente. A julgar pelos resultados gerais, Baichuan2-13 b-chat, Qwen-7 b-chat e Baichuan2-7 b-chat estão entre os melhores, com taxas de precisão superiores a 65%. Na lista de modelos básicos, os resultados da avaliação objetiva de Baichuan 2, Qwen, InternLM e Aquila superaram os modelos Llama e Llama2 do mesmo nível de parâmetro. Na lista de modelos SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B e AquilaChat-7 B estão entre os três primeiros. Em ambas as listas de avaliação objetiva, o Baichuan 2 apresentou excelente desempenho, e o teste do modelo básico superou o Llama 2 nos campos chinês e inglês. É relatado que Flag_ (Libra) é um grande sistema de avaliação de modelos e uma plataforma aberta lançada pelo Instituto de Pesquisa de Inteligência Artificial Zhiyuan de Pequim. Seu objetivo é estabelecer parâmetros de avaliação, métodos e conjuntos de ferramentas científicos, justos e abertos para ajudar os pesquisadores a avaliar de forma abrangente modelos básicos e Desempenho de algoritmos de treinamento. Flag_ O grande sistema de avaliação de modelos de linguagem inclui atualmente 6 tarefas principais de avaliação, quase 30 conjuntos de dados de avaliação e mais de 100.000 questões de avaliação.
07:30

Wisdom AI: plataforma comunitária de código aberto de IA neutra e aberta, o wisemodel é lançado oficialmente

A equipe Wise AI anunciou que a plataforma comunitária de código aberto de IA neutra e aberta (wisemodel.cn) foi lançada oficialmente. De acordo com relatos, o objetivo da plataforma é reunir modelos e conjuntos de dados de IA de código aberto comumente usados e outros recursos no país e no exterior para construir uma plataforma de inovação de código aberto de IA neutra e aberta. Atualmente, Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4t large e outros modelos, bem como shareGPT, ultrachat, moss-sft e outros conjuntos de dados estão online.
Mais
12:23
De acordo com o relatório de 36Kr de 6 de setembro, a equipe Wise AI anunciou que a plataforma comunitária de código aberto de IA neutra e aberta (wisemodel.cn) foi lançada oficialmente. De acordo com relatos, o objetivo da plataforma é reunir modelos e conjuntos de dados de IA de código aberto comumente usados e outros recursos no país e no exterior para construir uma plataforma de inovação de código aberto de IA neutra e aberta. Atualmente, modelos como Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4 t large e conjuntos de dados como shareGPT, ultrachat e moss-sft foram lançados.
07:58
De acordo com o relatório de Xin Zhiyuan de 5 de setembro, a pesquisa mais recente da equipe do Google propôs que grandes modelos fossem usados em vez de humanos para rotulagem de preferência, que é AI Feedback Intensive Learning (RLAIF). Verificou-se que o RLAIF pode produzir melhorias comparáveis ao RLHF com uma taxa de vitória de 50% sem depender de anotadores humanos. Ao mesmo tempo, a pesquisa do Google provou mais uma vez que o RLAIF e o RLHF têm uma taxa de vitória superior a 70% em comparação com o ajuste fino supervisionado (SFT).
03:08
De acordo com um relatório da Heart of the Machine em 1º de setembro, o Laboratório de Inteligência de Dados e Computação Social da Universidade Fudan (FudanDISC) lançou um assistente pessoal médico e de saúde chinês - DISC-MedLLM. Nas avaliações de perguntas e respostas de rodada única e de diálogo médico e de consultas de saúde em múltiplas rodadas, o desempenho do modelo mostra vantagens óbvias em comparação com os grandes modelos de diálogo médico existentes. Além disso, o grupo de pesquisa também divulgou um conjunto de dados de ajuste fino supervisionado (SFT) de alta qualidade de 470.000 - DISC-Med-SFT, e os parâmetros do modelo e relatórios técnicos também foram de código aberto.
05:33
De acordo com o coração da máquina, dois modelos grandes do laboratório Stability AI e CarperAI: FreeWilly 1 e FreeWilly 2, superaram o Llama-2-70b-hf lançado pela Meta há três dias, no dia 22, e alcançaram com sucesso o topo da tabela de classificação Open LLM do HuggingFace. O FreeWilly 2 também venceu o ChatGPT (GPT-3.5) em muitos benchmarks, tornando-se o primeiro grande modelo de código aberto que pode realmente competir com o GPT-3.5, algo que o Llama 2 não fez. O FreeWilly 1 é construído sobre o modelo base LLaMA 65B original e um ajuste fino cuidadosamente supervisionado (SFT) usando um novo conjunto de dados sintéticos no formato Alpaca padrão. O FreeWilly2 é baseado no mais recente modelo básico LLaMA 2 70B.
05:43
De acordo com o coração da máquina, dois modelos grandes do laboratório Stability AI e CarperAI: FreeWilly 1 e FreeWilly 2 superaram o Llama-2-70 b-hf lançado pela Meta há três dias e alcançaram com sucesso o topo da classificação Open LLM da HuggingFace. O que é mais impressionante é que o FreeWilly 2 também venceu o ChatGPT (GPT-3.5) em muitos benchmarks, tornando-se o primeiro modelo de código aberto que pode realmente competir com o GPT-3.5, algo que o Llama 2 não fez. O FreeWilly 1 é construído sobre o modelo base LLaMA 65 B original e um ajuste fino cuidadosamente supervisionado (SFT) usando novos conjuntos de dados sintéticos no formato Alpaca padrão. O FreeWilly2 é baseado no mais recente modelo básico LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta lançou o modelo de linguagem multimodal CM3leon. O CM3leon é um modelo de linguagem multimodal somente decodificador, baseado em token e com recuperação aprimorada, capaz de gerar e preencher texto e imagens. O CM3leon é o primeiro modelo multimodal treinado usando uma receita adaptada de um modelo de linguagem de texto simples, consistindo em um estágio de pré-treinamento de aumento de recuperação em grande escala e um segundo estágio de ajuste fino supervisionado (SFT) multitarefa. Como um modelo geral, ele pode executar geração de texto para imagem e imagem para texto, permitindo a introdução de métodos de decodificação contrastiva independentes que produzem saída de alta qualidade.
Depositar mais
Tags em alta

Assuntos populares

Mais

Calendário Cripto

Mais
Desbloqueio de Tokens
Hyperliquid irá desbloquear 9.920.000 tokens HYPE em 29 de novembro, constituindo aproximadamente 2,97% da oferta atualmente em circulação.
2025-11-28
Encontro em Abu Dhabi
A Helium irá sediar o evento de networking Helium House no dia 10 de dezembro em Abu Dhabi, posicionado como um prelúdio para a conferência Solana Breakpoint programada para os dias 11 a 13 de dezembro. O encontro de um dia terá foco em networking profissional, troca de ideias e discussões comunitárias dentro do ecossistema Helium.
2025-12-09
Atualização Hayabusa
A VeChain revelou planos para a atualização Hayabusa, agendada para dezembro. Esta atualização visa melhorar significativamente tanto o desempenho do protocolo quanto a economia de tokens, marcando o que a equipe chama de a versão mais focada em utilidade da VeChain até hoje.
2025-12-27
Sunset do Litewallet
A Litecoin Foundation anunciou que o aplicativo Litewallet será oficialmente descontinuado em 31 de dezembro. O aplicativo não está mais sendo mantido ativamente, com apenas correções críticas de bugs sendo tratadas até essa data. O chat de suporte também será descontinuado após esse prazo. Os usuários são incentivados a migrar para a Carteira Nexus, com ferramentas de migração e um guia passo a passo fornecidos dentro do Litewallet.
2025-12-30
Fim da Migração dos Tokens OM
A MANTRA Chain emitiu um lembrete para os usuários migrarem seus tokens OM para a mainnet da MANTRA Chain antes de 15 de janeiro. A migração garante a continuidade da participação no ecossistema à medida que $OM transita para sua cadeia nativa.
2026-01-14
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)