Une grande entreprise d'IA basée aux États-Unis vient de Goutte Cogito v2.1, un LLM massif de 671B paramètres à poids ouverts. On dit qu'il écrase la plupart des benchmarks de l'industrie en ce moment. L'approche à poids ouverts signifie que les développeurs peuvent réellement accéder et construire sur cette bête sans restrictions. C'est un mouvement assez significatif dans la course à la suprématie de l'IA, surtout venant de la technologie américaine. Cela pourrait bouleverser notre façon de penser l'accessibilité et les normes de performance des grands modèles de langage à l'avenir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
3
Reposter
Partager
Commentaire
0/400
Lonely_Validator
· Il y a 5h
Paramètres 671B ? Poids d'ouverture ? Cela va vraiment changer les choses...
Voir l'originalRépondre0
NFTRegretter
· Il y a 5h
Modèle de grande taille open source avec des paramètres 671B ? Les Américains montrent encore leurs muscles, mais cette fois, il semble qu'il y ait un peu de contenu...
Voir l'originalRépondre0
NeverPresent
· Il y a 5h
Paramètres 671B ? Poids Open Source ? Les développeurs peuvent enfin s'amuser, sans avoir à regarder la couleur des grandes entreprises.
Une grande entreprise d'IA basée aux États-Unis vient de Goutte Cogito v2.1, un LLM massif de 671B paramètres à poids ouverts. On dit qu'il écrase la plupart des benchmarks de l'industrie en ce moment. L'approche à poids ouverts signifie que les développeurs peuvent réellement accéder et construire sur cette bête sans restrictions. C'est un mouvement assez significatif dans la course à la suprématie de l'IA, surtout venant de la technologie américaine. Cela pourrait bouleverser notre façon de penser l'accessibilité et les normes de performance des grands modèles de langage à l'avenir.