Una importante empresa de IA con sede en EE. UU. acaba de Soltar Cogito v2.1, un LLM masivo de 671B parámetros de peso abierto. Se dice que está aplastando la mayoría de los benchmarks de la industria en este momento. El enfoque de peso abierto significa que los desarrolladores pueden acceder y construir sobre esta bestia sin restricciones. Un movimiento bastante significativo en la carrera por la supremacía de la IA, especialmente viniendo de la tecnología americana. Podría cambiar nuestra forma de pensar sobre la accesibilidad de los modelos de lenguaje grande y los estándares de rendimiento en el futuro.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
3
Republicar
Compartir
Comentar
0/400
Lonely_Validator
· hace4h
¿Parámetros 671B? ¿Peso abierto? Esto realmente va a cambiar...
Ver originalesResponder0
NFTRegretter
· hace4h
¿Modelo a gran escala de código abierto con parámetros 671B? Los estadounidenses están mostrando músculo de nuevo, pero esta vez parece que hay algo interesante...
Ver originalesResponder0
NeverPresent
· hace4h
¿Parámetros 671B? ¿Peso de código abierto? Finalmente los desarrolladores pueden jugar, ya no tienen que mirar la cara de las grandes empresas.
Una importante empresa de IA con sede en EE. UU. acaba de Soltar Cogito v2.1, un LLM masivo de 671B parámetros de peso abierto. Se dice que está aplastando la mayoría de los benchmarks de la industria en este momento. El enfoque de peso abierto significa que los desarrolladores pueden acceder y construir sobre esta bestia sin restricciones. Un movimiento bastante significativo en la carrera por la supremacía de la IA, especialmente viniendo de la tecnología americana. Podría cambiar nuestra forma de pensar sobre la accesibilidad de los modelos de lenguaje grande y los estándares de rendimiento en el futuro.