La elección clara detrás de los cambios profesionales
¿Que aprende un investigador cuando enfrenta un giro inesperado en un momento clave de su carrera?
Este cambio de carrera a principios de 2025 le brindó a Tian Yuandong la oportunidad de examinar sus decisiones mediante un marco clásico de toma de decisiones. Cuando fue invitado a participar en un gran proyecto titulado “Emergencia”, este científico de IA, con larga experiencia en investigación en aprendizaje por refuerzo, dibujó previamente una matriz 2x2 que enumeraba cuatro posibles resultados. Pero la realidad le ofreció un quinto resultado—uno que superaba sus expectativas.
Este imprevisto le permitió profundizar en la complejidad social. Sin embargo, durante esos meses de trabajo, el equipo logró avances en los problemas centrales del aprendizaje por refuerzo: estabilidad en el entrenamiento, interacción entre entrenamiento y razonamiento, diseño de arquitecturas de modelos, acoplamiento entre preentrenamiento y entrenamiento intermedio, algoritmos de razonamiento en cadenas largas, métodos de generación de datos, diseño de marcos de entrenamiento posterior, entre otros. Estos logros supusieron un cambio de paradigma importante para sus futuras líneas de investigación.
Tian Yuandong confiesa que la decisión de abandonar una gran empresa llevaba años gestándose. A lo largo de más de una década de carrera, pensó varias veces en dejar su trabajo—a finales de 2023 estuvo a punto de hacerlo, pero factores económicos y familiares lo hicieron cambiar de opinión una y otra vez. En los últimos años, bromeaba diciendo que sus palabras y acciones parecían “insinuar” que la empresa debería dejarlo ir. Pero esta vez, finalmente, una “ayuda” le facilitó tomar la decisión.
Lo interesante es que esta trayectoria en forma de “zigzag” en su vida se convirtió en un nutriente para su creatividad. Como dice un viejo proverbio: “Si el camino oficial no funciona, el poeta obtiene su beneficio; cuanto más rica sea la experiencia de vida, más profunda será la poesía.” Una vida demasiado suave, en realidad, carece de la tensión que da la propia vida.
Recuerda que a principios de 2021, tras escribir unas reflexiones en su resumen anual sobre “por qué no fue aceptada una publicación”, recibió una respuesta poco amistosa. Pero optó por guardar silencio, incluso fingiendo en público que acababa de ser promovido. Seis meses después, esa estrategia dio frutos: efectivamente fue ascendido. Y aquel trabajo, que en 2021 pasó desapercibido, en julio ganó el premio a la mejor publicación en ICML, convirtiéndose en un clásico en el campo del aprendizaje por imitación.
Tras el 22 de octubre, todos sus canales de comunicación quedaron temporalmente inoperativos—recibía cientos de mensajes, correos y invitaciones a reuniones cada día. Le tomó varias semanas volver a la normalidad. Agradece a todos por su preocupación durante ese tiempo, aunque admite que quizás no pudo responder a algunos mensajes a tiempo.
Finalmente, entre varias invitaciones de empresas tecnológicas de primer nivel, decidió unirse como cofundador a un nuevo proyecto emprendedor. Los detalles permanecen en secreto por ahora; prefiere concentrarse en trabajar con dedicación en lugar de hacer anuncios prematuros.
Mapa de investigación para 2025: tres líneas principales
Tian Yuandong tiene muy clara su ruta de investigación: eficiencia en razonamiento de modelos grandes y interpretabilidad de modelos.
Razonamiento en espacio latente continuo y difusión
El trabajo sobre razonamiento en espacio latente continuo (coconut, COLM’25), publicado a finales de 2024, generó un amplio eco en 2025. La comunidad investigadora empezó a explorar: ¿cómo aplicar esta idea en aprendizaje por refuerzo y preentrenamiento? ¿Cómo optimizar la eficiencia del entrenamiento y los costos computacionales?
Aunque su equipo fue reasignado a otros proyectos y no pudo profundizar en esta línea, el enfoque en sí mismo ya demostró su valor. En la primera mitad del año, publicaron un artículo de análisis teórico titulado “Reasoning by Superposition”(NeurIPS’25), que explica rigurosamente en términos matemáticos las ventajas del razonamiento en espacio latente continuo frente a métodos tradicionales, logrando captar bastante atención.
Avances multidimensionales en eficiencia de razonamiento
Reducir los costos de razonamiento en modelos grandes es un trabajo de ingeniería sistémica, y el equipo de Tian Yuandong abordó esto desde varias dimensiones:
Optimización a nivel de tokens: Token Assorted (ICLR’25), que primero aprende tokens discretos en espacio latente (con ayuda de VQVAE), y luego en entrenamiento posterior combina estos tokens discretos con tokens de texto, logrando una reducción significativa en el costo de razonamiento, además de mejorar el rendimiento.
Detención de razonamiento basada en confianza: DeepConf detecta el nivel de confianza de cada token generado y decide dinámicamente si puede detenerse el razonamiento antes, reduciendo en gran medida la cantidad de tokens consumidos durante el proceso. En escenarios como votaciones mayoritarias, incluso supera el rendimiento.
Aceleración del entrenamiento de cadenas de razonamiento paralelas: ThreadWeaver crea cadenas de razonamiento paralelas y, mediante entrenamiento posterior, las optimiza en conjunto, acelerando todo el proceso de razonamiento.
Además, el equipo exploró en modelos pequeños la capacidad de razonamiento impulsada por aprendizaje por refuerzo (Sandwiched Policy Gradient), e incluso logró que modelos ligeros como MobileLLM-R1 aprendieran razonamientos complejos.
Interpretabilidad: del “¿por qué funciona?” al “¿por qué necesariamente funciona?”
El interés de Tian Yuandong en el fenómeno de Grokking (una repentina comprensión) surge de una confusión central de hace dos años: al analizar representaciones de aprendizaje, podía describir dinámicas de aprendizaje y mecanismos de colapso, pero no podía responder a una pregunta fundamental—¿qué tipo de representaciones realmente aprende el modelo? ¿Cuál es su relación con la estructura de los datos? ¿Qué nivel de generalización alcanzan?
El fenómeno de Grokking—el cambio repentino de memoria a generalización—parece ser una ventana a este enigma. Los primeros intentos de exploración fueron muy difíciles. El trabajo de 2024, COGS (NeurIPS’25), solo analizaba casos especiales, lo cual no le satisfacía completamente. Tras más de un año de reflexión y múltiples diálogos con GPT, su trabajo reciente “Provable Scaling Laws” marca un avance importante: puede analizar fenómenos que el marco lineal NTK no puede explicar, y explica bastante bien la emergencia de características durante el entrenamiento. Aunque los ejemplos siguen siendo específicos, al menos abre una nueva ventana.
El trabajo de fin de año, “The path not taken”, es uno de sus favoritos: ofrece una respuesta preliminar a nivel de pesos, explicando por qué las diferencias entre aprendizaje por refuerzo y ajuste fino supervisado (SFT) son tan grandes.
El SFT causa sobreajuste y olvido catastrófico, por razones superficiales: los datos de entrenamiento carecen de características on-policy, pero la causa profunda es que los datos externos provocan cambios drásticos en los componentes principales de los pesos, destruyendo la estabilidad “básica”. El aprendizaje por refuerzo, usando datos on-policy, mantiene estos componentes sin cambios y solo ajusta los secundarios, evitando el olvido catastrófico—y además, estos cambios en los pesos son más dispersos (especialmente bajo cuantificación bf16).
Por qué la interpretabilidad merece confianza
Muchos consideran que la interpretabilidad—la cuestión de “¿por qué la IA es tan efectiva?”—no es tan importante. Pero para Tian Yuandong, es una cuestión central que afecta al futuro.
Consideremos dos escenarios futuros:
Escenario uno: si solo con escalado se logra la AGI o incluso la ASI, entonces el valor del trabajo humano se acerca a cero. La IA sería una caja negra gigante que resuelve todos los problemas. La pregunta más urgente sería: ¿cómo aseguramos que este súper inteligente siempre actúe con benevolencia, sin engañar ni hacer el mal de forma oculta? La respuesta pasa por la investigación en interpretabilidad.
Escenario dos: si el camino del escalado se estanca y los humanos no pueden satisfacer demandas exponenciales de recursos, entonces debemos buscar otras vías. En ese caso, entender “por qué el modelo funciona y qué hace que falle” se vuelve imprescindible. La interpretabilidad sería la base de esa vía alternativa.
En cualquiera de los casos, la interpretabilidad es clave para resolver el problema. Incluso si la IA fuera omnisciente y benevolente, la naturaleza humana nos impulsaría a entender por qué puede hacer esto. Después de todo, la caja negra misma genera cadenas de sospechas.
En una era en la que las grandes modelos alcanzan o superan el nivel medio humano, la “ley de la selva oscura” de El problema de los tres cuerpos podría manifestarse de otra forma. Por ahora, abrir la caja de modelos entrenados y entender sus circuitos internos sigue siendo una tarea inicial.
La verdadera dificultad de la interpretabilidad radica en: desde los primeros principios—es decir, desde la estructura del modelo, el descenso de gradiente y la estructura inherente de los datos—explicar por qué el modelo converge a esas características desacopladas, dispersas, de bajo rango, modularizadas y combinables. ¿Por qué existen tantas interpretaciones equivalentes? ¿Qué hiperparámetros provocan la emergencia de estas estructuras? ¿Cómo se relacionan entre sí?
Cuando podamos derivar directamente de las ecuaciones del descenso de gradiente la inevitabilidad de la emergencia de características en modelos grandes, la interpretabilidad pasará de ser una “recolección de evidencias” en sentido biológico a una “deducción de principios” en sentido físico, guiando la práctica y abriendo nuevos caminos en el diseño de la próxima generación de IA.
Para hacer una analogía con la física de hace cuatro siglos: en ese entonces, teníamos a Tycho Brahe (el recopilador de datos en el campo de la IA), a algunos Kepler (los proponentes de hipótesis), pero aún no a Newton (el descubridor de principios). Cuando ese momento llegue, la faz del mundo cambiará radicalmente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La encrucijada de 2025: Reflexiones anuales de un investigador de IA (Primera parte)
Artículo original: Xinzhiyuan | Edición: Taozi
La elección clara detrás de los cambios profesionales
¿Que aprende un investigador cuando enfrenta un giro inesperado en un momento clave de su carrera?
Este cambio de carrera a principios de 2025 le brindó a Tian Yuandong la oportunidad de examinar sus decisiones mediante un marco clásico de toma de decisiones. Cuando fue invitado a participar en un gran proyecto titulado “Emergencia”, este científico de IA, con larga experiencia en investigación en aprendizaje por refuerzo, dibujó previamente una matriz 2x2 que enumeraba cuatro posibles resultados. Pero la realidad le ofreció un quinto resultado—uno que superaba sus expectativas.
Este imprevisto le permitió profundizar en la complejidad social. Sin embargo, durante esos meses de trabajo, el equipo logró avances en los problemas centrales del aprendizaje por refuerzo: estabilidad en el entrenamiento, interacción entre entrenamiento y razonamiento, diseño de arquitecturas de modelos, acoplamiento entre preentrenamiento y entrenamiento intermedio, algoritmos de razonamiento en cadenas largas, métodos de generación de datos, diseño de marcos de entrenamiento posterior, entre otros. Estos logros supusieron un cambio de paradigma importante para sus futuras líneas de investigación.
Tian Yuandong confiesa que la decisión de abandonar una gran empresa llevaba años gestándose. A lo largo de más de una década de carrera, pensó varias veces en dejar su trabajo—a finales de 2023 estuvo a punto de hacerlo, pero factores económicos y familiares lo hicieron cambiar de opinión una y otra vez. En los últimos años, bromeaba diciendo que sus palabras y acciones parecían “insinuar” que la empresa debería dejarlo ir. Pero esta vez, finalmente, una “ayuda” le facilitó tomar la decisión.
Lo interesante es que esta trayectoria en forma de “zigzag” en su vida se convirtió en un nutriente para su creatividad. Como dice un viejo proverbio: “Si el camino oficial no funciona, el poeta obtiene su beneficio; cuanto más rica sea la experiencia de vida, más profunda será la poesía.” Una vida demasiado suave, en realidad, carece de la tensión que da la propia vida.
Recuerda que a principios de 2021, tras escribir unas reflexiones en su resumen anual sobre “por qué no fue aceptada una publicación”, recibió una respuesta poco amistosa. Pero optó por guardar silencio, incluso fingiendo en público que acababa de ser promovido. Seis meses después, esa estrategia dio frutos: efectivamente fue ascendido. Y aquel trabajo, que en 2021 pasó desapercibido, en julio ganó el premio a la mejor publicación en ICML, convirtiéndose en un clásico en el campo del aprendizaje por imitación.
Tras el 22 de octubre, todos sus canales de comunicación quedaron temporalmente inoperativos—recibía cientos de mensajes, correos y invitaciones a reuniones cada día. Le tomó varias semanas volver a la normalidad. Agradece a todos por su preocupación durante ese tiempo, aunque admite que quizás no pudo responder a algunos mensajes a tiempo.
Finalmente, entre varias invitaciones de empresas tecnológicas de primer nivel, decidió unirse como cofundador a un nuevo proyecto emprendedor. Los detalles permanecen en secreto por ahora; prefiere concentrarse en trabajar con dedicación en lugar de hacer anuncios prematuros.
Mapa de investigación para 2025: tres líneas principales
Tian Yuandong tiene muy clara su ruta de investigación: eficiencia en razonamiento de modelos grandes y interpretabilidad de modelos.
Razonamiento en espacio latente continuo y difusión
El trabajo sobre razonamiento en espacio latente continuo (coconut, COLM’25), publicado a finales de 2024, generó un amplio eco en 2025. La comunidad investigadora empezó a explorar: ¿cómo aplicar esta idea en aprendizaje por refuerzo y preentrenamiento? ¿Cómo optimizar la eficiencia del entrenamiento y los costos computacionales?
Aunque su equipo fue reasignado a otros proyectos y no pudo profundizar en esta línea, el enfoque en sí mismo ya demostró su valor. En la primera mitad del año, publicaron un artículo de análisis teórico titulado “Reasoning by Superposition”(NeurIPS’25), que explica rigurosamente en términos matemáticos las ventajas del razonamiento en espacio latente continuo frente a métodos tradicionales, logrando captar bastante atención.
Avances multidimensionales en eficiencia de razonamiento
Reducir los costos de razonamiento en modelos grandes es un trabajo de ingeniería sistémica, y el equipo de Tian Yuandong abordó esto desde varias dimensiones:
Optimización a nivel de tokens: Token Assorted (ICLR’25), que primero aprende tokens discretos en espacio latente (con ayuda de VQVAE), y luego en entrenamiento posterior combina estos tokens discretos con tokens de texto, logrando una reducción significativa en el costo de razonamiento, además de mejorar el rendimiento.
Detención de razonamiento basada en confianza: DeepConf detecta el nivel de confianza de cada token generado y decide dinámicamente si puede detenerse el razonamiento antes, reduciendo en gran medida la cantidad de tokens consumidos durante el proceso. En escenarios como votaciones mayoritarias, incluso supera el rendimiento.
Aceleración del entrenamiento de cadenas de razonamiento paralelas: ThreadWeaver crea cadenas de razonamiento paralelas y, mediante entrenamiento posterior, las optimiza en conjunto, acelerando todo el proceso de razonamiento.
Además, el equipo exploró en modelos pequeños la capacidad de razonamiento impulsada por aprendizaje por refuerzo (Sandwiched Policy Gradient), e incluso logró que modelos ligeros como MobileLLM-R1 aprendieran razonamientos complejos.
Interpretabilidad: del “¿por qué funciona?” al “¿por qué necesariamente funciona?”
El interés de Tian Yuandong en el fenómeno de Grokking (una repentina comprensión) surge de una confusión central de hace dos años: al analizar representaciones de aprendizaje, podía describir dinámicas de aprendizaje y mecanismos de colapso, pero no podía responder a una pregunta fundamental—¿qué tipo de representaciones realmente aprende el modelo? ¿Cuál es su relación con la estructura de los datos? ¿Qué nivel de generalización alcanzan?
El fenómeno de Grokking—el cambio repentino de memoria a generalización—parece ser una ventana a este enigma. Los primeros intentos de exploración fueron muy difíciles. El trabajo de 2024, COGS (NeurIPS’25), solo analizaba casos especiales, lo cual no le satisfacía completamente. Tras más de un año de reflexión y múltiples diálogos con GPT, su trabajo reciente “Provable Scaling Laws” marca un avance importante: puede analizar fenómenos que el marco lineal NTK no puede explicar, y explica bastante bien la emergencia de características durante el entrenamiento. Aunque los ejemplos siguen siendo específicos, al menos abre una nueva ventana.
El trabajo de fin de año, “The path not taken”, es uno de sus favoritos: ofrece una respuesta preliminar a nivel de pesos, explicando por qué las diferencias entre aprendizaje por refuerzo y ajuste fino supervisado (SFT) son tan grandes.
El SFT causa sobreajuste y olvido catastrófico, por razones superficiales: los datos de entrenamiento carecen de características on-policy, pero la causa profunda es que los datos externos provocan cambios drásticos en los componentes principales de los pesos, destruyendo la estabilidad “básica”. El aprendizaje por refuerzo, usando datos on-policy, mantiene estos componentes sin cambios y solo ajusta los secundarios, evitando el olvido catastrófico—y además, estos cambios en los pesos son más dispersos (especialmente bajo cuantificación bf16).
Por qué la interpretabilidad merece confianza
Muchos consideran que la interpretabilidad—la cuestión de “¿por qué la IA es tan efectiva?”—no es tan importante. Pero para Tian Yuandong, es una cuestión central que afecta al futuro.
Consideremos dos escenarios futuros:
Escenario uno: si solo con escalado se logra la AGI o incluso la ASI, entonces el valor del trabajo humano se acerca a cero. La IA sería una caja negra gigante que resuelve todos los problemas. La pregunta más urgente sería: ¿cómo aseguramos que este súper inteligente siempre actúe con benevolencia, sin engañar ni hacer el mal de forma oculta? La respuesta pasa por la investigación en interpretabilidad.
Escenario dos: si el camino del escalado se estanca y los humanos no pueden satisfacer demandas exponenciales de recursos, entonces debemos buscar otras vías. En ese caso, entender “por qué el modelo funciona y qué hace que falle” se vuelve imprescindible. La interpretabilidad sería la base de esa vía alternativa.
En cualquiera de los casos, la interpretabilidad es clave para resolver el problema. Incluso si la IA fuera omnisciente y benevolente, la naturaleza humana nos impulsaría a entender por qué puede hacer esto. Después de todo, la caja negra misma genera cadenas de sospechas.
En una era en la que las grandes modelos alcanzan o superan el nivel medio humano, la “ley de la selva oscura” de El problema de los tres cuerpos podría manifestarse de otra forma. Por ahora, abrir la caja de modelos entrenados y entender sus circuitos internos sigue siendo una tarea inicial.
La verdadera dificultad de la interpretabilidad radica en: desde los primeros principios—es decir, desde la estructura del modelo, el descenso de gradiente y la estructura inherente de los datos—explicar por qué el modelo converge a esas características desacopladas, dispersas, de bajo rango, modularizadas y combinables. ¿Por qué existen tantas interpretaciones equivalentes? ¿Qué hiperparámetros provocan la emergencia de estas estructuras? ¿Cómo se relacionan entre sí?
Cuando podamos derivar directamente de las ecuaciones del descenso de gradiente la inevitabilidad de la emergencia de características en modelos grandes, la interpretabilidad pasará de ser una “recolección de evidencias” en sentido biológico a una “deducción de principios” en sentido físico, guiando la práctica y abriendo nuevos caminos en el diseño de la próxima generación de IA.
Para hacer una analogía con la física de hace cuatro siglos: en ese entonces, teníamos a Tycho Brahe (el recopilador de datos en el campo de la IA), a algunos Kepler (los proponentes de hipótesis), pero aún no a Newton (el descubridor de principios). Cuando ese momento llegue, la faz del mundo cambiará radicalmente.