¡Claude Code automatización: investigación gana el campeonato de hackathon! Ganador: ni idea de cómo se supone que se gana

En el Autoresearch Hackathon organizado por Paradigm, un participante que casi no “diseñó personalmente una estrategia”, aun así terminó ganando el campeonato. El ganador, Ryan Li, también es CEO de SurfAI, y afirma que todo el proceso de resolución estuvo prácticamente hecho por completo por la IA; incluso dice que “no sabe cómo ganó”, pero finalmente logró el primer lugar en el Prediction Market Challenge.

Este concurso exige que los participantes diseñen una estrategia de market making en un mercado de predicción binario simulado, aportando liquidez en el libro de órdenes mediante órdenes limitadas, y logrando un equilibrio de beneficios entre “arbitrajistas” y “flujo de minoristas”. El ranking final se calcula en función del edge promedio (ventaja de beneficio) de la estrategia en 200 simulaciones aleatorias. El resultado final de Ryan fue de 42.32 dólares de mean edge (calculado como la mediana de tres grupos de semillas aleatorias); tras una nueva recalificación, ascendió al primer puesto.

Claude Code + Codex investigación automatizada, produce 1039 estrategias

A diferencia del ajuste manual y el modelado que dependen los traders cuantitativos tradicionales o las estrategias de market making basadas en expertos humanos, Ryan adoptó la idea del “Bitter Lesson” propuesta por Rich Sutton en los últimos años: hacer que la capacidad de cómputo y el alcance de la búsqueda superen la experiencia humana. Convirtió todo el problema en un proceso de “investigación automatizada” (autoresearch), explorando en paralelo el espacio de soluciones con múltiples agentes de IA, en lugar de optimizar manualmente.

Durante todo el proceso, utilizó entre 8 y 20 agentes de IA en ejecución paralela (principalmente basados en Claude Code, con apoyo de Codex). Cada agente se encargó de distintos supuestos y espacios de parámetros, generando continuamente estrategias, ejecutando simulaciones y devolviendo resultados. En última instancia, acumuló la producción de 1,039 variantes de estrategias, realizó más de 2,000 evaluaciones y generó automáticamente 47 scripts de barrido de parámetros. En conjunto, el tamaño de la búsqueda equivale a comprimir varias semanas de experimentos manuales en completar en cuestión de horas.

Una salida de 900 líneas de Python para algoritmo de market making generada por IA gana el campeonato del hackathon

A nivel de estrategia, la solución final ganadora es un algoritmo de market making de aproximadamente 900 líneas de Python; la lógica central no proviene de un único diseño, sino de la combinación de varios módulos “comprobados como efectivos”. Incluye evitar las franjas de spread extremadamente estrechas donde el arbitrajista gana, estimar el precio real mediante teoría de la información, ajustar dinámicamente el tamaño de las ofertas según el riesgo de arbitraje, y entrar activamente cuando el libro de órdenes del oponente se queda vacío, para aprovechar segmentos con mayor beneficio.

El avance más crucial proviene de un agente de IA que “descarta por completo las estrategias existentes y empieza desde cero”. Cuando la optimización se estancó alrededor de +25 edge, ese agente descubrió de manera independiente un modelo de sizing centrado en la “probabilidad de riesgo de arbitraje”, elevando el rendimiento de la estrategia de una vez hasta +44, convirtiéndose en el punto de inflexión de toda la competición. Este resultado también valida directamente la metodología de Ryan: cuando la búsqueda queda atrapada en un óptimo local, reiniciar es más efectivo que afinar.

Ventaja absoluta de la investigación con IA: prueba y error automatizada

En sus conclusiones, Ryan señala que la clave de esta competición no es diseñar una “estrategia inteligente”, sino crear un sistema que pueda buscar, validar y eliminar ideas a gran escala. En lugar de depender de la intuición humana, permite que la IA pruebe y se equivoque en un espacio de soluciones enorme, y amplifique la eficiencia mediante la paralelización y la automatización.

Este caso también refuerza el cambio del papel del “Agentic AI” en los procesos de ingeniería e investigación: la IA ya no es solo una herramienta de apoyo, sino que puede asumir directamente el núcleo de exploración y toma de decisiones como unidad de ejecución. En ciertos problemas altamente estructurados y simulables, incluso los humanos pueden salir completamente de la posición de “resolvedores” y, en su lugar, diseñar el marco de búsqueda y los mecanismos de evaluación.

¡Este artículo de Claude Code de investigación automatizada ganó el campeonato del hackathon! Ganador: literalmente no sé cómo se gana. Apareció por primera vez en Cadena de noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios