No Hackathon de Autoresearch organizado pela Paradigm, um(a) participante que, praticamente, não “concebeu estratégias pessoalmente”, acabou por vencer o torneio. O vencedor Ryan Li, que também é CEO da SurfAI, afirma que todo o processo de resolução ficou quase totalmente a cargo da IA, que ele próprio “nem sabe como é que venceu”, e ainda assim conseguiu o primeiro lugar no Prediction Market Challenge.
Esta competição exige que os participantes desenhem uma estratégia de market making num mercado de previsão binário simulado, fornecendo liquidez no livro de ordens através de ordens limitadas e equilibrando o lucro entre “arbitradores” e o fluxo de retalho. A classificação final é calculada com base na edge média (vantagem de lucro) em 200 simulações aleatórias. O resultado final de Ryan foi de 42,32 USD de mean edge (calculado pela mediana de três grupos de sementes aleatórias) e, após a reavaliação, subiu ao primeiro lugar.
Claude Code + Codex pesquisa automática, produz 1.039 estratégias
Ao contrário das estratégias de trading quantitativo tradicional ou de market making que dependem de ajustes e modelação por especialistas humanos, Ryan adoptou a abordagem do “Bitter Lesson” proposta por Rich Sutton nos últimos anos, fazendo com que a capacidade de computação e o tamanho da pesquisa superem a experiência humana. Ele transformou todo o problema num processo de “pesquisa automatizada” (autoresearch), explorando em paralelo o espaço de possíveis soluções por meio de múltiplos agentes de IA, em vez de optimização manual.
Durante todo o processo, ele utilizou entre 8 e 20 agentes de IA em execução paralela (principalmente com base em Claude Code, com apoio do Codex). Cada agente ficou responsável por diferentes hipóteses e espaços de parâmetros, gerando continuamente estratégias, executando simulações e devolvendo os resultados. No fim, acumulou a produção de 1.039 variações de estratégias, realizou mais de 2.000 avaliações e gerou automaticamente 47 scripts de varrimento de parâmetros. O tamanho global da pesquisa, por outras palavras, equivale a comprimir semanas de experiências manuais para apenas algumas horas.
Algoritmo de market making em Python com 900 linhas gerado por IA conquista o primeiro lugar no hackathon
Ao nível da estratégia, a solução final vencedora é um algoritmo de market making com cerca de 900 linhas de Python; a lógica central não provém de um único desenho, mas sim da combinação de múltiplos módulos “validados como eficazes”. Inclui evitar zonas de spread extremamente estreitas em que os arbitradores ganham de forma definitiva, estimar o preço real através da teoria da informação, ajustar dinamicamente a dimensão da cotação com base no risco de arbitragem e entrar proactivamente no mercado para conquistar zonas de maior lucro quando as ordens do livro do adversário forem “comidas” (consumidas).
A突破 mais crítica, no entanto, vem de um agente de IA que, pela primeira vez, “abandona totalmente estratégias existentes e começa do zero”. Quando a optimização estagnou em cerca de +25 edge, esse agente descobriu de forma independente um modelo de sizing com base na “probabilidade de risco de arbitragem”, elevando o desempenho da estratégia de uma só vez para +44, tornando-se o ponto de viragem de toda a competição. Este resultado também valida directamente a metodologia de Ryan: quando a pesquisa fica presa num ótimo local, reiniciar é mais eficaz do que afinar.
A vantagem absoluta da pesquisa em IA: tentativas automatizadas
Na conclusão, Ryan indica que o ponto-chave desta competição não é conceber uma “estratégia inteligente”, mas sim construir um sistema que consiga fazer uma pesquisa em grande escala, validar ideias e eliminá-las. Em vez de depender da intuição humana, deixa-se que a IA faça tentativas num enorme espaço de soluções e se aumente a eficiência através da paralelização e da automatização.
Este caso reforça ainda mais a mudança do papel da “Agentic AI” nos processos de engenharia e de investigação: a IA deixa de ser apenas uma ferramenta de apoio e pode assumir directamente a unidade principal de execução para exploração e tomada de decisão. Em alguns problemas altamente estruturados e simuláveis, os humanos podem até sair completamente do papel de “resolvedores” e, em vez disso, desenhar a própria estrutura de pesquisa e os mecanismos de avaliação.
Este artigo: a pesquisa automatizada do Claude Code vence o hackathon! Vencedor: eu literalmente não sei como é que ganhei, apareceu pela primeira vez em 鏈新聞 ABMedia.