IA na veIA é uma iniciativa que explica os avanços da inteligência artificial com bom humor e analogias divertidas vindas direto do universo Geek. Aqui, conceitos complexos ganham vida através de comparações com filmes, séries, games e HQs, tornando a tecnologia mais próxima e muito mais divertida para todos.
A missão é democratizar o conhecimento sobre inteligência artificial, aproximando a comunidade científica do público leigo sem aquele “tecniquês” que dá sono. Ao usar referências de sagas épicas, super-heróis ou mundos de fantasia, transformamos pesquisas e inovações em histórias que qualquer fã de cultura pop entende e curte.
Essa abordagem cria uma ponte entre especialistas e curiosos, incentivando debates sobre o impacto ético, social e econômico da IA de forma leve, mas consciente. O resultado é uma conversa mais inclusiva, onde qualquer pessoa pode entender e participar da construção do nosso futuro tecnológico.
Se você é fã de IA e também vibra com referências Geek, o IA na veIA é o seu portal para explorar ciência com uma boa dose de risadas e imaginação.
Vamos revisar o paper a seguir:
- RETuning: Upgrading Inference-Time Scaling for Stock Movement Prediction with Large Language Models
- Link do paper

Quem é Celso Sousa?
Celso Sousa é especialista e palestrante de inteligência artificial (IA), com doutorado em IA pela USP. Além disso, ele possui mais de 15 anos de experiência no mercado de IA para negócios.
Celso participou da gestão e/ou desenvolvimento de diversos projetos de IA nos setores financeiro e agronegócio. Alguns dos projetos de inteligência artificial mais relevantes na carreira dele são:
- previsão de produtividade de fazendas;
- reconhecimento visual de nematóides;
- visão computacional para monitoramento de rebanhos por drones;
- identificação de públicos vulneráveis;
- sistema de gerenciamento de pastejo rotacionado;
- identificação de irregularidades em notas fiscais de serviço.
Celso ministrou vários treinamentos e mentorias sobre inteligência artificial nos últimos anos. Ainda mais, ele foi Cientista Chefe na Secretaria das Finanças de Fortaleza-CE na auditoria fiscal.
O foco do Celso é desenvolver soluções de IA para empresas de todos os portes e segmentos. Entretanto, a prioridade é criar soluções de IA de baixo custo para empresas de pequeno e médio porte.
Celso iniciou a sua carreira ao abrir uma consultoria de inteligência artificial em 2009. Portanto, ele adquiriu muita experiência prática de como gerar resultados expressivos para as empresas usando IA.
A pesquisa científica do Celso é sobre classificação em grafos para alavancagem de negócios com marketing analytics. Além disso, ele publicou artigos científicos em diversas conferências internacionais de renome em 4 continentes.
Hoje ele aplica sua experiência na IA para ajudar os empresários a aumentarem os seus lucros. Ainda mais, ele implementa automações com agentes de IA para que os empresários tenham mais liberdade.
Essas automações podem ser aplicadas em diversos setores, como marketing, vendas, recursos humanos, tecnologia, financeiro, atendimento, etc.
Fale com o especialista e palestrante de inteligência artificial Celso Sousa nas redes sociais:
- Instagram: https://www.instagram.com/celsosousaia
- LinkedIn: https://www.linkedin.com/in/celso-sousa/
Visão geral do paper
A IA já venceu em matemática, programação e até RPG de mesa. Mas no mercado financeiro, as LLMs ainda são o aprendiz padawan tentando manipular a Força sem quebrar os copos na cantina de Mos Eisley. A batalha pela previsão do movimento das ações é um dos campos de batalha mais traiçoeiros da IA. A maior parte das abordagens anteriores ou se apoiavam em sentimentos rasos extraídos de tweets (Nguyen et al), ou em relações simplistas entre empresas e setores (Feng et al). O problema? A complexidade brutal da dinâmica de mercado continua sendo um Darth Vader inalcançável.
Li et al mostraram como a maioria das LLMs tropeça em tarefas financeiras por não saber separar opinião de evidência. Vargas et al apostaram em notícias como oráculo, enquanto Hao et al tentaram usar gêmeos digitais fuzzy para prever o futuro. Ainda assim, os modelos continuam caindo em armadilhas narrativas, confiando mais em analistas do que em análise. Shinn et al tentaram corrigir isso com aprendizado por reflexão. Funciona? Às vezes. Mas continua frágil.
Huang et al mostraram que mesmo os maiores modelos não conseguem se autocorrigir consistentemente. Isso mostra que o problema não é só falta de dados, é falta de método. Muennighoff et al exploraram scaling em tempo de inferência, mas seus resultados se limitavam a matemática. Stiennon et al trouxeram verificação via sampling, mas em tarefas como código e QA. Pouco se explorou isso no caos do mercado.
Yang et al e Liu et al propuseram modelos financeiros com LLMs, mas suas soluções são mais tuning do que revolução. Sem frameworks robustos de raciocínio, o modelo vira só mais um estagiário chutando gráficos com Excel aberto. Faltava uma abordagem que colocasse lógica antes da opinião, reflexão antes da predição. E é aqui que entra a proposta provocadora do RETuning.
A aliança rebelde da previsão de ações
Lin et al decidiram parar de brincar de Jedi e construir um sabre de verdade. Eles apresentaram o RETuning como um método de cold-start que força LLMs a pensarem antes de preverem. Nada de repetir analistas. Nada de empilhar resumos. A proposta é simples, mas ousada: obrigar o modelo a construir um raciocínio analítico, pesar evidências adversárias e refletir antes de prever a direção das ações — pra cima, pra baixo ou neutro.
Usando uma base de dados gigantesca com mais de 200 mil amostras e janelas de contexto de 32 mil tokens, os autores exploram um espaço que poucos ousaram tocar: como fazer a IA realmente raciocinar sobre um mercado ruidoso, enviesado, manipulável e dominado por narrativas.
A arquitetura do RETuning lembra um jogo de RPG tático: o modelo primeiro define um conjunto de princípios analíticos (como um paladino definindo seu código), depois agrupa e pontua evidências para cada direção possível (up/down/hold), e finalmente entra em modo reflexão antes de entregar uma previsão.
Mais interessante ainda é que tudo isso acontece antes de qualquer fine-tuning com reinforcement learning. O RETuning é a fundação. O cold-start. Aquele momento em que o padawan decide que vai seguir a luz — ou o lado sombrio — com base na lógica, não na opinião de terceiros.
Sem RETuning, o modelo vira um Stormtrooper: atira e erra tudo
Imagine um exército de Stormtroopers tentando prever o mercado. Cada um chuta um número, mas ninguém acerta. Esse é o cenário que Lin et al desenham quando avaliam LLMs sem RETuning. A performance de modelos como Qwen3-32B ou GPT-OSS-120B é tão próxima do aleatório que chega a ser cômica. Mesmo com Chain-of-Thought (CoT), os modelos continuam presos no “hold” — a classe neutra, usada como armadilha.
Na prática, isso é como se o modelo estivesse jogando xadrez e ficasse só movendo peões pra frente e pra trás, com medo de errar. É uma falha crítica, porque mostra que os modelos não conseguem lidar com ambiguidade. Não sabem reconciliar evidências conflitantes. Preferem sentar em cima do muro — exatamente o oposto do que um investidor precisa.
RETuning aparece então como uma bússola. Ele guia o modelo para construir sua própria estrutura lógica com base em dados diversos: notícias, relatórios quantitativos, fundamentos, indicadores macroeconômicos e até ações similares. E não é só “ler” essas fontes — é organizá-las, compará-las e refletir. Como um mestre Pokémon analisando fraquezas antes de escolher qual monstrinho usar.
O artefato lendário que forja Paladinos da Razão
A Forja do Cold-Start: criando cavaleiros pensantes
Na primeira fase do RETuning, o modelo é treinado via supervised fine-tuning (SFT) com exemplos cuidadosamente curados. Esses exemplos forçam o modelo a seguir um ritual lógico. Primeiro, ele declara princípios analíticos. Depois coleta evidências, as pontua e reflete. Isso gera uma estrutura interpretável de raciocínio, algo como o “inner monologue” de um detetive em um noir cyberpunk.
A síntese é feita com DeepSeek-R1-671B gerando os cold-starts, usando rejection sampling para garantir coerência. O modelo resultante (DeepSeek_R1_14B_SFT) já mostra sinais de capacidade preditiva mesmo sem RL, o que é raro em tarefas financeiras.
O Treinamento Jedi: reforçando via recompensas
Depois vem a segunda fase: reinforcement learning com rewards que não se limitam à acurácia. O modelo é punido se errar a estrutura (format), se for incoerente entre direção e percentual (consistency), e obviamente se errar a previsão (accuracy). Tudo isso é ponderado com pesos α, β e γ — como se fosse a ficha de personagem de um mago tentando maximizar lógica em vez de carisma.
A cereja do bolo é o curriculum learning. Aqui os dados são classificados por dificuldade (baseada na variância entre múltiplas amostras), e o treinamento foca nos exemplos médios — nem fáceis demais (hold) nem impossíveis (up com ruído). É como treinar um arqueiro com alvos móveis e ventos simulados — só os tiros relevantes contam.
Scaling de verdade: a magia do voto majoritário
No teste, o modelo gera várias respostas com temperatura 0.6 e escolhe a mais votada. Isso, combinado com o raciocínio estruturado, permite gains mesmo em tarefas com ruído brutal. E os resultados? Surpreendentes. O F1-score do modelo treinado (DeepSeek_R1_14B_SFT_GRPO) bate 0.4196, superando o melhor baseline público (GPT-OSS-120B w/ CoT) por mais de 20%.
O escudo do Capitão América para proteger contra o caos do mercado
Ganhando XP mesmo em terrenos inexplorados
RETuning não só melhora o desempenho no conjunto padrão (Fin-2024[December]), como também escala em situações de generalização. Em OOD_Stock, OOD_Date e até OOD_Stock&Date, o modelo mantém ganhos. É como se o algoritmo fosse jogado em uma dungeon nova, sem mapa, e ainda assim soubesse onde pisar.
Missões secundárias: generalizando para outros domínios
Em benchmarks como o BizFinBench, o modelo RETuned brilha. As variantes SFT e GRPO atingem top-3 em tarefas como Financial Numerical Computation, Stock Price Prediction e Named Entity Recognition. Não é só um cavaleiro de uma nota só — ele sabe usar espada, magia e diplomacia.
Vibe Prediction: quando o modelo aprende a sentir o mercado
Durante a análise qualitativa, os autores percebem que o modelo começa a gerar previsões coerentes não só em direção e percentual, mas em “vibe”. É como se ele internalizasse um sentimento de mercado — não como intuição humana, mas como reflexo lógico da evidência pontuada. Um sistema com sensibilidade estatística. Isso vai além de CoT. É raciocínio com senso de contexto.
O Hulk da hype: por que todo mundo finge que IA já resolve tudo?
Sério mesmo, quantas vezes já ouvimos que “IA vai revolucionar as finanças”? A maioria dos papers anteriores trata o problema como se fosse mais uma quest de coleta de moedas — coleta dados, joga em um LLM, pronto, previsão feita. Mas o mercado é um chefe final que muda de forma a cada turno. Ele mente, simula, esconde padrões. Não adianta usar LLM sem método. É como enfrentar o Sephiroth com uma colher de chá.
O RETuning mostra que o problema não é tamanho de modelo, é estrutura de raciocínio. Você pode ter o GPT-120B e continuar errando tudo se não ensinar o modelo a pensar com lógica adversarial. E isso é incômodo pra indústria, porque exige mais que GPU. Exige metodologia. Exige parar de fingir que prompt é mágica.
O mago branco da IA: por que RETuning muda o jogo (mas não resolve tudo)
RETuning é poderoso. Mas ainda é um mago branco — cura feridas conceituais, mas não mata o dragão da complexidade sozinho. Ainda faltam avaliações em outros mercados (como Nasdaq), integrações com dados alternativos (tipo satélites ou transações blockchain) e testes em ambientes reais com portfólios e drawdowns.
O método não é barato. Treinar com 4×8 H100s e fazer sampling 32 vezes por exemplo não é para startups. E não resolve a questão da interpretabilidade comercial: quem vai confiar em uma IA que diz “segundo minha reflexão…”?
Mas como framework, RETuning é um divisor de águas. Ele mostra que raciocínio não nasce do modelo, nasce do treinamento. E que IA sem lógica adversarial é só um papagaio bilionário repetindo o que leu.
[IA na veIA nº 29] O Gollum dos agentes LLM: DeepAgent transforma ferramentas em poder bruto com…
[IA na veIA nº 27] Entre Paladinos e Bardos: o RPG silencioso por trás de cada decisão
[IA na veIA nº 26] O sabre de luz da aprendizagem contínua: como a memória esparsa pode salvar as…