Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brett Caughran
Terminei a minha missão em fundos de investimento (Maverick, D.E. Shaw, Citadel, Schonfeld). Adjunto na ASU.
Agora estou a construir uma empresa excecional de formação de analistas.
Mensagens privadas abertas!
Isto é super interessante também
Tenho estado a experimentar com painéis de dados impulsionados por IA para acompanhar de forma mais sistemática os KPIs da empresa.
Grande parte do processo de pesquisa em ações públicas consiste em desenvolver melhores previsões de receita (que depois se refletem no EPS em vários níveis incrementais).
Assim, grande parte do movimento de pesquisa de investimento é sobre acompanhar dados que informam previsões de receita mais precisas. Esta é a base da indústria de dados alternativos.
Mas existem muitos conjuntos de dados úteis disponíveis publicamente. À medida que os chatbots ganharam braços (Claude), fiquei impressionado com a capacidade dessas ferramentas de ir buscar esses dados.
Para mim, esta é a outra peça que falta ao lado da fluência em Excel. A capacidade de ingerir um modelo Excel (eventualmente construí-lo, mas não hoje), identificar os principais fatores (a partir de dados abertos e proprietários), destilar esses dados de volta em previsões e sinalizar alertas personalizados (inflações de momentum de negócios, prováveis revisões nas previsões de receita, validação/invalidação de teses, etc). Agora estamos a falar!! Isto é ordens de magnitude mais útil do que um wrapper de chatbot financeiro.
Eu me pergunto se essas ferramentas estão progredindo a tal ritmo que a maioria dos profissionais de finanças nem precisa aprender a codificar agentes.
Por exemplo, o Perplexity Computer fez algo de uma só vez que, com certeza, não estava perfeito, mas demonstra um progresso material na capacidade da infraestrutura de harness para construir interfaces de usuário simples e poderosas.
A precisão de nível institucional continua a ser uma questão crítica e ainda não totalmente resolvida (isso melhora à medida que empresas como a CarbonArc lançam MCPs??), mas é emocionante ver as capacidades de engenharia melhorarem de forma tão material, em um período de tempo tão curto.


48
Vou fornecer um pouco mais de especificidade sobre isso e trechos de um exemplo.
Durante muitos meses, as pessoas têm falado sobre um "momento Cursor" nas finanças, onde o fluxo de trabalho muda de forma tão dramática que você atinge a parte íngreme de uma curva de adoção. Eu fui bastante cético em relação a isso, por algumas razões.
Mas a razão mais fundamental é que a tecnologia LLM simplesmente não estava lá. Os modelos de base simplesmente não tinham poder suficiente para interagir com planilhas do Excel de qualquer forma utilizável (apesar de demonstrações chamativas...). Mesmo que você resolva os desafios de dados (muito complicados), os LLMs da era de 2025 simplesmente não tinham o poder para interagir com planilhas.
Então, poderíamos sentar e falar sobre muitas ideias e conceitos sobre como a IA poderia aumentar a pesquisa de investimento institucional. Mas era apenas isso, um conceito.
Eu tenho uma série de testes que realizo em novos modelos de IA que são testes de capacidade para fluxos de trabalho de pesquisa no estilo de fundos de hedge. E o mais fácil é simplesmente fazer o upload de um arquivo Excel existente para ver se o LLM consegue entender o que está acontecendo. Se os LLMs não conseguem ler e entender adequadamente um modelo do Excel, toda a pilha de fluxos de trabalho de IA no Excel simplesmente não é possível (na minha opinião). E é uma perda de tempo tentar explorar.
Isso não funcionou de forma impressionante (Opus 4.6 poderia fazer isso, mas não bem). Até ontem, com o GPT-5.4 Thinking.
De repente, agora posso obter algo que não é apenas modestamente útil, mas que acho que se tornará imediatamente parte do meu fluxo de trabalho de processo de investimento.
Eu chamo isso de "Revisão de PM", ou uma avaliação estruturada e um retorno sobre um modelo. Eu participei literalmente de centenas desses como analista e PM. Eficazmente, o analista constrói um modelo, envia para o PM, e eles o analisam juntos. O PM sábio e experiente vai desmontar o modelo, contestar e ajudar a direcionar o modelo para um resultado utilizável.
Um grande PM será capaz de se concentrar nas duas ou três variáveis-chave que importam e identificar suposições agressivas ou conservadoras. Um analista pode estar apresentando uma ação onde a entrada quantitativa central é apoiada por uma lógica falha. E o trabalho do PM é tentar identificar essa lógica falha. Esse fluxo de trabalho, para mim, é um diferencial chave entre bons e maus PMs.
No entanto, esse fluxo de trabalho não é apenas para PMs; é para analistas que estão tentando avaliar seu próprio trabalho, analistas pares que querem fazer uma contestação reflexiva sobre ideias nas quais a equipe pode participar, nossos diretores de pesquisa que estão procurando avaliar de forma eficiente o processo de subscrição de ideias. Ou PMs para a primeira análise se eles estão olhando para muitas ideias.
O aspecto intrigante de aumentar esse processo com IA é que ele escala incrivelmente. E pode funcionar de forma autônoma. Em 300 modelos, eu poderia ter um enxame de agentes fazendo a devida diligência automatizada sobre os principais fatores, atualizando esses modelos, alimentando esses resultados de volta para mim e sinalizando quais das minhas ideias cobertas têm potencial de revisão de lucros. Esse fluxo de trabalho é o "momento Cursor" para a pesquisa de ações públicas, na minha opinião. Não estou dizendo que já chegamos lá, pois a precisão dos dados e as estruturas necessárias para incorporar dados internos ainda estão em progresso. Mas acabamos de dar um passo à frente na capacidade tecnológica.
Eu testei isso no GPT-5.4. E embora não seja perfeito, esta é a primeira vez que recebo algo que é útil de volta neste teste.
Vou te guiar por alguns passos para fazer isso por conta própria.
Passo 1: despejo de ideias no Claude. Não sei se há alguma lógica nisso ou apenas meu próprio hábito, mas se estou executando no Chat GPT, eu faço um meta prompt e Claude e vice-versa. Não tenho certeza se onde você faz o meta prompt importa muito para os tipos de fluxos de trabalho que faço, mas CERTAMENTE importa se você faz um meta prompt vs. um prompt direto, então não pule esta etapa.
Passo 2: pegue a saída do prompt, transforme-a em Markdown e coloque isso como instruções personalizadas em um projeto GPT. Isso é apenas uma eficiência de fluxo de trabalho, porque agora tenho um projeto GPT no qual posso fazer upload de qualquer modelo.
Passo 3: execute o prompt. Eu intencionalmente aumentei um pouco meu modelo do DraftKings (e é um trabalho em progresso de qualquer forma, então não leve nenhuma dessas estimativas como algo que eu acredite).
Mas produziu um:
1) Resumo Executivo
2) Compreensão do Negócio (explicando como um dólar flui pelo P&L)
3) Avaliação do Modelo, fornecendo uma avaliação e verificação de sanidade de todas as entradas-chave
4) Auditoria do Modelo, procurando consistência de entrada, integridade de fórmulas e referências quebradas
5) Um roteiro para diligência incremental
6) As perguntas de IR de maior valor
Eu encorajo você a conferir por si mesmo.
Vou linkar para a saída de seis páginas nas respostas.




Brett CaughranHá 21 horas
Acabei de tentar isto com o ChatGPT 5.4 Thinking, sem esperar que funcionasse (não funciona realmente no Opus 4.6... e há 3-6 meses, os LLMs nem conseguiam ler um grande arquivo Excel)
Passo 1: Carregar um modelo financeiro existente
Passo 2: "Analise este modelo como um analista. Explique o que tem acontecido e o que as principais suposições dizem sobre o futuro"
Passo 3: "Quais suposições você contestaria?"
Achei realmente, realmente bom. Chocantemente bom, na verdade.
741
Não poderia discordar da visão de que a modelagem foi mais comoditizada.
A modelagem nunca será comoditizada, por completo. Por quê? Um modelo financeiro é apenas uma ferramenta de pensamento. Um meio de quantificar suas suposições. Como @pmje73 disse; o modelo é uma bicicleta, você ainda tem que pedalar.
Elementos do PROCESSO de modelagem se tornarão comoditizados (assim como a Visible Alpha comoditizou a disseminação manual de consenso). Isso é uma ótima notícia e pode liberar horas utilizáveis para pesquisas com mais valor agregado.
"Tudo é um DCF", e os investimentos dependem de previsões. Como você modela os principais motores de 2027 é uma destilação multidimensional de um processo de due diligence, muitos dos quais são (para sempre) além do escopo dos LLMs (as empresas são organismos vivos geridos por pessoas, não problemas matemáticos, então analisá-las não pode ser reduzido a código de computador).
Portanto, a modelagem não será comoditizada por razões extremamente fundamentais (principalmente, que a avaliação é apenas um ponto de vista sobre o FCF futuro e toda a modelagem do mundo não pode chegar a uma resposta objetivamente verdadeira sobre a avaliação).
O que parece estar acontecendo, no entanto, é que alguns dos elementos tediosos da modelagem estão cruzando um limiar aceitável de aumento, e uma abordagem de co-piloto pode impulsionar suposições muito mais reflexivas e testadas sob pressão em menos tempo.
E isso é empolgante.

Jack RainesHá 20 horas
Disse isto em janeiro.
Se você der à AI as fontes de dados certas, ela, no próximo ano, construirá modelos perfeitos e lhe dará pensamentos bem fundamentados sobre por que esses modelos foram construídos dessa forma.
Modelagem é, neste momento, totalmente comoditizada.

184
Top
Classificação
Favoritos