Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vou fornecer um pouco mais de especificidade sobre isso e trechos de um exemplo.
Durante muitos meses, as pessoas têm falado sobre um "momento Cursor" nas finanças, onde o fluxo de trabalho muda de forma tão dramática que você atinge a parte íngreme de uma curva de adoção. Eu fui bastante cético em relação a isso, por algumas razões.
Mas a razão mais fundamental é que a tecnologia LLM simplesmente não estava lá. Os modelos de base simplesmente não tinham poder suficiente para interagir com planilhas do Excel de qualquer forma utilizável (apesar de demonstrações chamativas...). Mesmo que você resolva os desafios de dados (muito complicados), os LLMs da era de 2025 simplesmente não tinham o poder para interagir com planilhas.
Então, poderíamos sentar e falar sobre muitas ideias e conceitos sobre como a IA poderia aumentar a pesquisa de investimento institucional. Mas era apenas isso, um conceito.
Eu tenho uma série de testes que realizo em novos modelos de IA que são testes de capacidade para fluxos de trabalho de pesquisa no estilo de fundos de hedge. E o mais fácil é simplesmente fazer o upload de um arquivo Excel existente para ver se o LLM consegue entender o que está acontecendo. Se os LLMs não conseguem ler e entender adequadamente um modelo do Excel, toda a pilha de fluxos de trabalho de IA no Excel simplesmente não é possível (na minha opinião). E é uma perda de tempo tentar explorar.
Isso não funcionou de forma impressionante (Opus 4.6 poderia fazer isso, mas não bem). Até ontem, com o GPT-5.4 Thinking.
De repente, agora posso obter algo que não é apenas modestamente útil, mas que acho que se tornará imediatamente parte do meu fluxo de trabalho de processo de investimento.
Eu chamo isso de "Revisão de PM", ou uma avaliação estruturada e um retorno sobre um modelo. Eu participei literalmente de centenas desses como analista e PM. Eficazmente, o analista constrói um modelo, envia para o PM, e eles o analisam juntos. O PM sábio e experiente vai desmontar o modelo, contestar e ajudar a direcionar o modelo para um resultado utilizável.
Um grande PM será capaz de se concentrar nas duas ou três variáveis-chave que importam e identificar suposições agressivas ou conservadoras. Um analista pode estar apresentando uma ação onde a entrada quantitativa central é apoiada por uma lógica falha. E o trabalho do PM é tentar identificar essa lógica falha. Esse fluxo de trabalho, para mim, é um diferencial chave entre bons e maus PMs.
No entanto, esse fluxo de trabalho não é apenas para PMs; é para analistas que estão tentando avaliar seu próprio trabalho, analistas pares que querem fazer uma contestação reflexiva sobre ideias nas quais a equipe pode participar, nossos diretores de pesquisa que estão procurando avaliar de forma eficiente o processo de subscrição de ideias. Ou PMs para a primeira análise se eles estão olhando para muitas ideias.
O aspecto intrigante de aumentar esse processo com IA é que ele escala incrivelmente. E pode funcionar de forma autônoma. Em 300 modelos, eu poderia ter um enxame de agentes fazendo a devida diligência automatizada sobre os principais fatores, atualizando esses modelos, alimentando esses resultados de volta para mim e sinalizando quais das minhas ideias cobertas têm potencial de revisão de lucros. Esse fluxo de trabalho é o "momento Cursor" para a pesquisa de ações públicas, na minha opinião. Não estou dizendo que já chegamos lá, pois a precisão dos dados e as estruturas necessárias para incorporar dados internos ainda estão em progresso. Mas acabamos de dar um passo à frente na capacidade tecnológica.
Eu testei isso no GPT-5.4. E embora não seja perfeito, esta é a primeira vez que recebo algo que é útil de volta neste teste.
Vou te guiar por alguns passos para fazer isso por conta própria.
Passo 1: despejo de ideias no Claude. Não sei se há alguma lógica nisso ou apenas meu próprio hábito, mas se estou executando no Chat GPT, eu faço um meta prompt e Claude e vice-versa. Não tenho certeza se onde você faz o meta prompt importa muito para os tipos de fluxos de trabalho que faço, mas CERTAMENTE importa se você faz um meta prompt vs. um prompt direto, então não pule esta etapa.
Passo 2: pegue a saída do prompt, transforme-a em Markdown e coloque isso como instruções personalizadas em um projeto GPT. Isso é apenas uma eficiência de fluxo de trabalho, porque agora tenho um projeto GPT no qual posso fazer upload de qualquer modelo.
...



Top
Classificação
Favoritos
