Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vou dar um pouco mais de especificidade sobre isso e alguns trechos de exemplo.
Por muitos meses, as pessoas falam sobre um "momento cursor" nas finanças, onde o fluxo de trabalho muda tão drasticamente que você chega à parte íngreme de uma curva de adoção. Tenho sido muito cético quanto a isso, por alguns motivos.
Mas a razão mais fundamental é que a tecnologia LLM simplesmente não existia. Os modelos de fundação simplesmente não tinham poder suficiente para interagir com planilhas Excel de forma utilizável (apesar das demonstrações chamativas...). Mesmo que você resolva os (muito complicados) desafios de dados, os LLMs da era de 2025 simplesmente não tinham poder para interagir com planilhas.
Assim, podíamos sentar e conversar sobre muitas ideias e conceitos sobre como a IA poderia complementar a pesquisa em investimentos institucionais. Mas era só isso, um conceito.
Tenho uma série de testes que realizo em novos modelos de IA que são testes de capacidade para fluxos de trabalho de pesquisa no estilo de fundo hedge. E o mais fácil é simplesmente enviar um arquivo Excel existente para ver se o LLM consegue entender o que está acontecendo. Se os LLMs não conseguem ler e entender suficientemente um modelo do Excel, a pilha completa de fluxos de trabalho de IA no Excel simplesmente não é possível (na minha opinião). E uma perda de tempo tentar explorar.
Isso não funcionou de forma nada impressionante (o Opus 4.6 conseguia, mas não era muito bom). Até ontem, com o Pensamento GPT-5.4.
De repente, agora posso conseguir algo que não é apenas modestamente útil, mas que acho que vai se tornar imediatamente parte do meu fluxo de trabalho de investimento.
Eu chamo isso de "Revisão de PM", ou uma avaliação estruturada e contestação de um modelo. Participei literalmente de centenas desses como analista e gerente de projeto. Na prática, o analista constrói um modelo, envia para o gerente de projeto, e eles passam juntos por ele. O sábio e experiente PM vai despedaçar o modelo, reagir e ajudar a conduzir o modelo a um resultado utilizável.
Um ótimo PM será capaz de focar nas duas ou três variáveis-chave que importam e identificar suposições agressivas ou conservadoras. Um analista pode estar apresentando uma ação cujo input quantitativo central é apoiado por uma lógica falha. E o trabalho do primeiro-ministro é tentar identificar essa lógica falha. Esse fluxo de trabalho, para mim, é um diferencial fundamental entre bons e não bons gestores de projetos.
No entanto, esse fluxo de trabalho não é só para PMs; É para analistas que tentam avaliar seu próprio trabalho, analistas colegas que querem fazer uma resistência reflexiva sobre ideias das quais a equipe pode participar, nosso diretor de equipes de pesquisa que busca avaliar eficientemente o processo de subscrição de ideias. Ou envie mensagens privadas para o primeiro corte se estiverem olhando para muitas ideias.
O aspecto intrigante de aprimorar esse processo com IA é que ele escala incrivelmente. E pode rodar de forma autônoma. Em 300 modelos, eu poderia ter um enxame de agentes fazendo due diligence automatizada sobre os principais impulsionadores, atualizando esses modelos, enviando esses resultados para mim e sinalizando quais das minhas ideias abordadas têm potencial de revisão de lucros. Esse fluxo de trabalho é o "momento cursor" para pesquisas de ações públicas, na minha opinião. Não estou dizendo que estamos lá, de forma alguma, pois a precisão dos dados e as estruturas necessárias para incorporar dados internos ainda estão em andamento. Mas demos um passo à frente na capacidade tecnológica.
Testei isso no GPT-5.4. E embora não seja perfeito, esta é a primeira vez que recebo algo útil nesse teste.
Vou te guiar por alguns passos para fazer isso sozinho.
Passo 1: despejar o cérebro em Claude. Não sei se faz sentido nisso ou se é só um hábito meu, mas se estou executando no Chat GPT, faço o meta prompt e o Claude e vice-versa. Não sei onde seu meta prompt importa tanto para os tipos de fluxos de trabalho que faço, mas CERTAMENTE importa se você faz meta prompt vs. raw prompt, então não pule essa etapa.
Passo 2: pegue essa saída de prompt, transforme-a em Markdown e coloque como instruções personalizadas em um projeto GPT. Isso é apenas uma questão de eficiência do fluxo de trabalho, porque assim eu teria um projeto GPT no qual posso enviar qualquer modelo.
...



Melhores
Classificação
Favoritos
