Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Fornirò un po' più di specificità su questo, e frammenti di un esempio.
Per molti mesi le persone hanno parlato di un "momento Cursor" nella finanza, dove il flusso di lavoro cambia così drasticamente che si raggiunge la parte ripida di una curva di adozione. Sono stato molto scettico riguardo a ciò, per alcuni motivi.
Ma il motivo più fondamentale è che la tecnologia LLM semplicemente non era all'altezza. I modelli di base non avevano abbastanza potenza per interagire con i fogli di calcolo Excel in modo utilizzabile (nonostante le dimostrazioni appariscenti...). Anche se risolvi le (molto complesse) sfide dei dati, i LLM del 2025 semplicemente non avevano la potenza per interagire con i fogli di calcolo.
Quindi potremmo sederci e parlare di molte idee e concetti su come l'AI potrebbe aumentare la ricerca sugli investimenti istituzionali. Ma era solo questo, un concetto.
Ho una serie di test che eseguo su nuovi modelli di AI che sono test di capacità per flussi di lavoro di ricerca in stile hedge fund. E il più semplice è semplicemente caricare un file Excel esistente per vedere se il LLM può capire cosa sta succedendo. Se i LLM non possono leggere e comprendere sufficientemente un modello Excel, l'intero stack di flussi di lavoro AI Excel non è semplicemente possibile (secondo la mia opinione). E sarebbe una perdita di tempo provare ad esplorare.
Questo non ha funzionato in alcun modo impressionante (Opus 4.6 poteva farlo, ma non bene). Fino a ieri, con il pensiero di GPT-5.4.
Improvvisamente, ora posso ottenere qualcosa che non è solo modestamente utile, ma penso che diventerà immediatamente parte del mio flusso di lavoro del processo di investimento.
Lo chiamo "PM Review", o una valutazione strutturata e un confronto su un modello. Ho partecipato letteralmente a centinaia di questi sia come analista che come PM. Efficacemente l'analista costruisce un modello, lo invia al PM e insieme lo esaminano. Il PM saggio e segnato dall'esperienza smonterà il modello, farà obiezioni e aiuterà a orientare il modello verso un risultato utilizzabile.
Un grande PM sarà in grado di concentrarsi sulle due o tre variabili chiave che contano e identificare assunzioni aggressive o conservative. Un analista potrebbe proporre un'azione dove l'input quantitativo principale è supportato da una logica difettosa. E il compito del PM è cercare di identificare quella logica difettosa. Questo flusso di lavoro, per me, è un differenziatore chiave tra buoni e non buoni PM.
Tuttavia, questo flusso di lavoro non è solo per i PM; è per gli analisti che cercano di valutare il proprio lavoro, per gli analisti peer che vogliono fare obiezioni ponderate su idee a cui il team potrebbe partecipare, per i nostri direttori dei team di ricerca che cercano di valutare in modo efficiente il processo di sottoscrizione delle idee. O per i PM per il primo taglio se stanno esaminando molte idee.
L'aspetto intrigante di aumentare questo processo con l'AI è che scala incredibilmente. E può funzionare in modo autonomo. Attraverso 300 modelli potrei avere uno sciame di agenti che fanno due diligence automatizzata sui driver chiave, aggiornando quei modelli, restituendomi quei risultati e segnalando quali delle mie idee coperte hanno potenziale di revisione degli utili. Questo flusso di lavoro è il "momento Cursor" per la ricerca sulle azioni pubbliche, secondo me. Non sto dicendo che siamo arrivati a questo punto, poiché l'accuratezza dei dati e le strutture necessarie per incorporare i dati interni sono ancora in fase di sviluppo. Ma abbiamo appena fatto un passo avanti nella capacità tecnologica.
Ho testato questo in GPT-5.4. E anche se non è perfetto, questa è la prima volta che ho ricevuto qualcosa di utile in questo test.
Ti guiderò attraverso un paio di passaggi per farlo da solo.
Passo 1: scarica le idee in Claude. Non so se ci sia una logica in questo o solo la mia abitudine, ma se sto eseguendo in Chat GPT, farò un meta prompt e Claude e viceversa. Non sono sicuro che dove fai il meta prompt conti molto per i tipi di flussi di lavoro che faccio, ma CERTAMENTE conta se fai un meta prompt rispetto a un prompt grezzo, quindi non saltare questo passaggio.
Passo 2: prendi quell'output del prompt, trasformalo in Markdown e mettilo come istruzioni personalizzate in un progetto GPT. Questo è solo un'efficienza di flusso di lavoro perché ora ho un progetto GPT in cui posso caricare qualsiasi modello.
...



Principali
Ranking
Preferiti
