Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich werde dazu ein wenig spezifischer werden und Beispiele anführen.
Monatelang haben die Leute über einen "Cursor-Moment" in der Finanzwelt gesprochen, bei dem sich die Arbeitsabläufe so dramatisch ändern, dass man den steilen Teil einer Adoptionskurve erreicht. Ich war dem gegenüber sehr skeptisch, aus mehreren Gründen.
Der grundlegendste Grund ist, dass die LLM-Technologie einfach nicht ausgereift war. Die Basis-Modelle hatten einfach nicht genug Leistung, um mit Excel-Tabellen in irgendeiner brauchbaren Weise zu interagieren (trotz auffälliger Demos...). Selbst wenn man die (sehr komplexen) Datenherausforderungen löst, hatten die LLMs der Ära 2025 einfach nicht die Leistung, um mit Tabellen zu interagieren.
Wir könnten also viele Ideen und Konzepte diskutieren, wie KI die institutionelle Investmentforschung unterstützen könnte. Aber es war nur das, ein Konzept.
Ich habe eine Reihe von Tests, die ich an neuen KI-Modellen durchführe, die Fähigkeitstests für Hedgefonds-ähnliche Forschungsabläufe sind. Und der einfachste ist, einfach eine vorhandene Excel-Datei hochzuladen, um zu sehen, ob das LLM versteht, was vor sich geht. Wenn LLMs ein Excel-Modell nicht ausreichend lesen und verstehen können, ist der gesamte Stapel von KI-Excel-Workflows einfach nicht möglich (meiner Meinung nach). Und es wäre Zeitverschwendung, das zu erkunden.
Das hat nicht in irgendeinem beeindruckenden Maße funktioniert (Opus 4.6 konnte es tun, aber nicht gut). Bis gestern, mit GPT-5.4 Thinking.
Plötzlich kann ich jetzt etwas bekommen, das nicht nur bescheiden nützlich ist, sondern ich denke, dass es sofort Teil meines Investitionsprozess-Workflows werden wird.
Ich nenne es "PM Review", oder eine strukturierte Bewertung und Rückmeldung zu einem Modell. Ich habe an buchstäblich Hunderten davon als Analyst und PM teilgenommen. Effektiv erstellt der Analyst ein Modell, sendet es an den PM, und sie gehen es gemeinsam durch. Der weise, erfahrene PM wird das Modell auseinandernehmen, Rückmeldungen geben und helfen, das Modell zu einem brauchbaren Ergebnis zu steuern.
Ein großartiger PM wird in der Lage sein, sich auf die zwei oder drei entscheidenden Variablen zu konzentrieren, die wichtig sind, und aggressive oder konservative Annahmen zu identifizieren. Ein Analyst könnte eine Aktie vorschlagen, bei der der zentrale quantitative Input durch fehlerhafte Logik unterstützt wird. Und die Aufgabe des PM ist es, diese fehlerhafte Logik zu identifizieren. Dieser Workflow ist für mich ein entscheidendes Unterscheidungsmerkmal zwischen guten und weniger guten PMs.
Dieser Workflow ist jedoch nicht nur für PMs; er ist auch für Analysten gedacht, die versuchen, ihre eigene Arbeit zu bewerten, für Peer-Analysten, die durchdachte Rückmeldungen zu Ideen geben möchten, an denen das Team teilnehmen könnte, und für unsere Forschungsleiter, die den Prozess der Ideenbewertung effizient evaluieren möchten. Oder PMs für die erste Sichtung, wenn sie viele Ideen betrachten.
Der faszinierende Aspekt, diesen Prozess mit KI zu erweitern, ist, dass er unglaublich skalierbar ist. Und er kann autonom laufen. Über 300 Modelle hinweg könnte ich eine Gruppe von Agenten haben, die automatisierte Due Diligence zu den wichtigsten Treibern durchführen, diese Modelle aktualisieren, mir die Ergebnisse zurückmelden und kennzeichnen, welche meiner abgedeckten Ideen das Potenzial für Gewinnrevisionen haben. Dieser Workflow ist für die öffentliche Aktienforschung meiner Meinung nach der "Cursor-Moment". Ich sage nicht, dass wir dort sind, denn die Datenakkuratheit und die Strukturen, die erforderlich sind, um interne Daten zu integrieren, sind noch in Arbeit. Aber wir haben gerade einen Schritt nach vorne in der technologischen Fähigkeit gemacht.
Ich habe das in GPT-5.4 getestet. Und obwohl es nicht perfekt ist, ist dies das erste Mal, dass ich in diesem Test etwas Nützliches zurückbekommen habe.
Ich werde dich durch ein paar Schritte führen, um dies selbst zu tun.
Schritt 1: Gedankenabwurf in Claude. Ich weiß nicht, ob es irgendeine Logik dafür gibt oder nur meine eigene Gewohnheit, aber wenn ich in Chat GPT arbeite, werde ich meta-prompten und Claude und umgekehrt. Ich bin mir nicht sicher, wo es wichtig ist, meta-prompten, aber es ist SICHER wichtig, ob du meta-promptest oder roh promptest, also überspring diesen Schritt nicht.
Schritt 2: Nimm die Ausgabe des Prompts, verwandle sie in Markdown und füge das als benutzerdefinierte Anweisungen in ein GPT-Projekt ein. Das ist nur eine Effizienz im Workflow, denn dann habe ich jetzt ein GPT-Projekt, in das ich jedes Modell hochladen kann.
...



Top
Ranking
Favoriten
