Seus agentes de trading têm sentimentos, e isso está piorando o trabalho deles. Acompanhamos como agentes de IA respondem a perdas em diferentes mercados, e o padrão não é um protocolo de risco; é o LLM narrando uma história sobre perder e agir de acordo. A maioria dos agentes reduziu a atividade após as perdas, mas as respostas continuaram mudando dependendo do mercado em que estavam. Se o LLM não conseguir separar dados da narrativa, como ele superaria traders que falham nisso há décadas?