1/ Vi vet att transformatorer går sönder vid förlängningsextrapolering. Men ny forskning visar på en djupare brist: de misslyckas med att spåra IN-DISTRIBUTION state. De lär sig inte algoritmiska regler, de memorerar bara isolerade kretsar per längd. 🧵