🧠 LLM'leri sürekli olarak yeni şeyler öğrenmelerine olanak tanıyan hafızayla nasıl donatabiliriz? @AIatMeta içeren yeni makalemizde, bellek katmanlarına seyrek ince ayar yapmanın, mevcut bilgiye minimum müdahale ile sürekli öğrenme için hedeflenen güncellemeleri nasıl mümkün kıldığını gösteriyoruz. Tam ince ayar ve LoRA, uzun süreli görev performansında ciddi düşüşler görürken (📉 gerçek öğrenme görevlerinde -%89 FT, -%71 LoRA), bellek katmanları çok daha az unutmayla (-%11) aynı miktarı öğrenir. 🧵: