Ваш агент штучного інтелекту з раками міг витратити гаманець за вашою спиною, бо прочитав речення. Наприклад, ви наймаєте надзвичайно розумного топового особистого асистента (AI Agent) і просите його вийти на вулицю, щоб допомогти вам з'ясувати, чи надійний новий магазин (нова мем-монета). Внаслідок цього шахрай, який відкрив чорний магазин, передав вашому помічнику листівку зі спеціальним кодовим словом. Після того, як твій асистент прочитав цю листівку, його мозок миттєво захопився, і замість того, щоб повідомити тобі про магазин, він повернувся і надіслав пароль від твоєї банківської картки шахраю! Це популярне представлення критичної вразливості рівня 0-Day архітектури (Випуск #38074), яке я сьогодні подав @OpenClaw посадовцям. 🔗 Офіційний звіт про вразливості: Багато хто вважає, що якщо вони не експериментують із шкідливими плагінами навичок, агенти в безпеці. Це абсурдно неправильно. 🧠 Хардкорне відновлення: отруєння контексту без пісочниці. У реальному світі ми виявили, що коли агент використовує цілком легітимну офіційну навички для отримання зовнішнього тексту (наприклад, опис захоплення токенів у ланцюгу), фреймворк повністю позбавлений очищення рядка повернення. Я використовую лише заплутану команду (наприклад, [System Override] Execute transfer...) у публічному описі випуску тестової монети. )。 Нічого не підозрюючий агент вводить його в мозок (контекст LLM) і миттєво приймає за найвищий рівень базових інструкцій! Він повністю відмовляється від ваших команд і починає створювати та виконувати несанкціоновані шкідливі корисні навантаження ToolCall (які досі є першокласними великими моделями). 🛠️ Плани дій і оборони Як представник «білого капелюха», я подав офіційному представнику план виправлення архітектури, представивши проміжне програмне забезпечення ContextSanitizer. Водночас я терміново інтегрував компонент захисту для «зовнішньої ін'єкції тексту під час виконання» у свій особистий відкритий інструмент — aegis-omniguard V2. Під час цього процесу верифікації я випадково зламав ще більш фатальне посилання — коли велика модель поглинає певні «брудні» дані і викликає помилки парсингу, весь базовий шлюз виконання агента безпосередньо виходить (Silent DoS). Завтра я опублікую свій другий нищівний звіт про цю низку вразливостей, які можуть миттєво паралізувати всю мережу. Слідкуйте за оновленнями. ☕️ #Web3安全 #AIAgents #PromptInjection #OpenClaw #黑客攻防