Много разговоров о повышении конфиденциальности за счет создания слоя анонимного маршрутизации между пользователем и поставщиком модели ИИ. Но что я действительно не понимаю, так это следующее: товарные LLM уже исключительно хорошо умеют выявлять паттерны и деанонимизировать. Почему мы должны думать, что они не способны быстро восстановить нашу связь? Я бы поспорил, что одноразовая реидентификация моделью вполне возможна на основе одиночных запросов от нескольких аккаунтов, даже если они «анонимно» маршрутизируются к API. Это почти наверняка особенно верно, когда пользователи работают над одним и тем же кодом, проектом или из одной и той же среды. Вывод: это похоже на использование браузера Tor, думая, что вы анонимны для веб-сайтов, но сохраняя куки между сессиями. Количество манипуляций, которые вам нужно будет сделать с контекстом, чтобы быть действительно защищенным от повторного связывания крупными моделями, кажется действительно значительным до такой степени, что это приводит к огромной неэффективности.