关于通过在用户与AI模型提供者之间创建匿名路由层来增加隐私的讨论很多。 但我真正不明白的是:商品化的LLM已经非常擅长识别模式和去匿名化。 我们为什么会认为它们不能快速重新关联我们呢? 我敢打赌,模型通过单个提示从多个账户进行一次性重新识别是完全可能的,即使它们是“匿名”路由到API的。 尤其是在用户在同一段代码、项目或相同环境中工作时,这几乎肯定是正确的。 总结:这有点像使用Tor浏览器以为自己在网站上是匿名的,但在会话之间保留了cookies。 为了真正抵御大型模型的重新关联,你需要对上下文进行的修改似乎非常庞大,以至于效率极低。