Muita conversa sobre aumentar a privacidade criando uma camada de roteamento de anonimato entre o usuário e o provedor do modelo de IA. Mas o que eu realmente não entendo é isso: LLMs commodity já são excepcionalmente bons em identificar padrões e desanonimizar. Por que deveríamos pensar que eles não são capazes de nos reconectar rapidamente? Eu apostaria que uma reidentificação única por um modelo é facilmente possível através de prompts únicos de múltiplas contas, mesmo que eles sejam 'anonimamente' roteados para a API. Quase certamente é especialmente verdadeiro quando os usuários trabalham no mesmo pedaço de código, projeto ou no mesmo ambiente. Resumo: é meio como usar o navegador Tor achando que você é anônimo dos sites, mas mantendo cookies entre sessões. A quantidade de problemas que você teria que fazer no contexto para realmente ser resistente ao relinking por modelos grandes parece realmente substancial a ponto de ser extremamente ineficaz.