Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Se habla mucho de aumentar la privacidad creando una capa de enrutamiento de anonimato entre el usuario y el proveedor del modelo de IA.
Pero lo que realmente no entiendo es esto: los LLM de productos básicos ya son excepcionalmente buenos identificando patrones y desanonimizando.
¿Por qué deberíamos pensar que no son capaces de reconectarnos rápidamente?
Apostaría a que la reidentificación de un solo intento con un modelo es fácilmente posible a través de indicaciones individuales de varias cuentas, incluso si se enrutan 'anónimamente' a la API.
Casi con toda seguridad es especialmente cierto cuando los usuarios trabajan en el mismo fragmento de código, proyecto o desde el mismo entorno.
En resumen: es algo así como usar el navegador Tor pensando que eres anónimo en las webs, pero manteniendo cookies entre sesiones.
La cantidad de manipulación que tendrías que hacer en el contexto para estar realmente reforzado contra los reenlaces por modelos grandes parece realmente sustancial, hasta el punto de ser enormemente ineficaces.
Populares
Ranking
Favoritas
