🧵 1/ La IA está en todas partes. Pero, ¿realmente puedes confiar en cómo fue entrenada? Los modelos de IA aprenden de datos. Pero a veces, esos datos son sensibles (registros médicos, historial financiero, mensajes personales, etc.) Así que las empresas utilizan una técnica llamada Aprendizaje Federado: tus datos nunca salen de tu dispositivo. Solo se comparten las "lecciones aprendidas". Privacidad preservada. Pero aquí hay un inconveniente.
2/ Solo porque tus datos se mantengan locales no significa que todos en el proceso se comporten de manera honesta. ¿Qué pasa si alguien manipula la IA durante el entrenamiento? ¿Qué pasa si los resultados son alterados? ¿Qué pasa si alguien se beneficia sin contribuir en nada? La confianza se asume. Pero nunca se prueba.
3/ ¿La idea? No solo confíes, verifica. Usando pruebas criptográficas, cada paso del proceso de entrenamiento de la IA ahora puede ser verificado. Quién usó qué datos. Si el entrenamiento se realizó correctamente. Si los resultados se combinaron honestamente. No se requiere fe ciega.
4/ Verificar cómo se combinan los resultados de la IA ("agregación") ya es factible hoy en día, y cierra algunas de las mayores brechas de seguridad en la IA colaborativa. La verificación completa del entrenamiento está en camino. Aún no hemos llegado, pero la investigación avanza rápido.
5/ Blockchain actúa como un registro de auditoría público e inalterable. Y con zkVerify @zkvprotocol, verificar esas pruebas cuesta tan solo $0.0003. No es un error tipográfico.
16