🧵 1/ L'AI è ovunque. Ma puoi davvero fidarti di come è stata addestrata? I modelli di AI apprendono dai dati. Ma a volte, quei dati sono sensibili (cartelle cliniche, storie finanziarie, messaggi personali, ecc.) Quindi le aziende utilizzano una tecnica chiamata Federated Learning: i tuoi dati non lasciano mai il tuo dispositivo. Solo le "lezioni apprese" vengono condivise. Privacy preservata. Ma c'è un problema.
2/ Solo perché i tuoi dati rimangono locali non significa che tutti nel processo si comportino onestamente. E se qualcuno manipolasse l'AI durante l'addestramento? E se i risultati venissero manomessi? E se qualcuno approfittasse senza contribuire in alcun modo? La fiducia è presunta. Ma mai dimostrata.
3/ L'idea? Non fidarti ciecamente, verifica. Utilizzando prove crittografiche, ogni fase del processo di addestramento dell'AI può ora essere controllata. Chi ha utilizzato quali dati. Se l'addestramento è stato eseguito correttamente. Se i risultati sono stati combinati onestamente. Nessuna fede cieca richiesta.
4/ Verificare come i risultati dell'AI vengano combinati ("aggregazione") è già fattibile oggi e chiude alcune delle più grandi lacune di sicurezza nell'AI collaborativa. La verifica completa dell'addestramento sta arrivando. Non ci siamo ancora, ma la ricerca sta avanzando rapidamente.
5/ La blockchain funge da registro pubblico e a prova di manomissione. E con zkVerify @zkvprotocol, verificare quelle prove costa solo $0.0003. Non è un errore di battitura.
9