🧵 1/ AI este peste tot. Dar poți avea cu adevărat încredere în modul în care a fost antrenat? Modelele AI învață din date. Dar uneori, acele date sunt sensibile (dosare medicale, istoric financiar, mesaje personale etc.) Astfel, companiile folosesc o tehnică numită Învățare Federată: datele tale nu părăsesc niciodată dispozitivul. Doar "lecțiile învățate" sunt împărtășite. Confidențialitatea este păstrată. Dar iată o condiție.
2/ Doar pentru că datele tale rămân locale nu înseamnă că toată lumea din proces se comportă sincer. Ce se întâmplă dacă cineva manipulează AI-ul în timpul antrenamentului? Ce se întâmplă dacă rezultatele sunt modificate? Ce se întâmplă dacă cineva face free-rise fără să contribuie cu nimic? Se presupune încrederea. Dar niciodată dovedit.
3/ Ideea? Nu te limita să ai încredere, ci să verifici. Folosind demonstrații criptografice, fiecare pas al procesului de antrenare AI poate fi acum verificat. Cine a folosit ce date. Dacă antrenamentul a fost făcut corect. Dacă rezultatele au fost combinate cu adevărat. Nu e nevoie de credință oarbă.
4/ Verificarea modului în care rezultatele AI sunt combinate ("agregare") este deja fezabilă astăzi și închide unele dintre cele mai mari lacune de securitate în AI colaborativă. Verificarea completă a instruirii urmează. Nu am ajuns încă acolo, dar cercetarea avansează rapid.
5/ Blockchain-ul acționează ca un jurnal public de audit, imposibil de manipulat. Iar cu zkVerify @zkvprotocol, verificarea acelor demonstrații costă doar 0,0003 dolari. Nu e o greșeală de tipar.
9