🧵 1/ ИИ повсюду. Но можно ли действительно доверять тому, как он был обучен? Модели ИИ учатся на данных. Но иногда эти данные являются конфиденциальными (медицинские записи, финансовая история, личные сообщения и т.д.) Поэтому компании используют технику, называемую федеративным обучением: ваши данные никогда не покидают ваше устройство. Только "извлеченные уроки" делятся. Конфиденциальность сохранена. Но есть один нюанс.
2/ Только потому, что ваши данные остаются локальными, не означает, что все участники процесса ведут себя честно. Что если кто-то манипулирует ИИ во время обучения? Что если результаты будут подделаны? Что если кто-то пользуется без вклада? Доверие предполагается. Но никогда не подтверждается.
3/ Идея? Не просто доверяйте, проверяйте. С помощью криптографических доказательств теперь можно проверить каждый этап процесса обучения ИИ. Кто использовал какие данные. Правильно ли было проведено обучение. Честно ли были объединены результаты. Слепая вера не требуется.
4/ Проверка того, как результаты AI объединяются ("агрегация"), уже возможна сегодня, и это закрывает некоторые из самых больших уязвимостей в совместном AI. Полная проверка обучения уже на подходе. Мы еще не там, но исследования движутся быстро.
5/ Блокчейн выступает в качестве публичного, защищенного от подделок аудиторского журнала. А с zkVerify @zkvprotocol проверка этих доказательств стоит всего $0.0003. Это не опечатка.
20