🧵 1/ AI无处不在。但你真的能信任它是如何训练的吗? AI模型从数据中学习。但有时,这些数据是敏感的(医疗记录、财务历史、个人消息等) 因此,公司使用一种叫做联邦学习的技术:你的数据永远不会离开你的设备。只有“学到的经验”会被分享。 隐私得以保护。 但这里有一个陷阱。
2/ 仅仅因为您的数据保持本地并不意味着过程中的每个人都在诚实地行事。 如果有人在训练期间操纵了AI怎么办? 如果结果被篡改怎么办? 如果有人不做任何贡献就搭便车怎么办? 信任是被假定的,但从未被证明。
3/ 这个想法?不要盲目相信,要验证。 通过使用加密证明,AI训练过程的每一步现在都可以被检查。 谁使用了什么数据。训练是否正确进行。结果是否诚实地结合。 不需要盲目的信仰。
4/ 验证AI结果如何组合("聚合")在今天已经可行,这填补了协作AI中一些最大的安全漏洞。 完整的训练验证即将到来。我们还没有到达那里,但研究正在快速推进。
5/ 区块链充当一个公开的、不可篡改的审计日志。 而通过 zkVerify @zkvprotocol,验证这些证明的成本低至 $0.0003。这不是打字错误。
22