Så OpenZeppelin granskade EVMBENCH, det AI-säkerhetsbenchmarket från OpenAI och Paradigm. Det visar sig att AI-revisorer i princip bara minns buggar från sina träningsdata 🧵 /1
Varje revisionsrapport som publicerats före utbildningsgränsen är inbakad i modellen. Så när den "hittar" en reentrancy-bugg resonerar den inte om din kod, utan matchar mönster mot hundratals rapporter den redan memorerat
Visa den en typisk ERC-777 reentrancy och den lyser upp direkt. Kritiskt fynd, här är CVE, här är 12 liknande incidenter Visa den en ny bokföringsbugg i en mekanism den aldrig sett? Den flaggar missade händelser och går vidare
Det skrämmande är inte att den missar saker. Det skrämmande är att den är fullständigt självsäker samtidigt som den missar saker. Ingen tvekan. Bara vibbar och mönstermatchning. utan tvekan användbar men också otillräcklig
Det är precis därför vi valde Human Auditors för Alchemix V3. Vårt öronmärknings-/inlösningssystem, packade epok+index-matematik, överlevnadsackumulatorer. Inget av detta finns i någon träningskorpus. Inga exempel. AI kan bokstavligen inte se det
187