Heb je ooit de ervaring gehad dat je een AI die zich als alleswetend voordoet, volledig vertrouwde en vervolgens werd bedrogen? @miranetwork In mijn geval heb ik dat eens meegemaakt tijdens een investeringsonderzoek. Ik had een vraag en wilde het via AI uitzoeken, met plausibele cijfers, definitieve zinnen en zelfverzekerde conclusies. Het probleem was… toen ik later alles één voor één controleerde, bleken de bronnen lege pagina's te zijn en sommige informatie was gewoon fout. Toen realiseerde ik me dat het probleem van AI niet is dat het niet weet, maar dat het met zekerheid spreekt, ook al weet het het niet. En dat het, wanneer het urgent is, niet te verifiëren is of het waar of niet is. Sindsdien heb ik altijd dezelfde onzekerheid als ik AI-antwoorden zie. Is dit wel de juiste informatie? Of is dit weer gewoon onzin? Daarom denk ik dat MIRA belangrijk is. Het gaat niet om wat AI zegt, maar om waarom het dat zegt en op basis waarvan het dat doet. Vertrouwen begint niet bij prestaties, maar bij verifieerbaarheid. Als je ooit een AI-hallucinatie hebt meegemaakt, zal je meteen begrijpen waarom Fact-Verified AI en MIRA nodig zijn.