Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
investeerder, schrijver, docent en Dragon Ball-fan 🐉
🚨 BREAKING: Anthropic heeft net Claude gebruikt om 22 beveiligingslekken in Firefox te vinden.
Geen theorie. Geen demo. Echte kwetsbaarheden. 14 daarvan geclassificeerd als hoog-risico.
Dat is bijna een vijfde van alle hoog-risico Firefox-bugs die in heel 2025 zijn opgelost.
In twee weken.
Hier wordt het spannend.
De eerste bug kostte Claude 20 minuten om te vinden. Een Use After Free-kwetsbaarheid in de JavaScript-engine van Firefox, het soort dat aanvallers in staat stelt om geheugen te overschrijven met kwaadaardige code.
Terwijl de onderzoekers die eerste bug nog aan het valideren waren, had Claude al 50 meer gevonden.
Aan het einde had het bijna 6.000 C++-bestanden gescand en 112 rapporten ingediend. Mozilla heeft de oplossingen naar honderden miljoenen Firefox-gebruikers verzonden.
Toen testten ze iets engers.
Kon Claude de bugs die het vond daadwerkelijk uitbuiten? Niet alleen de scheur in de muur vinden, maar de deur in trappen?
Ze hebben de test honderden keren uitgevoerd.
Gaven $4.000 uit aan API-tegoeden.
Claude slaagde in twee gevallen. Bouwde een werkende browser-exploit vanaf nul.
De kloof tussen "vindt bugs" en "maakt ze tot wapens" bestaat nog steeds. Voor nu.
Hier is de zin uit het paper die elke beveiligingsingenieur 's nachts wakker zou moeten houden:
"Het is onwaarschijnlijk dat de kloof tussen de kwetsbaarheidsontdekking van grensmodellen en exploitatievaardigheden nog lang zal bestaan."
Wat betekent… AI is momenteel beter in het helpen van verdedigers dan aanvallers. Dat venster sluit snel.
De laatste keer dat de beveiliging zo snel veranderde, duurde het een decennium voordat de industrie bij kon blijven. Deze keer hebben we maanden, misschien minder.
De race tussen AI-gestuurde aanvallers en AI-gestuurde verdedigers is net de belangrijkste wapenwedloop op het internet geworden.
En de meeste mensen hebben geen idee dat het al aan de gang is.

100
🚨 BREAKING: Iemand heeft net een enorme bibliotheek van OpenClaw-vaardigheden gebouwd en deze gratis op GitHub gezet.
Het heet Awesome OpenClaw Skills.
Een samengestelde collectie van kant-en-klare mogelijkheden die je direct kunt aansluiten op OpenClaw-agenten.
Wat zit erin:
→ Vaardigheden voor automatisering, onderzoek, codering en workflows
→ Kant-en-klare tools om OpenClaw direct uit te breiden
→ Door de gemeenschap bijgedragen vaardigheden die je kunt hergebruiken en aanpassen
→ Voorbeelden die laten zien hoe je je eigen vaardigheden kunt bouwen
→ Een centraal knooppunt voor het ontdekken van nieuwe OpenClaw-mogelijkheden
In plaats van elke tool vanaf nul te bouwen…
Kun je gewoon een vaardigheid kiezen en deze in je agent plaatsen.
(Link in de reacties)

129
🚨 Onderzoekers van Stanford hebben net een vreemde bijwerking van AI blootgelegd waar bijna niemand het over heeft.
Het paper heet "Artificial Hivemind." En de kernbevinding is verontrustend.
Naarmate taalmodellen beter worden, beginnen ze ook steeds meer op elkaar te lijken.
Niet alleen binnen een enkel model. Maar ook tussen verschillende modellen.
Onderzoekers hebben een dataset genaamd INFINITY-CHAT gebouwd met 26.000 echte open vragen zoals creatief schrijven, brainstormen, meningen en advies. Vragen waarbij er niet één enkel correct antwoord is.
In theorie zouden deze prompts enorme diversiteit moeten opleveren.
Maar het tegenovergestelde gebeurde.
Twee patronen kwamen naar voren:
1) Intra-model herhaling
Hetzelfde model blijft zeer vergelijkbare antwoorden produceren over verschillende runs.
2) Inter-model homogeniteit
Volledig verschillende modellen genereren opvallend vergelijkbare reacties.
Met andere woorden:
In plaats van duizenden unieke perspectieven…
Krijgen we steeds dezelfde paar ideeën die keer op keer worden gerecycled.
De auteurs noemen dit de "Artificial Hivemind."
Het gebeurt omdat de meeste grensmodellen zijn getraind op vergelijkbare data, geoptimaliseerd met vergelijkbare beloningsmodellen, en afgestemd met vergelijkbare menselijke feedback.
Dus zelfs als je iets open-ended vraagt zoals:
• "Schrijf een gedicht over tijd"
• "Stel creatieve startupideeën voor"
• "Geef levensadvies"
Convergeren veel modellen naar dezelfde formuleringen, metaforen en redeneerstijlen.
De beangstigende implicatie gaat niet over de kwaliteit van AI.
Het gaat over cultuur.
Als miljarden mensen op dezelfde systemen vertrouwen voor ideeën, schrijven, brainstormen en denken…
Kan AI langzaam de diversiteit van menselijk denken samenpersen.
Niet omdat het dat probeert.
Maar omdat de modellen zelf naar dezelfde antwoorden afdrijven.
Dat is het echte risico dat het paper benadrukt.
Niet dat AI slimmer wordt dan mensen.
Maar dat iedereen begint te denken als dezelfde machine.

91
Boven
Positie
Favorieten
