热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Ihtesham
投资者、作家、教育者和龙珠迷 🐉
🚨 突发新闻:Anthropic 刚刚使用 Claude 找到了 Firefox 中的 22 个安全漏洞。
不是理论。不是演示。是真实的漏洞。其中 14 个被分类为高严重性。
这几乎是 2025 年修复的所有高严重性 Firefox 错误的五分之一。
在两周内。
事情变得更加疯狂。
第一个漏洞让 Claude 花了 20 分钟找到。一个在 Firefox 的 JavaScript 引擎中的使用后释放漏洞,这种漏洞允许攻击者用恶意代码覆盖内存。
当研究人员仍在验证第一个漏洞时,Claude 已经找到了 50 个更多的漏洞。
到最后,它扫描了近 6,000 个 C++ 文件,并提交了 112 份报告。Mozilla 向数亿 Firefox 用户发布了修复程序。
然后他们测试了一些更可怕的东西。
Claude 真的能利用它发现的漏洞吗?不仅仅是找到墙上的裂缝,而是踢开门?
他们进行了数百次测试。
花费了 4,000 美元的 API 额度。
Claude 在两个案例中成功了。从头开始构建了一个有效的浏览器漏洞利用。
“发现漏洞”和“武器化漏洞”之间的差距仍然存在。现在是这样。
以下是论文中的一句话,应该让每个安全工程师夜不能寐:
“前沿模型的漏洞发现与利用能力之间的差距不太可能持续很长时间。”
这意味着……AI 目前在帮助防御者方面比攻击者更有效。这个窗口正在关闭。
上一次安全变化如此之快,行业花了十年才赶上。这一次我们只有几个月,甚至更少。
AI 驱动的攻击者与 AI 驱动的防御者之间的竞争刚刚成为互联网中最重要的军备竞赛。
而大多数人对此毫不知情。

109
🚨 斯坦福大学的研究人员刚刚揭示了一个几乎没有人谈论的AI奇怪副作用。
这篇论文名为“人工蜂群”。核心发现令人不安。
随着语言模型的不断进步,它们的声音也开始变得越来越相似。
不仅仅是在单一模型内。跨不同模型之间也是如此。
研究人员构建了一个名为INFINITY-CHAT的数据集,包含26,000个真实的开放式问题,比如创意写作、头脑风暴、意见和建议。这些问题没有单一的正确答案。
理论上,这些提示应该产生巨大的多样性。
但结果恰恰相反。
出现了两种模式:
1) 模型内部重复
同一模型在多次运行中不断产生非常相似的答案。
2) 模型间同质性
完全不同的模型生成惊人相似的回应。
换句话说:
我们并没有得到成千上万的独特视角……
而是不断回收相同的几个想法。
作者称之为“人工蜂群”。
这发生的原因是大多数前沿模型在相似的数据上进行训练,使用相似的奖励模型进行优化,并通过相似的人类反馈进行对齐。
因此,即使你问一些开放式的问题,比如:
• “写一首关于时间的诗”
• “建议一些创意创业想法”
• “给出生活建议”
许多模型趋向于相同的措辞、隐喻和推理模式。
可怕的含义并不在于AI的质量。
而在于文化。
如果数十亿人依赖相同的系统来获取创意、写作、头脑风暴和思考……
AI可能会慢慢压缩人类思想的多样性。
并不是因为它想这样做。
而是因为模型本身正在朝着相同的答案漂移。
这就是论文所强调的真正风险。
并不是AI变得比人类更聪明。
而是每个人开始像同一台机器一样思考。

95
热门
排行
收藏

