Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Инвестор, писатель, педагог и фанат 🐉 Dragon Ball
🚨 СРОЧНО: Anthropic только что использовал Claude, чтобы найти 22 уязвимости в Firefox.
Не теория. Не демонстрация. Реальные уязвимости. 14 из них классифицированы как высокосерьезные.
Это почти пятая часть всех высокосерьезных ошибок Firefox, исправленных за весь 2025 год.
За две недели.
Вот где становится интересно.
Первая ошибка заняла у Claude 20 минут, чтобы ее найти. Уязвимость Use After Free в JavaScript-движке Firefox, которая позволяет злоумышленникам перезаписывать память вредоносным кодом.
Пока исследователи все еще проверяли эту первую ошибку, Claude уже нашел 50 других.
В итоге он просканировал почти 6000 файлов C++ и подал 112 отчетов. Mozilla отправила исправления сотням миллионов пользователей Firefox.
Затем они протестировали что-то более страшное.
Может ли Claude действительно использовать найденные уязвимости? Не просто найти трещину в стене, но и выбить дверь?
Они провели тест сотни раз.
Потратили 4000 долларов на кредиты API.
Claude добился успеха в двух случаях. Создал работающий эксплойт для браузера с нуля.
Разрыв между "находит ошибки" и "превращает их в оружие" все еще существует. Пока.
Вот строка из статьи, которая должна не давать спать каждому инженеру по безопасности:
"Маловероятно, что разрыв между способностями моделей на переднем крае к обнаружению уязвимостей и их эксплуатации продлится долго."
Это значит…AI в настоящее время лучше помогает защитникам, чем злоумышленникам. Это окно закрывается.
В последний раз, когда безопасность изменилась так быстро, индустрии потребовалось десятилетие, чтобы догнать. На этот раз у нас есть месяцы, может быть, меньше.
Соревнование между злоумышленниками на базе AI и защитниками на базе AI только что стало самой важной гонкой вооружений в интернете.
И большинство людей не имеют понятия, что это уже происходит.

81
🚨 СРОЧНО: Кто-то только что создал огромную библиотеку навыков OpenClaw и выложил её на GitHub бесплатно.
Она называется Awesome OpenClaw Skills.
Кураторская коллекция готовых к использованию возможностей, которые вы можете напрямую подключить к агентам OpenClaw.
Что внутри:
→ Навыки для автоматизации, исследований, программирования и рабочих процессов
→ Готовые инструменты для мгновенного расширения OpenClaw
→ Навыки, предоставленные сообществом, которые вы можете повторно использовать и модифицировать
→ Примеры, показывающие, как создать свои собственные навыки
→ Центральный хаб для открытия новых возможностей OpenClaw
Вместо того чтобы создавать каждый инструмент с нуля…
Вы можете просто выбрать навык и добавить его в своего агента.
(Ссылка в комментариях)

108
🚨 Исследователи Стэнфорда только что выявили странный побочный эффект ИИ, о котором почти никто не говорит.
Статья называется "Искусственный Ум Hive Mind". И основное открытие вызывает беспокойство.
По мере того как языковые модели становятся лучше, они также начинают звучать все более и более одинаково.
Не только в рамках одной модели. Между разными моделями.
Исследователи создали набор данных под названием INFINITY-CHAT с 26,000 реальными открытыми вопросами, такими как креативное письмо, мозговой штурм, мнения и советы. Вопросы, на которые нет единственно правильного ответа.
В теории, эти подсказки должны были бы производить огромную разнообразие.
Но произошло обратное.
Появились два паттерна:
1) Внутримодельная повторяемость
Одна и та же модель продолжает производить очень похожие ответы в разных запусках.
2) Межмодельная однородность
Совершенно разные модели генерируют поразительно похожие ответы.
Другими словами:
Вместо тысяч уникальных перспектив…
Мы получаем одни и те же несколько идей, перерабатываемых снова и снова.
Авторы называют это "Искусственный Ум Hive Mind".
Это происходит потому, что большинство передовых моделей обучаются на схожих данных, оптимизируются с помощью схожих моделей вознаграждения и выравниваются с использованием схожей обратной связи от людей.
Так что даже когда вы задаете что-то открытое, например:
• "Напишите стихотворение о времени"
• "Предложите креативные идеи для стартапов"
• "Дайте советы по жизни"
Многие модели сходятся к одной и той же формулировке, метафорам и паттернам рассуждений.
Страшная импликация не в качестве ИИ.
А в культуре.
Если миллиарды людей полагаются на одни и те же системы для идей, письма, мозгового штурма и мышления…
ИИ может медленно сжимать разнообразие человеческой мысли.
Не потому, что он пытается.
А потому, что сами модели движутся к одним и тем же ответам.
Вот реальный риск, который подчеркивает статья.
Не в том, что ИИ становится умнее людей.
А в том, что все начинают думать как одна и та же машина.

77
Топ
Рейтинг
Избранное
