Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Nhà đầu tư, nhà văn, nhà giáo dục và một người hâm mộ 🐉 Dragon Ball
🚨 CẬP NHẬT: Anthropic vừa sử dụng Claude để phát hiện 22 lỗ hổng bảo mật trong Firefox.
Không phải lý thuyết. Không phải bản demo. Những lỗ hổng thực sự. 14 trong số đó được phân loại là mức độ nghiêm trọng cao.
Đó gần như là một phần năm tất cả các lỗi Firefox mức độ nghiêm trọng cao đã được sửa trong toàn bộ năm 2025.
Chỉ trong hai tuần.
Đây là phần thú vị.
Lỗi đầu tiên mà Claude phát hiện mất 20 phút. Một lỗ hổng Use After Free trong engine JavaScript của Firefox, loại cho phép kẻ tấn công ghi đè bộ nhớ bằng mã độc.
Trong khi các nhà nghiên cứu vẫn đang xác thực lỗi đầu tiên đó, Claude đã tìm thấy 50 lỗi khác.
Cuối cùng, nó đã quét gần 6,000 tệp C++ và nộp 112 báo cáo. Mozilla đã gửi các bản sửa lỗi đến hàng trăm triệu người dùng Firefox.
Sau đó, họ đã thử nghiệm một điều đáng sợ hơn.
Claude có thể khai thác các lỗ hổng mà nó tìm thấy không? Không chỉ tìm ra vết nứt trên tường mà còn đạp cửa vào?
Họ đã thực hiện thử nghiệm hàng trăm lần.
Chi tiêu 4,000 đô la cho tín dụng API.
Claude đã thành công trong hai trường hợp. Xây dựng một lỗ hổng trình duyệt hoạt động từ đầu.
Khoảng cách giữa "tìm lỗi" và "vũ khí hóa chúng" vẫn tồn tại. Tạm thời.
Đây là câu nói trong tài liệu mà nên khiến mọi kỹ sư bảo mật phải thức trắng đêm:
"Có khả năng khoảng cách giữa khả năng phát hiện lỗ hổng của các mô hình tiên tiến và khả năng khai thác sẽ không kéo dài lâu."
Có nghĩa là…AI hiện đang tốt hơn trong việc giúp đỡ những người phòng thủ hơn là những kẻ tấn công. Cánh cửa đó đang đóng lại.
Lần cuối cùng bảo mật thay đổi nhanh như thế này, ngành công nghiệp mất một thập kỷ để bắt kịp. Lần này chúng ta chỉ có vài tháng, có thể ít hơn.
Cuộc đua giữa những kẻ tấn công được hỗ trợ bởi AI và những người phòng thủ được hỗ trợ bởi AI vừa trở thành cuộc chạy đua vũ trang quan trọng nhất trên internet.
Và hầu hết mọi người không biết rằng nó đã xảy ra.

102
🚨 CẬP NHẬT: Ai đó vừa xây dựng một thư viện khổng lồ các kỹ năng OpenClaw và đưa nó lên GitHub miễn phí.
Nó được gọi là Kỹ Năng OpenClaw Tuyệt Vời.
Một bộ sưu tập được chọn lọc các khả năng sẵn sàng sử dụng mà bạn có thể cắm trực tiếp vào các tác nhân OpenClaw.
Có gì bên trong:
→ Kỹ năng cho tự động hóa, nghiên cứu, lập trình và quy trình làm việc
→ Công cụ có sẵn để mở rộng OpenClaw ngay lập tức
→ Kỹ năng do cộng đồng đóng góp mà bạn có thể tái sử dụng và chỉnh sửa
→ Ví dụ cho thấy cách xây dựng kỹ năng của riêng bạn
→ Một trung tâm chính để khám phá các khả năng mới của OpenClaw
Thay vì xây dựng mọi công cụ từ đầu…
Bạn chỉ cần chọn một kỹ năng và thả nó vào tác nhân của bạn.
(Liên kết trong phần bình luận)

131
🚨 Các nhà nghiên cứu tại Stanford vừa phát hiện ra một tác dụng phụ kỳ lạ của AI mà gần như không ai nói đến.
Bài báo có tên là “Artificial Hivemind.” Và phát hiện chính là điều đáng lo ngại.
Khi các mô hình ngôn ngữ ngày càng tốt hơn, chúng cũng bắt đầu nghe giống nhau hơn và hơn nữa.
Không chỉ trong một mô hình duy nhất. Mà còn giữa các mô hình khác nhau.
Các nhà nghiên cứu đã xây dựng một tập dữ liệu có tên INFINITY-CHAT với 26.000 câu hỏi mở thực sự, những thứ như viết sáng tạo, động não, ý kiến và lời khuyên. Những câu hỏi mà không có một câu trả lời đúng duy nhất.
Về lý thuyết, những gợi ý này nên tạo ra sự đa dạng lớn.
Nhưng điều ngược lại đã xảy ra.
Hai mẫu hình đã xuất hiện:
1) Sự lặp lại trong mô hình
Mô hình giống nhau liên tục tạo ra những câu trả lời rất giống nhau qua các lần chạy.
2) Tính đồng nhất giữa các mô hình
Các mô hình hoàn toàn khác nhau tạo ra những phản hồi đáng chú ý giống nhau.
Nói cách khác:
Thay vì hàng ngàn quan điểm độc đáo…
Chúng ta đang nhận được cùng một vài ý tưởng được tái chế đi tái chế lại.
Các tác giả gọi điều này là “Artificial Hivemind.”
Điều này xảy ra vì hầu hết các mô hình tiên tiến được đào tạo trên dữ liệu tương tự, được tối ưu hóa với các mô hình thưởng tương tự, và được điều chỉnh bằng phản hồi của con người tương tự.
Vì vậy, ngay cả khi bạn hỏi một điều gì đó mở như:
• “Viết một bài thơ về thời gian”
• “Gợi ý ý tưởng khởi nghiệp sáng tạo”
• “Đưa ra lời khuyên về cuộc sống”
Nhiều mô hình hội tụ về cùng một cách diễn đạt, phép ẩn dụ và mẫu lý luận.
Điều đáng sợ không phải là chất lượng AI.
Mà là về văn hóa.
Nếu hàng tỷ người dựa vào cùng một hệ thống để có ý tưởng, viết lách, động não và suy nghĩ…
AI có thể từ từ nén lại sự đa dạng của tư duy con người.
Không phải vì nó cố gắng làm vậy.
Mà vì chính các mô hình đang trôi dạt về cùng một câu trả lời.
Đó là rủi ro thực sự mà bài báo nhấn mạnh.
Không phải là AI trở nên thông minh hơn con người.
Mà là mọi người bắt đầu suy nghĩ như cùng một cỗ máy.

94
Hàng đầu
Thứ hạng
Yêu thích
