Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

常为希 🔸🚢币安人生(Ai奇点)
Đơn giản và phức tạp Nơi đá dừng lại, nơi 🌱 nước chảy xiết DYOR tự nghiên cứu | NFA không có lời khuyên tài chính
Thị trường bộ nhớ đang trong tình trạng thiếu hụt cấu trúc cực đoan "40 năm một lần", chu kỳ siêu lớn do AI kích hoạt lần này có quy mô lớn hơn, kéo dài hơn, đỉnh cao hơn và vẫn chưa gần chạm đỉnh.
Bây giờ tôi sẽ từng bước giải thích dựa trên mô hình công suất fab-by-fab và phân tích nhu cầu từ đầu đến cuối:
Ngành công nghiệp bộ nhớ từ lâu đã được coi là ngành chu kỳ, trong hơn một thập kỷ qua, ngành bộ nhớ đã trải qua một chu kỳ cổ điển mỗi 3-4 năm: cung vượt cầu → giá giảm mạnh → nhà sản xuất giảm sản lượng / trì hoãn mở rộng sản xuất → thiếu hụt → giá tăng vọt → mở rộng sản xuất điên cuồng → dư thừa. Nhưng lần tăng giá mạnh mẽ gần đây tương đương với tình hình "giá liên tục tăng gấp đôi + tỷ suất lợi nhuận tăng vọt" phải quay ngược lại đến giữa những năm 1980 khi có sự thiếu hụt DRAM, lần đó đã trực tiếp tạo ra vị thế thống trị toàn cầu của các công ty Hàn Quốc như Samsung.
Điểm khác biệt lần này nằm ở nguồn gốc: không phải là sự phục hồi nhu cầu, mà là nhu cầu bùng nổ, liên tục và khó dự đoán của cơ sở hạ tầng AI, có thể hiểu theo cách phân tích biểu đồ cổ phiếu là cả khối lượng và giá đều tăng. Cả đào tạo và suy luận đều cần một lượng lớn HBM làm bộ nhớ cache tốc độ cao cục bộ cho GPU/tăng tốc, cường độ bộ nhớ (memory intensity per system) đã có sự gia tăng phi tuyến tính, tương tự như thời kỳ PC, thời kỳ smartphone, thời kỳ đám mây, nhưng quy mô và độ dốc vượt xa trước đây. Sản xuất HBM rất tập trung (SK Hynix chiếm 50-60% thị phần, Samsung + Micron chia sẻ phần còn lại), các nút thắt trong đóng gói tiên tiến (TSV + CoWoS) và tỷ lệ thành công tăng dần, thời gian giao hàng thiết bị kéo dài đến vài năm, dẫn đến việc ngay cả khi các nhà sản xuất dốc toàn lực, cung cấp vào năm 2026-2027 vẫn sẽ mất cân bằng nghiêm trọng.
Kết quả là giá đã liên tục "tăng gấp đôi" trong nhiều quý, chúng ta thậm chí còn chưa gần chạm đỉnh.
Về mặt tài chính, ba nhà sản xuất bộ nhớ lớn đang bước vào một cửa sổ lợi nhuận lịch sử:
- SK Hynix: HBM đã bán hết đến năm 2026, ưu tiên chuyển sang HBM có tỷ suất lợi nhuận cao, DRAM thông thường cũng thiếu hụt do máy chủ AI chiếm lĩnh, mức tăng thậm chí còn vượt qua HBM, doanh thu/lợi nhuận/tỷ suất lợi nhuận vào năm 2026 dự kiến sẽ vượt xa kỳ vọng.
- Samsung: Thị phần HBM tụt lại phía sau, nhưng tổng thể quy mô DRAM/NAND rất lớn, giá DRAM truyền thống tăng vọt đồng thời mang lại "tiền bất ngờ", dòng tiền ổn định nhất.
- Micron: Tiến độ HBM chậm nhưng cơ sở thấp + chính sách hỗ trợ của Mỹ, có độ linh hoạt lớn nhất, DRAM thông thường thiếu hụt cũng được hưởng lợi.
Toàn ngành ROIC tăng vọt, chi tiêu vốn tuy cao nhưng được bù đắp bởi tỷ suất lợi nhuận siêu cao, một số quý tỷ suất lợi nhuận có thể trở lại trên 50% + thậm chí cao hơn, hoàn toàn phá vỡ thị trường về "tỷ suất lợi nhuận cổ phiếu chu kỳ 20-30%".
Sau năm 2027, có thể nhanh chóng đảo ngược thành dư thừa, tương tự như sự sụp đổ bộ nhớ vào cuối năm 2017-2018, giá giảm một nửa, tỷ suất lợi nhuận giảm mạnh thậm chí thua lỗ. Nhưng hiện tại vẫn chưa thấy dấu hiệu này, nhu cầu tính toán là vô tận, tất cả đều đang nỗ lực để đạt được Agi, và bây giờ vẫn chưa đến thời điểm mọi người đều có AI, giống như khi Apple ra mắt, vẫn chưa đến thời điểm mọi người đều có điện thoại.
Đây là một chu kỳ siêu lớn bộ nhớ "40 năm một lần" do AI kích hoạt, năm 2026 vẫn là giai đoạn bùng nổ giá và lợi nhuận, SK Hynix có độ linh hoạt lớn nhất, Micron có nhiều bất ngờ nhất, Samsung ổn định nhất, nhưng tỷ suất lợi nhuận cao chắc chắn không bền vững, một khi chi tiêu vốn AI giảm dần hoặc công nghệ giảm tiêu hao, chu kỳ đảo ngược sẽ đến nhanh hơn và mạnh mẽ hơn so với kỳ vọng của thị trường.
Trong chu kỳ tăng trưởng mới này, hãy cùng nhìn lại cách mà hai ông lớn hiện nay đã nổi lên trong chu kỳ trước và tiếp tục phát triển đến bây giờ:
Vào những năm 1980, sự trỗi dậy của Samsung trong lĩnh vực DRAM được coi là câu chuyện "người đến sau lội ngược dòng" kinh điển nhất trong lịch sử bán dẫn.
Thời điểm đó, thị trường DRAM toàn cầu chủ yếu bị Mỹ và Nhật Bản độc quyền: Mỹ có Intel, Micron và các nhà sáng lập khác, Nhật Bản có NEC, Toshiba, Hitachi, Fujitsu và các ông lớn khác, đến giữa những năm 1980, Nhật Bản một thời đã chiếm gần 80% thị phần DRAM toàn cầu, cuộc chiến giá cả và công nghệ tiên tiến đã khiến họ gần như đẩy các nhà sản xuất Mỹ ra khỏi ngành bộ nhớ chính.
Samsung lúc đó chỉ là một tập đoàn Hàn Quốc (chaebol) bán đồ điện gia dụng, tivi, tủ lạnh, và mảng bán dẫn mới bắt đầu. Năm 1983, Lee Byung-chul (người sáng lập Samsung) quyết định gia nhập ngành bán dẫn, đầu tư lớn để xây dựng nhà máy, sản phẩm đầu tiên là 64K DRAM - lúc đó đã là dung lượng chính. Nhưng công nghệ của Samsung chủ yếu dựa vào việc mua bản quyền, kỹ thuật đảo ngược và tuyển dụng nhân tài (bao gồm cả việc học hỏi từ Micron của Mỹ và các công ty Nhật Bản).
Từ 1983-1986, sau khi Samsung sản xuất hàng loạt 64K và sau đó là 256K DRAM, thị trường đang ở đáy (giá từ vài đô la giảm xuống còn vài chục cent mỗi miếng), nhưng chi phí sản xuất lại cao (chi phí 64K của Samsung một thời lên đến 1,3 đô la/mảnh), liên tục thua lỗ trong nhiều năm. Đến cuối năm 1986, Samsung đã lỗ lũy kế 300 triệu đô la, vốn cổ phần gần như mất sạch, đứng trên bờ vực phá sản.
Giữa những năm 1980, cuộc chiến thương mại Mỹ-Nhật + thỏa thuận hạn chế sản xuất của Nhật Bản + nhu cầu PC bùng nổ đã tạo ra một lần thiếu hụt cực đoan và cửa sổ tăng giá trong lịch sử DRAM "40 năm một lần". Samsung đã dựa vào sức mạnh quốc gia của Hàn Quốc, đốt tiền điên cuồng để mở rộng sản xuất trong thời kỳ ngược chiều, nắm bắt khoảng trống thị trường mà Nhật Bản để lại, từ một người theo sau công nghệ, chỉ trong vòng 7-8 năm đã lội ngược dòng trở thành ông lớn bộ nhớ toàn cầu, đặt nền tảng cho đế chế bán dẫn Samsung ngày nay.
Câu chuyện này giống như chu kỳ siêu lớn bộ nhớ AI hiện tại: thiếu hụt cấu trúc + cung cấp cứng nhắc của các ông lớn + nhu cầu bùng nổ, thường tạo ra sự bùng nổ cho những người đến sau hoặc những người chơi hiện có, nhưng cũng đi kèm với rủi ro thua lỗ khổng lồ và nguy cơ đảo ngược chu kỳ. Vì vậy, đối mặt với tình hình thị trường AI của Trung Quốc, nhu cầu token tính toán xuất khẩu ra nước ngoài, có thể Changxin và Yangtze cũng có cơ hội trở thành người chiến thắng lớn nhờ chu kỳ này!

691
Ôi trời, @sanchitmonga22 Nhóm RunAnywhereAI đã tạo ra MetalRT trong 48 giờ, trực tiếp nâng cao tốc độ giải mã LLM trên Apple Silicon lên một tầm cao mới, với cùng một mô hình 4-bit trên M4 Max, Qwen3-0.6B chạy đến 658 tok/s, LFM 2.5-1.2B 570 tok/s, token đầu tiên chỉ mất 6.6ms.
So với cùng một tệp, đã bỏ xa MLX của Apple 19%, đánh bại llama.cpp trung bình 67%, uzu và Ollama thì không cần phải nói, toàn bộ đều tụt lại phía sau.
Apple luôn kêu gọi ưu tiên địa phương cho Apple Intelligence, nhưng tiềm năng phần cứng thực sự đã bị lãng phí bởi nhiều khung khác nhau, giống như bị phong ấn, MetalRT trực tiếp tương tác với Metal API, loại bỏ lớp Python, lớp trừu tượng và những chi phí lộn xộn khác, được thiết kế riêng cho bộ nhớ thống nhất + GPU, mới có thể tạo ra hiệu suất cực đỉnh này.
Giá trị thực sự của mô hình địa phương không bao giờ chỉ là "có thể chạy là được", mà là chạy đủ nhanh, đủ tiết kiệm, đủ riêng tư, mới thực sự thay thế được đám mây. 6.6ms cho token đầu tiên có nghĩa là trò chuyện, giọng nói, bổ sung mã, gọi JSON của Agent gần như không có độ trễ; tốc độ tok/s cao mới có thể hỗ trợ ngữ cảnh dài, nhiều công cụ song song mà không bị kẹt. Thêm vào đó là không cần kết nối mạng, không cần đăng ký, dữ liệu không rời khỏi thiết bị, đây mới là hình mẫu của AI địa phương ở cấp độ năng suất.
Nhanh hơn không phải để khoe con số tok/s, mà là để cho mô hình nhỏ có thể đánh bại trải nghiệm phản hồi của mô hình lớn trên đám mây ngay trên thiết bị của Apple. AI trên thiết bị trong hệ sinh thái Apple, vốn dĩ nên được như vậy, giờ mới thực sự bắt đầu tăng tốc. Apple thực sự là người ngồi ở nhà, cộng đồng mã nguồn mở đang tích cực xây dựng mở ra hộp Pandora, AI địa phương thật thoải mái, chỉ hy vọng sẽ có những mô hình thông minh hơn xuất hiện.

1,16K
Hàng đầu
Thứ hạng
Yêu thích
