Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

常为希 🔸🚢币安人生(Ai奇点)
Enkelt och komplext Var stenen stannar, där 🌱 vattnet forsar DYOR gör din egen research | NFA har ingen ekonomisk rådgivning
Minnesmarknaden befinner sig mitt i en extrem strukturell brist som förekommer en gång på 40 år, och denna omgång av AI-inducerade supercykler är större, varar längre, når sin topp och ligger långt ifrån toppen.
Nu kommer jag att förklara steg för steg baserat på produktionskapacitetsmodellen och en helhetsanalys av efterfrågan:
Minnesindustrin har länge betraktats som en cyklisk industri, och minnesindustrin har haft en klassisk cykel vart 3-4:e år i mer än ett decennium: överutbud→ prisfall som rasar→ tillverkare som skär ner/fördröjer produktionsexpansionen→ brist→ prisökningar som skjuter i höjden→ galen expansion → överskott. Men förra gången intensiteten var jämförbar med dagens "prisfördubbling + skenande bruttovinstmarginaler" spårades tillbaka till DRAM-bristen under mitten till slutet av 1980-talet, vilket direkt skapade den globala hegemonin för koreanska fabriker som Samsung.
Skillnaden i denna omgång ligger i roten: inte efterfrågeåterhämtningen, utan den explosiva, hållbara och oförutsägbara efterfrågan på AI-infrastruktur. Training + inferens kräver massiv HBM som den lokala cachen för GPU/accelerator, och minnesintensiteten per system har visat ett icke-linjärt hopp, liknande PC-eran, smartphone-eran och molneran, men volymen och brantheten är mycket större än tidigare. HBM-produktionen är starkt oligopol (SK Hynix står för 50–60 % andel, Samsung + Micron delar överskottet), flaskhalsar i avancerad förpackning (TSV + CoWoS-klass), avkastningsökningar och utrustningsleveranscykler är flera år, vilket resulterar i en allvarlig obalans i leveransen från 2026 till 2027 även om tillverkarna satsar all-in.
Resultatet är att priserna har "fördubblats igen" under många kvartal i rad, och vi är inte ens nära toppen.
På finansiell nivå inledde de tre stora minnesfabrikerna ett historiskt vinstfönster:
- SK hynix: HBM har varit sålt fram till 2026, vilket ger prioritet till högmarginal-HBM, och vanlig DRAM är också en bristvara på grund av AI-serverförträngning, med en ökning som till och med överstiger HBM, och intäkter/vinst/bruttovinstmarginal 2026 förväntas överträffa förväntningarna.
- Samsung: HBM-aktier ligger efter, men den totala DRAM/NAND-volymen är enorm, och den samtidiga ökningen av traditionella DRAM-priser har gett "vindfall" och det mest stabila kassaflödet.
- Micron: HBM:s framsteg går långsammare men lågt bas + amerikanskt policystöd, med störst elasticitet, och bristen på vanlig DRAM gynnas också.
ROIC för hela branschen har skjutit i höjden, även om kapitalutgifterna är höga, täcks den av ultrahög bruttovinst, och bruttovinstmarginalen kan återgå till 50%+ eller till och med högre under vissa kvartal, vilket helt bryter marknadens traditionella ankare med "bruttovinstmarginal för cykliska aktier på 20–30%".
Efter 2027 kan det snabbt förvandlas till ett överskott, liknande minneskroten i slutet av 2017–2018, med halverade priser, rasande bruttovinstmarginaler och till och med förluster. Men det finns ännu inga tecken på detta, efterfrågan på datorkraft är oändlig, och de försöker uppnå Agi, och det har ännu inte gått in i den tid då alla är AI, precis som när Apple kom ut innan alla hade en mobiltelefon.
Detta är en "en gång på 40 år"-minnessupercykel av AI-detonation och extrem styvhet i tillgången, 2026 är fortfarande en stigande fas med dubbelklick på pris och vinst, SK Hynix är mest elastisk, Micron är mest överraskad, Samsung är mest stabil, men hög bruttovinst är dömd att bli ohållbar, när AI-kapital minskar marginellt eller teknikkonsumtionen minskar, kommer cykelvändningen att komma snabbare och mer drastisk än marknadens förväntan.
I denna nya tillväxtcykel ska vi gå igenom hur de två oligarkerna idag reste sig från den förra cykeln och fortsatte att utvecklas fram till idag:
På 1980-talet kan Samsungs uppgång inom DRAM-området kallas den mest klassiska "senkomar-motattacken" i halvledarhistorien.
Vid den tiden var den globala DRAM-marknaden i princip monopoliserad av USA och Japan: USA hade pionjärer som Intel och Micron, och Japan hade jättar som NEC, Toshiba, Hitachi, Fujitsu med flera, och i mitten av 1980-talet hade Japan en gång upptagit nästan 80 % av den globala DRAM-marknaden.
Vid den tiden var Samsung bara en koreansk chaebol som sålde elektronik, TV-apparater och kylskåp, och halvledarbranschen hade precis börjat. 1983 beslutade Lee Byung-cheol (grundare av Samsung) att satsa på halvledare och investerade kraftigt i fabriksbyggande, och den första produkten var 64K DRAM – vilket redan var mainstream-kapacitet vid den tiden, men Samsungs teknik byggde i princip på licensiering, reverse engineering och tjuvjakt (inklusive know-how lärt sig från Micron i USA och japanska företag).
Från 1983 till 1986, efter Samsungs 64K och efterföljande 256K DRAM-massproduktion, var marknaden på en låg nivå (priset sjönk från några dollar till tiotals cent), men produktionskostnaden var hög (Samsung 64K kostade 1,3 dollar per styck) och den drabbades av stora förluster under flera år i rad. I slutet av 1986 hade Samsung Semiconductor förlorat en kumulativ förlust på 300 miljoner dollar, och dess eget kapital var nästan uttömt, på gränsen till konkurs.
I mitten av 1980-talet exploderade handelskriget mellan USA och Japan + Japans avtal om att begränsa produktionen + efterfrågan på PC, vilket skapade ett "en gång på 40 år"-fönster för extrema brister och prisökningar i DRAM:s historia. Samsung förlitade sig på Sydkoreas nationella styrka, motcykliska frenesi för att utöka produktionen, ta övertag av marknadsgapet som Japan lämnat och motanfalla från en liten teknisk efterföljare för att bli en global minneshegemon på bara 7–8 år, och lade grunden för dagens Samsung-halvledarimperium.
Denna berättelse liknar mycket den nuvarande AI-minnessupercykeln: strukturell brist + oligopolens utbudsrigiditet + efterfrågeexplosion, vilket ofta skapar en stor explosion av sena eller befintliga aktörer, men det åtföljs också av risken för stora förluster och en knivsegg av cykelvändning. Därför, med tanke på Kinas AI-landningsmarknad, efterfrågan på datorkraftstokens exporterade utomlands med mera, kanske Changxin Yangtze-floden också har en chans att bli en stor vinnare genom att förlita sig på denna cykel!

689
Fan, @sanchitmonga22 RunAnywhereAI-teamet kom på MetalRT på 48 timmar, vilket direkt torkade avkodningshastigheten för LLM:er på Apple Silicon till en ny nivå, med samma 4-bitarsmodell på M4 Max, Qwen3-0,6B körs på 658 tok/s, LFM 2,5-1,2B 570 tok/s, och den första token tar bara 6,6 ms.
Jämfört med samma dokument är Apples egen MLX 19 %, hammer llama.cpp genomsnittet är 67 %, för att inte tala om Uzu och Ollama, som ligger efter överlag.
Apples Apple Intelligence har alltid ropat lokal prioritet, men hårdvarupotentialen slösas faktiskt bort på olika ramverksbegränsningar, vilket motsvarar att vara förseglad; MetalRT ska direkt attackera Metal API, skära bort den röriga överhuvudet från Python-lagret och abstraktionslagret, och anpassa det för enhetligt minne + GPU för att pressa ut denna våg av extrem prestanda.
Det verkliga värdet av den lokala modellen är aldrig "bara kör om du kan", utan den går tillräckligt snabbt, ekonomiskt och tillräckligt privat för att verkligen ersätta molnet. 6,6 ms första token betyder chatt, röst, kodtillägg och agentsamtal JSON utan dröjsmål; Höga tok/s kan utöka kontexten, multiverktygsparallellism och undvika störning. I kombination med noll nätverk, inga prenumerationer och data som aldrig lämnar enheten, är detta hur produktivitetsnivå lokal AI bör se ut.
Snabbare är inte att visa upp tok/s-siffror, utan att låta den lilla modellen direkt slå responsupplevelsen från molnmodellen på Apples enheter. Apples AI på enheten är tänkt att spelas så här, och nu har den verkligen börjat accelerera. Apple sitter verkligen hemma, open source-communityn bygger för att öppna Pandoras ask, lokal AI är för bekväm, jag hoppas bara att mer intelligenta modeller dyker upp.

1,16K
Topp
Rankning
Favoriter
