Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

常为希 🔸🚢币安人生(Ai奇点)
Semplice e complesso Dove la roccia si ferma, dove 🌱 l'acqua scorre DYOR Fai le tue ricerche | NFA non offre consigli finanziari
🚨 Notizia clamorosa! La crisi della memoria AI ha strappato via i pantaloni di Apple!——
La configurazione con 512GB di memoria del Mac Studio è stata ufficialmente ritirata!
Attenzione ai giocatori locali di AI e agli utenti intensivi di Apple!🍎
Apple ha silenziosamente eliminato l'opzione di memoria unificata da 512GB per il Mac Studio (M3 Ultra)! Ora sul sito ufficiale si può configurare solo fino a 256GB.
L'opzione da 512GB non c'è più
I costi per l'upgrade a 256GB sono schizzati alle stelle (negli USA da $1600 a $2000, in Cina direttamente +15.000 RMB)
Le consegne delle configurazioni alte sono già programmate per dopo maggio.
La cosa interessante non è "costoso", ma "non è più disponibile". Apple è più astuta di quanto pensi: non ha bisogno di aumentare i prezzi in modo eclatante, ha semplicemente ritirato la configurazione top, risparmiando tempo e mantenendo un profilo basso, senza pressione mediatica.
La causa principale è che la catena di approvvigionamento globale è in crisi: i chip di memoria DRAM sono gravemente scarsi, tutti rubati dall'AI!
I data center AI stanno divorando la capacità di HBM e DRAM, e i giocatori locali che eseguono modelli di grandi dimensioni e agenti AI stanno anche cercando dispositivi con alta memoria. Il Mac Studio, con il suo enorme pool di memoria unificata + il framework MLX, è diventato l'arma più potente per eseguire modelli open source cinesi come DeepSeek, Qwen, Llama, con una domanda esplosiva.
Per noi che ci teniamo a un'implementazione locale:
Chi ha già comprato il 512GB: ha fatto un affare! Ora è difficile trovarne uno, anche il prezzo dell'usato è aumentato😂
Chi vuole acquistarlo ora: il budget e la pazienza devono raddoppiare, questa carenza di hardware probabilmente continuerà fino al 2027.
E la cosa più dura è: il sogno di 1TB sull'M5 Ultra può aspettare.
Questa è la più grande ironia——
L'AI può eseguire modelli con centinaia di miliardi di parametri sul tuo Mac, ma prima ti ha bloccato l'acquisto del Mac top di gamma.
Quindi non chiedere "posso ancora comprare un Mac con alta memoria",
dovresti chiedere "quando l'AI ha completamente esaurito la configurazione che desideri".
Come state attualmente eseguendo i grandi modelli localmente?
- Mac Studio come principale?
- Server con schede grafiche NVIDIA?
- O state semplicemente sopravvivendo con il cloud?
#AIlocale #MacStudio #implementazionedeigrandimodelli #carenzaAIhardware #carenzaDRAM #DeepSeek #Qwen #frameworkMLX

99
🚨 Allerta di un vero e proprio dramma: un neofita di OpenClaw ha visto la sua carta di credito esplodere, e dietro ci sono decine di migliaia di sviluppatori che stanno cadendo in un enorme tranello!\n\nHo visto amici usare il lobster, e pochi giorni fa ho ricevuto un messaggio dalla banca: il limite della mia carta di credito è stato completamente esaurito!\nControllando i log, ho scoperto che il colpevole era proprio OpenClaw, che avevo appena implementato qualche giorno fa.\n\nHa scritto uno script di automazione con OpenClaw e ha esposto il browser Chrome al pubblico tramite noVNC (la porta è stata mappata direttamente), pensando di fare il debug remoto dell'automazione del browser. E il risultato? I metodi di pagamento salvati in Chrome, i cookie, le informazioni di carta di credito autofill, sono diventati un "bancomat" pubblico. Gli aggressori hanno trovato questo istanza VNC esposta e in pochi minuti hanno esaurito la carta.\n\nNon è un caso isolato, è un disastro sistemico di sicurezza.\n\nOpenClaw (incluso il suo ingresso nel browser sandbox) ha come comportamento predefinito quello di legare il servizio a 0.0.0.0 (tutte le interfacce di rete), e in più, le versioni precedenti di x11vnc hanno addirittura usato -nopw (senza autenticazione!). Se quando esegui docker run non aggiungi --network host o non limiti esplicitamente la pubblicazione, stai praticamente esponendo l'intero desktop del browser al pubblico.\n\nCi sono già avvisi di sicurezza su GitHub (GHSA-25gx-x37c-7pph), il server host di Canvas ha anche 0.0.0.0 come predefinito senza autenticazione, e recentemente la ricerca di sicurezza ha scoperto oltre 220.000 istanze di OpenClaw esposte. I hacker possono cercare con Shodan e gli istanze con sessioni del browser diventano in un attimo delle "macchine zombie" — Chrome che ha memorizzato informazioni di pagamento è ancora più letale.\n\nDalla prima volta che ho implementato qualsiasi strumento Agent, ho stabilito una regola ferrea:\n\nNon lasciare mai che un servizio ascolti su 0.0.0.0!\n\nLa postura corretta (consiglio vivamente di copiare e incollare):\n```bash\n# 1. Quando avvii il servizio, costringilo a legarsi solo localmente\n--listen 127.0.0.1 # oppure modifica bindHost in 127.0.0.1 nel config\n\n# 2. Non usare mai mappature di porte in chiaro, usa un tunnel crittografato\nssh -L 5900:127.0.0.1:5900 user@your-server # tunnel VNC\n# oppure in modo più elegante:\n# Tailscale / WireGuard / Cloudflare Tunnel / frp (crittografia + zero trust)\n\n# 3. Firewall + comandi di auto-verifica (da eseguire ogni giorno)\nss -tlnp | grep -E '5900|9090|18789' # controlla se ci sono 0.0.0.0\nufw deny 5900 # blocca direttamente il pubblico\n```\n\nTre ulteriori misure di protezione hardcore (99% delle persone non le attua):\n1. Non salvare mai le carte di credito in Chrome, usa carte virtuali o inserisci manualmente (Bitwarden + autofill solo in locale).\n2. VNC deve avere una password obbligatoria ( -rfbauth) + cambiare in un canale crittografato WebSocket.\n3. Prima di implementare qualsiasi AI Agent, esegui una scansione di sicurezza: `nmap -p- il tuo IP` + `docker ps` per controllare le porte.\n\nQuesto evento mi ha fatto capire completamente: il maggiore rischio di sicurezza del 2026 non è quanto sia intelligente l'AI, ma quanto gli sviluppatori considerino "locale" come "sicuro".\n\nOpenClaw, per quanto potente, non può proteggerti da un errore su 0.0.0.0.\n\nCondividi con tutti gli amici che stanno usando Agent, VNC, automazione del browser —\nControlla i tuoi porti stasera!\n\nQuando hai implementato OpenClaw, hai anche impostato per caso 0.0.0.0? Dicci nei commenti la tua postura di protezione, selezionerò le migliori e le organizzerò in una raccolta preziosa da pubblicare.\n\nLa sicurezza prima di tutto, il codice in secondo luogo. Non lasciare che la prossima volta a essere esaurita sia la tua carta.🔒🦞\n\n#sicurezza informatica #OpenClaw #sicurezza VNC #sicurezza AI Agent #implementazione zero trust
1,15K
Il mercato della memoria si trova in una "carenza strutturale estrema che si verifica ogni 40 anni", e questo ciclo superato dall'AI è più grande, dura di più e raggiunge picchi più alti, ed è ancora lontano dal suo apice.
Ora spiegherò passo dopo passo in base al modello di capacità fab-by-fab e alla scomposizione della domanda end-to-end:
L'industria della memoria è stata a lungo considerata un'industria ciclica; negli ultimi dieci anni, l'industria della memoria ha avuto un ciclo classico ogni 3-4 anni: offerta eccessiva → crollo dei prezzi → riduzione della produzione / ritardo nell'espansione → carenza → impennata dei prezzi → espansione folle → eccesso. Ma l'ultima volta che abbiamo visto una situazione di "prezzi che raddoppiano ripetutamente + margini di profitto che schizzano" paragonabile a quella di oggi risale alla carenza di DRAM della metà degli anni '80, che ha direttamente portato alla posizione dominante globale di aziende coreane come Samsung.
La differenza in questo ciclo risiede nella causa: non è un rimbalzo della domanda, ma una domanda esplosiva, continua e difficile da prevedere per le infrastrutture AI, che può essere compresa in termini di analisi delle azioni come un aumento simultaneo di volume e prezzo. Sia l'addestramento che l'inferenza richiedono enormi quantità di HBM come cache locale ad alta velocità per GPU/acceleratori, l'intensità della memoria (memory intensity per sistema) ha mostrato un salto non lineare, simile all'era dei PC, all'era degli smartphone e all'era del cloud, ma con dimensioni e pendenza molto superiori rispetto al passato. La produzione di HBM è altamente oligopolistica (SK Hynix detiene il 50-60% della quota, Samsung e Micron si dividono il resto), i colli di bottiglia dell'imballaggio avanzato (TSV + CoWoS) e l'aumento dei tassi di rendimento, insieme ai lunghi tempi di consegna delle attrezzature che possono durare anni, portano a una grave disuguaglianza dell'offerta anche se i produttori si impegnano al massimo; nel 2026-2027, l'offerta sarà ancora gravemente sbilanciata.
Il risultato è che i prezzi sono aumentati per diversi trimestri consecutivi, "raddoppiando di nuovo", e non siamo nemmeno vicini al picco.
A livello finanziario, i tre principali produttori di memoria stanno vivendo una finestra di profitto storica:
- SK Hynix: l'HBM è già esaurito fino al 2026, si sta concentrando prioritariamente sull'HBM ad alta redditività, mentre il DRAM normale è in carenza a causa della domanda dei server AI, con aumenti che superano persino quelli dell'HBM; nel 2026, i ricavi / profitti / margini di profitto potrebbero superare le aspettative.
- Samsung: la quota di HBM è in ritardo, ma l'intero volume di DRAM/NAND è enorme; l'impennata dei prezzi del DRAM tradizionale porta a "guadagni inaspettati", con flussi di cassa molto stabili.
- Micron: i progressi nell'HBM sono lenti, ma con una base bassa e il supporto delle politiche americane, ha la massima elasticità; anche la carenza di DRAM normale ne trae beneficio.
L'intero settore sta vedendo un'impennata del ROIC; sebbene le spese in conto capitale siano elevate, sono coperte da margini di profitto estremamente elevati, e in alcuni trimestri i margini di profitto potrebbero tornare al 50%+ o addirittura più alti, rompendo completamente l'ancoraggio tradizionale del mercato sui "margini di profitto delle azioni cicliche del 20-30%".
Dopo il 2027, potrebbe rapidamente trasformarsi in eccesso, simile al crollo della memoria della fine del 2017-2018, con prezzi dimezzati, margini di profitto in caduta libera e persino perdite. Tuttavia, al momento non vediamo questo segnale; la domanda di potenza di calcolo è infinita, tutti stanno cercando di realizzare l'Agi, e non siamo ancora entrati nell'era in cui tutti hanno l'AI, proprio come quando Apple è emersa e non tutti avevano ancora un telefono.
Questo è un super ciclo della memoria "40 anni una volta" innescato dall'AI, e il 2026 rimane una fase di esplosione dei prezzi e dei profitti; SK Hynix ha la massima elasticità, Micron è il più sorprendente, Samsung è il più stabile, ma i margini di profitto elevati non possono essere sostenuti; una volta che la spesa in conto capitale dell'AI rallenta o la tecnologia riduce i costi, il ciclo di inversione arriverà più velocemente e in modo più drammatico di quanto il mercato si aspetti.
In questo nuovo ciclo di crescita, rivediamo come i due oligopoli di oggi siano emersi e si siano sviluppati durante l'ultimo ciclo:
Negli anni '80, l'ascesa di Samsung nel campo del DRAM è considerata la storia di "un inseguitore che ribalta le sorti" più classica nella storia dei semiconduttori.
All'epoca, il mercato globale del DRAM era praticamente monopolizzato da Stati Uniti e Giappone: gli Stati Uniti avevano pionieri come Intel e Micron, mentre il Giappone aveva giganti come NEC, Toshiba, Hitachi e Fujitsu; fino alla metà degli anni '80, il Giappone deteneva quasi l'80% del mercato globale del DRAM, e la guerra dei prezzi e il vantaggio tecnologico li avevano quasi esclusi dal business della memoria mainstream.
Samsung era allora solo un conglomerato coreano (chaebol) che vendeva elettrodomestici, televisori e frigoriferi, e il suo business dei semiconduttori era appena iniziato. Nel 1983, Lee Byung-chul (il fondatore di Samsung) decise di entrare nel settore dei semiconduttori, investendo pesantemente nella costruzione di impianti; il primo prodotto fu il 64K DRAM, che all'epoca era già una capacità mainstream, ma la tecnologia di Samsung si basava principalmente sull'acquisto di licenze, ingegneria inversa e assunzione di talenti (incluso il know-how appreso da Micron negli Stati Uniti e da aziende giapponesi).
Dal 1983 al 1986, dopo la produzione di massa del 64K e del successivo 256K DRAM, il mercato si trovava in un periodo di bassa (i prezzi erano crollati da diversi dollari a poche decine di centesimi per chip), ma i costi di produzione erano elevati (il costo del 64K di Samsung era arrivato a 1,3 dollari/chip), con perdite enormi per diversi anni. Alla fine del 1986, Samsung aveva accumulato perdite di 300 milioni di dollari, e il capitale azionario era quasi esaurito, avvicinandosi al fallimento.
A metà degli anni '80, la guerra commerciale tra Stati Uniti e Giappone + l'accordo giapponese per limitare la produzione + l'esplosione della domanda di PC hanno creato una "carenza estrema che si verifica ogni 40 anni" e una finestra di impennata dei prezzi nella storia del DRAM. Samsung, con il supporto dell'intero paese coreano, ha bruciato denaro in modo folle per espandere la produzione in un ciclo inverso, cogliendo l'opportunità di mercato lasciata libera dal Giappone; in pochi anni, da un semplice seguace tecnologico, è riuscita a diventare il leader globale della memoria, ponendo le basi per l'impero dei semiconduttori di Samsung di oggi.
Questa storia è molto simile al super ciclo della memoria AI attuale: carenza strutturale + rigidità dell'offerta oligopolistica + esplosione della domanda, che spesso porta a esplosioni per i nuovi arrivati o per i giocatori già esistenti, ma comporta anche enormi rischi di perdite e inversioni cicliche. Quindi, di fronte alla situazione del mercato dell'AI in Cina, alla domanda di token di potenza di calcolo che si sposta all'estero, ecc., forse Changxin e Yangtze hanno anche l'opportunità di diventare grandi vincitori in questo ciclo!

776
Principali
Ranking
Preferiti
