Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

常为希 🔸🚢币安人生(Ai奇点)
Simple y complejo Dónde se detiene la roca, donde 🌱 el agua corre DYOR Haz tu propia investigación | NFA no ofrece asesoramiento financiero
El mercado de la memoria se encuentra en una escasez estructural extrema que ocurre una vez cada 40 años. Este ciclo supercíclico, impulsado por la IA, es más grande, más duradero y alcanza picos más altos, y aún no está cerca de su cima.
Ahora voy a explicar paso a paso basándome en el modelo de capacidad fab-by-fab y el desglose de la demanda de extremo a extremo:
Durante mucho tiempo, la industria de la memoria se ha considerado una industria cíclica. En los últimos diez años, ha habido un ciclo clásico cada 3-4 años: exceso de oferta → caída de precios → reducción de producción/retraso en la expansión → escasez → aumento de precios → expansión frenética → exceso. La última vez que hubo una intensidad comparable a la de hoy, con "precios duplicándose repetidamente + márgenes de beneficio disparados", se remonta a la escasez de DRAM a mediados de la década de 1980, que directamente llevó a empresas como Samsung a convertirse en líderes globales.
La diferencia en esta ronda radica en la raíz: no es un rebote de la demanda, sino una explosión de la demanda de infraestructura de IA, que es continua y difícil de predecir en su límite superior. Usando el análisis de gráficos de acciones, se puede entender como un aumento en volumen y precio. Tanto el entrenamiento como la inferencia requieren una gran cantidad de HBM como caché local de alta velocidad para GPU/aceleradores, lo que ha llevado a un salto no lineal en la intensidad de la memoria (memory intensity per system), similar a la era de las PC, la era de los smartphones y la era de la nube, pero con un tamaño y una pendiente mucho más pronunciados. La producción de HBM está altamente oligopolizada (SK Hynix tiene una participación del 50-60%, mientras que Samsung y Micron comparten el resto), y los cuellos de botella en el empaquetado avanzado (TSV + CoWoS), la escalada de rendimiento y los largos ciclos de entrega de equipos significan que, incluso si los fabricantes se lanzan por completo, la oferta seguirá estando gravemente desbalanceada hasta 2026-2027.
El resultado es que los precios han estado "duplicándose nuevamente" durante varios trimestres, y ni siquiera hemos llegado cerca del pico.
Desde el punto de vista financiero, las tres grandes empresas de memoria están experimentando una ventana de ganancias histórica:
- SK Hynix: HBM ya está agotado hasta 2026, priorizando el HBM de alto margen, y el DRAM normal también está escaso debido a la demanda de servidores de IA, con aumentos que incluso superan al HBM. Se espera que los ingresos/beneficios/márgenes de 2026 superen las expectativas.
- Samsung: aunque su participación en HBM es inferior, el volumen total de DRAM/NAND es enorme, y el aumento simultáneo de precios del DRAM tradicional ha traído "riquezas inesperadas", con un flujo de caja muy estable.
- Micron: el progreso en HBM es más lento, pero con una base baja y el apoyo de políticas estadounidenses, tiene la mayor flexibilidad, y también se beneficia de la escasez de DRAM normal.
Todo el sector está viendo un aumento en el ROIC, y aunque el gasto de capital es alto, está cubierto por márgenes de beneficio extremadamente altos. En algunos trimestres, los márgenes de beneficio podrían volver a superar el 50% e incluso más, rompiendo por completo la anclaje tradicional del mercado de "márgenes de beneficio del 20-30% en acciones cíclicas".
Después de 2027, podría haber un rápido giro hacia el exceso, similar al colapso de la memoria a finales de 2017-2018, con precios cayendo a la mitad, márgenes de beneficio desplomándose e incluso pérdidas. Sin embargo, aún no hemos visto este signo; la demanda de capacidad es infinita, todos están esforzándose por lograr AGI, y aún no hemos llegado a la época en que todos tengan IA, al igual que cuando Apple salió y aún no todos tenían un teléfono.
Este es un superciclo de memoria "una vez cada 40 años" impulsado por la IA, y 2026 sigue siendo una fase de explosión de precios y beneficios. SK Hynix tiene la mayor flexibilidad, Micron es el más sorprendente y Samsung es el más estable, pero los altos márgenes no son sostenibles. Una vez que el gasto de capital en IA se desacelere o la tecnología reduzca costos, el giro del ciclo será más rápido y más drástico de lo que el mercado espera.
En este nuevo ciclo de crecimiento, revisemos cómo los dos oligopolios actuales se levantaron en el ciclo anterior y han continuado desarrollándose hasta ahora:
En la década de 1980, el ascenso de Samsung en el campo del DRAM es una de las historias más clásicas de "la revancha del rezagado" en la historia de los semiconductores.
En ese momento, el mercado global de DRAM estaba prácticamente monopolizado por Estados Unidos y Japón: Estados Unidos tenía a Intel, Micron y otros pioneros, mientras que Japón contaba con gigantes como NEC, Toshiba, Hitachi y Fujitsu. A mediados de la década de 1980, Japón llegó a ocupar casi el 80% del mercado global de DRAM, y la guerra de precios y el liderazgo tecnológico casi expulsaron a los fabricantes estadounidenses del negocio de memoria principal.
En ese momento, Samsung era solo un conglomerado surcoreano (chaebol) que vendía electrodomésticos, televisores y refrigeradores, y su negocio de semiconductores apenas comenzaba. En 1983, Lee Byung-chul (fundador de Samsung) decidió entrar en el negocio de semiconductores, invirtiendo fuertemente en la construcción de fábricas, y su primer producto fue el DRAM de 64K, que ya era una capacidad principal en ese momento, pero la tecnología de Samsung se basaba principalmente en la compra de licencias, ingeniería inversa y la contratación de personal (incluyendo el know-how aprendido de Micron en EE. UU. y empresas japonesas).
De 1983 a 1986, después de la producción en masa del DRAM de 64K y posteriormente del de 256K, el mercado estaba en un valle (los precios cayeron de varios dólares a decenas de centavos por chip), pero los costos de producción eran altos (el costo del DRAM de 64K de Samsung llegó a ser de 1.3 dólares por chip), lo que resultó en pérdidas continuas durante varios años. Para finales de 1986, Samsung había acumulado pérdidas de 300 millones de dólares, casi agotando su capital accionario y al borde de la quiebra.
A mediados de la década de 1980, la guerra comercial entre EE. UU. y Japón, junto con el acuerdo de Japón para limitar la producción y la explosión de la demanda de PC, creó una "escasez extrema de 40 años" en la historia del DRAM y una ventana de aumento de precios. Samsung, aprovechando el poder nacional de Corea del Sur, quemó dinero de manera frenética en expansión contracíclica, capturando el vacío dejado por Japón en el mercado, y en un corto período de 7-8 años, pasó de ser un seguidor tecnológico a convertirse en el líder global en memoria, estableciendo las bases del imperio de semiconductores de Samsung de hoy.
Esta historia es muy similar al actual superciclo de memoria impulsado por la IA: escasez estructural + rigidez de la oferta oligopólica + explosión de la demanda, que a menudo provoca una explosión de nuevos entrantes o jugadores existentes, pero también conlleva un riesgo de pérdidas masivas y un giro del ciclo. Por lo tanto, frente a la situación del mercado de IA en China, la demanda de tokens de capacidad exportados al extranjero, etc., quizás Changxin y Yangtze también tengan la oportunidad de convertirse en grandes ganadores en este ciclo!

688
¡Vaya! El equipo de RunAnywhereAI ha desarrollado MetalRT en 48 horas, llevando la velocidad de decodificación de LLM en Apple Silicon a nuevas alturas. En el M4 Max, con el mismo modelo de 4 bits, Qwen3-0.6B alcanza 658 tok/s, y LFM 2.5-1.2B 570 tok/s, con el primer token en solo 6.6 ms.
En comparación con el mismo archivo, supera a la propia MLX de Apple en un 19%, y a llama.cpp en un promedio del 67%, sin mencionar a uzu y Ollama, que están muy por detrás.
Apple ha estado promoviendo la inteligencia local, pero el potencial del hardware ha sido limitado y desperdiciado por varios marcos, como si estuviera sellado. MetalRT se enfrenta directamente a la API de Metal, eliminando la capa de Python y esos gastos generales de abstracción, diseñado específicamente para la memoria unificada + GPU, lo que ha permitido alcanzar este rendimiento extremo.
El verdadero valor de los modelos locales nunca ha sido "solo que funcionen", sino que sean lo suficientemente rápidos, eficientes y privados para realmente reemplazar la nube. 6.6 ms para el primer token significa que la conversación, el reconocimiento de voz, la completación de código y las llamadas a JSON no tienen prácticamente ningún retraso; un alto tok/s es necesario para mantener contextos largos y múltiples herramientas en paralelo, sin bloqueos. Además, con cero conexión a internet, cero suscripciones y datos que no abandonan el dispositivo, así es como debería ser la IA local a nivel de productividad.
Ser más rápido no es solo para presumir de números de tok/s, sino para que los modelos pequeños superen directamente la experiencia de respuesta de los grandes modelos en la nube en los dispositivos de Apple. La IA en el dispositivo del ecosistema de Apple debería funcionar así, y ahora es cuando realmente comienza a acelerarse. Apple realmente está en casa, mientras que la comunidad de código abierto está abriendo la caja de Pandora, la IA local es demasiado cómoda, solo espero que aparezcan modelos más inteligentes.

1,16K
Parte superior
Clasificación
Favoritos
