Hoy he simulado durante toda la noche el próximo chip GPU de próxima generación de NVIDIA, Feynman, que se lanzará el 16 de marzo, y he analizado las verdaderas intenciones de NVIDIA, recopilando un informe para los jefes. Informe profundo: "La transformación definitiva del poder de cálculo de IA - La transferencia del paradigma de 'luz, almacenamiento y cálculo' bajo la arquitectura Feynman" Fecha de publicación: 1 de marzo de 2026 Objetivos clave: $NVIDIA, $SK Hynix, #Samsung, $TSM 台积电, $AVGO 博通, #中际旭创, #新易盛 Tema de inversión: De "chip externo" a "empaquetado a nivel de sistema (SiP)" como un golpe de reducción dimensional Resumen del informe: Rompiendo los límites físicos en tres dimensiones En el contexto de la conferencia GTC de 2026, NVIDIA ha establecido oficialmente la trayectoria de evolución de Rubin (2026) a Feynman (2028). Su intención estratégica central es muy clara: a través de la apilamiento 3D (SoIC) y la tecnología de fotónica de silicio (CPO), forzar la "absorción" de las ganancias que originalmente pertenecían a la cadena de suministro (almacenamiento, red) dentro del empaquetado de GPU, logrando una transformación de proveedor de chips a "contratista de sistemas completos". I. Trayectoria de evolución de GPU de NVIDIA: de "miniaturización" a "apilamiento espacial" La evolución de la arquitectura de NVIDIA ha entrado en el juego físico de la "era post-Moore": Blackwell (2025): La última generación de empaquetado 2.5D, adaptándose principalmente a módulos ópticos extraíbles de 1.6T. Rubin (2026): El año del HBM4. Introducción del proceso mejorado de 3nm, intentando por primera vez la integración lógica en el Base Die (base). Feynman (2028): Forma definitiva. Utiliza el proceso A16 de TSMC (1.6nm) y alimentación por la parte trasera (BSPDN). Innovación clave: Apilar verticalmente SRAM (LPU Dies) sobre la GPU. Cambio de rol: La GPU ya no es solo una unidad de cálculo, sino un sistema independiente que incluye "autopista (CPO)" y "tanque de combustible de gran capacidad (3D SRAM)". II. Trayectoria de evolución del almacenamiento (HBM & SRAM): de "externo" a "simbiótico" 1. Evolución tecnológica y cambio de roles HBM4 (2026/2027): El ancho de banda de la interfaz se duplica de 1024-bit a 2048-bit. El cambio más crítico es la transferencia de poder del Base Die (base lógica). Las fábricas de almacenamiento (SK Hynix/Samsung) deben estar profundamente vinculadas a $TSM 台积电 para producir la base lógica de 5nm. 3D SRAM (2028): La arquitectura Feynman introduce LPU Dies. Este nivel de caché de alta capacidad (80-100 TB/s) asumirá el 70% del intercambio de datos de cálculo en tiempo real, haciendo que HBM pase de ser "memoria de acceso frecuente" a "tanque de fondo de alta capacidad". 2. Cálculo de oferta y demanda: agujero negro de EB bajo un crecimiento del 40% en GPU Con una tasa de crecimiento compuesta del 40% anual en GPU, sumando la duplicación de la capacidad de HBM por tarjeta (192G \rightarrow 288G \rightarrow 576G): Demanda de 3.63EB en 2026, oferta de 2.8EB, déficit del 22.9% ...