| 股市暴涨熔断:韩国人这次凭什么赢麻了? zt |
| 送交者: 2026年05月12日19:00:22 于 [世界军事论坛] 发送悄悄话 |
|
|
股市暴涨熔断:韩国人这次凭什么赢麻了?![]() 今天让全世界股民惊讶的一幕:韩国股市一开盘就暴涨。 韩国KOSPI 200指数期货上涨5%,触发熔断机制,程序化交易暂停5分钟。 韩国人一下赢麻了? ![]() 这就不得不说到,现在,连菜场的阿姨,都知道全世界的内存疯狂涨价。 PC内存、服务器内存、SSD,价格都在往上走。 有数据,2026年一季度部分DRAM合约价环比涨了近83%,部分NAND产品价格更是涨了约160%。 其中,DRAM是动态随机存取存储器,就是平时常见的内存、显存的底层存储芯片。 NAND,就是断电数据还在的U盘、固态硬盘的存储颗粒。 对普通消费者来说,这是一条“电子产品涨价降配”的新闻。 但在产业链里,它不只是这么看的。 真正的新闻是,韩国存储厂商把AI时代最关键的一条通道,抓在了手里。 这次韩国人赢麻了! ![]() 2026年一季度,老牌内存条厂商韩国SK海力士,交出了一份近乎离谱的成绩单:营收52.5763万亿韩元(合2471亿元人民币),营业利润37.6103万亿韩元(合1768亿元人民币),营业利润率72%。 综合KB证券、瑞银、交银国际等区间预测,SK海力士今年营收肯定破300万亿韩元了,净利润铁定超万亿人民币。 ![]() 这是什么概念? 华为2025年全球营收也只是8809亿元人民币。 最近,关于“SK海力士韩国员工人均奖金将达610万人民币”的消息在社交媒体疯传,韩国人已经被投资理财顾问盯上了。 这么一家重资产、强周期、曾经被视为“苦生意”的存储厂商,以一己之力改写了人类半导体历史的天花板。 凭什么? 事实上,它赚的不是普通DRAM周期的钱,而是AI时代的瓶颈税。 什么瓶颈? 不是普通DRAM,而是HBM(High Bandwidth Memory),即高带宽内存。 SK海力士在财报里说得很直白:业绩创纪录,是因为AI基础设施投资扩张,带动了HBM、高容量服务器DRAM和企业级SSD等高附加值产品销售。 路透的报道更刺眼:SK海力士HBM销售负责人在电话会上说,未来三年客户对HBM的供货需求,已经远远超过公司产能。 翻译一下,就是:不是客户在挑供应商,而是供应商在挑客户。 连英伟达也被卡着脖子了。 那到底什么是高带宽内存HBM呢? ![]() DRAM是动态随机存取存储器,是电脑、手机、服务器临时存数据的“工作台”。 DDR、LPDDR、GDDR、HBM,本质上都属于DRAM体系,只是为不同场景下修改了架构和封装。 ![]() 不得不提到一点,就是我们电脑里的CPU,擅长的是串行复杂任务,像一个超级学霸,但一次只能干一两个事。 而负责图形处理的GPU,像1万个小学生,专为海量任务的并行计算设计。 AI计算基本都是重复简单矩阵运算,完美适配GPU并行模式,比CPU快几十上百倍。 因此,做了一辈子显卡GPU的英伟达才有机会站到历史风口上。 GPU的计算单元这些年跑得更快,也更容易通过增加晶体管、Tensor Core、低精度计算、芯片面积和功耗来把性能堆上去。 但正是因为GPU跑太快了,在AI训练、推理和HPC(高性能计算)里,很多工作负载已经明显受制于内存容量、内存带宽、片间互连和数据搬运效率,也就是常说的“memory wall/内存墙”。 此前有种说法是,GPU有70%的时间在等数据。 有效算力能不能释放,越来越取决于数据供给,内存带宽就成了木桶最短的那块板。 我们可以把内存带宽想成高速公路的车流量。 频率像车速,位宽像车道数。 普通内存想提高带宽,通常靠提高车速;GDDR也是这个思路,车跑得越来越快。 但车速提到一定程度,就会遇到功耗、发热、信号完整性这些问题。 SK海力士主要HBM产品系列及参数HBM的作用,就不再只是拼车速,而是直接把路修宽。 它把多层DRAM芯片像楼房一样垂直堆起来,中间用TSV硅通孔打穿,把每一层连接起来,再通过先进封装和GPU计算芯片放在同一块中介层上。 像海力士现在最先进的HBM 4,可以堆叠12-16层。 这样做的结果是,HBM离GPU非常近,数据线非常多,传输距离非常短。 单个HBM堆栈的3D堆叠结构通俗讲,GPU像一排火力全开的厨师,HBM像厨房和餐桌之间的传菜口。 厨师再快,传菜口太窄,菜端不过来,后厨就只能站着等。 如果说传统内存像从城外仓库开卡车送货,HBM就像把仓库搬进后厨,并且开了几千个窗口同时传菜。 而为了工程上得以实现,HBM要和计算裸片一起设计、一起封装、一起验证,必须和GPU单元长在一块。 AI狂潮中,所有人盯着英伟达H100、H200、B200,盯着GPU的算力、晶体管、有多少TOPS。 可HBM的层数、带宽、功耗、散热、封装良率,会直接决定整颗AI芯片能不能量产、能不能稳定跑、能不能按时交给云厂商。 如果拆开一张高端AI加速卡,你会发现,GPU计算核心只是舞台中央的演员,围在它旁边的HBM,才是那条决定它能不能上场的供血管。 这就是“高带宽”的真实含义。 英伟达B200 GPU采用的CoWoS 2.5D封装结构示意图Epoch AI对英伟达B200的成本拆解估算显示,B200生产及物料成本约在5700至7300美元之间,中位数约6400美元;其中内存约占一半,HBM与先进封装合计约占总单位成本三分之二。 所以不夸张地说,英伟达的命,有一截握在韩国人手里。 AI产业的权力中心,正在发生一次关键迁移。 ![]() 韩国不是突然赢的。 把时间线拉长,你会发现,HBM这门生意,本来就是韩国存储工业几十年攒出来的结果。 存储行业有一个残酷特点:技术曲线很陡,赚钱周期很短,亏钱周期很长。 全球存储行业周期曲线(野村证券)这跟LCD显示行业特别像—— 输了,会亏到窒息。 赢了,才有资格进入下一轮。 韩国存储芯片产业的起点,是赤裸裸的技术引进+逆向工程。 1983年李秉哲拍板,从美国美光公司花300万美元购买了64K DRAM的全套技术图纸,然后拆解东芝的芯片进行逆向工程,挖了上百名日本工程师。 早年的现代电子,1984年从日本东芝引进256K DRAM技术,1999年在韩国政府强制要求下合并LG半导体,2012年才被SK集团收购,真正走上正轨。 成就今天SK海力士的关键一跃,是2021、2025年,先后两次交割,以90亿美元收购英特尔NAND业务,获得了3D NAND技术和大连工厂,从NAND小透明变成和三星同台争霸。 在存储芯片这个行业,产能和资本才是真正的护城河。 技术差距最多6-12个月,但产能差距可以是3-5年。 1997亚洲金融危机时,三星亏损30亿美元,裁员三分之一,但半导体研发预算一分不减,反而逆势扩产30%。 2008年全球金融危机,DRAM价格暴跌90%,德国奇梦达破产。三星再次逆势扩产,在2012年收购日本尔必达,日本彻底退出DRAM市场。 2022-2023年存储寒冬,SK海力士单季度亏损超40亿美元,但HBM产能不仅没减,反而翻倍。 而且,HBM最早并不是为AI准备的,它在高性能计算、图形和网络设备里已经演进多年。 SK海力士很早就参与HBM标准和量产路线,在HBM2、HBM2E、HBM3到HBM3E的迭代中不断提高堆叠层数、带宽和良率。 等2024年起AI需求集中爆发时,只有SK海力士有足够的HBM产能,紧密绑定英伟达这个大客户,直接赚翻了天。 SK海力士中国无锡工厂生产线全景。图源:SK海力士这背后,韩国财阀+国家信用共同背书的“无限弹药”模式,真的是吓人。 2016-2025年,三星和SK海力士在存储芯片领域的总资本开支超过5000亿美元,是同行美光+铠侠+西部数据总和的2.3倍。 2026年,SK海力士计划资本开支70万亿韩元(约3360亿人民币),其中70%用于HBM;三星资本开支120万亿韩元,其中50%用于存储板块。 其中重点包括M15X产线、龙仁半导体集群基础设施,以及EUV等关键设备。 CNBC援引Counterpoint数据称,2025年第四季度,SK海力士在HBM市场份额约57%,领先三星和美光。 这背后不是一场短跑,而是一场国运、资本、工程组织能力和客户协同的长跑。 SK海力士在过去经历了6次全行业巨亏,今年这是把15年的利润一把全赚回来。 ![]() ![]() 这件事对中国真正刺痛的地方在于: 我们习惯说芯片卡脖子,但HBM把“卡脖子”往更深处推进了一层。 即使有了GPU,如果没有高端HBM,AI芯片同样跑不满。 美国商务部BIS在2024年12月的新一轮出口管制里,明确把HBM纳入控制范围,并称HBM对大规模AI训练和推理至关重要,是先进计算IC的关键组件。 对手也知道刀口在哪里。 中国在普通DRAM上已经有长鑫存储这样的企业,虽然份额和技术代际仍在追赶,但至少解决了一部分“有没有”的问题。 HBM不同,它不是把DRAM颗粒做出来就完事,它要求DRAM、TSV、先进封装、热管理、测试、EDA和客户联合验证一起过关。 那怎么办? 还记得上个月,DeepSeek V4发布时,论文里那行“小字注释”吗? “受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市,Pro的价格会大幅下调。” 这句话信息量太大了。 在去年9月的华为全链接大会上,华为轮值董事长徐直军当时表示,华为自研了两种HBM,分别是HiBL 1.0和HiZQ 2.0,同时发布了灵衢/UnifiedBus协议。 他还说,基于中国可获得的芯片制造工艺,打造“超节点+集群”算力解决方案,持续满足算力需求。 这句话很工程,也很中国。 别人有最先进单芯片、最高端HBM、最成熟封装,我们没有完全同等的条件,就不能只在单点指标上硬碰硬。 ![]() 中国方案更像是在山路上开车:发动机排量不够,就要改变车队调度、路线设计、换挡节奏和油料补给。 华为的超节点思路,就是把更多芯片通过高带宽、低时延互联组织起来,让很多颗相对受限的芯片,在系统层面尽可能像一台大机器工作。 换句话说,没有先进光刻机,国内现在做不了高难度3D垂直堆叠的HBM,那就在平面上用成熟2.5D MCM/Chiplet平铺封装堆数量、堆位宽、堆总容量。 再靠自研内存控制器+灵衢互联协议+内存池化软件,把硬件物理上的带宽、延迟短板,用架构和软件强行补平。 内存颗粒逐步转向长鑫存储等国产供应商。 徐直军提到的Atlas 950超节点,预计今年四季度上市,就是国产DeepSeek v4大模型,心心念念在等的那个。 这听起来,多少有点悲壮。 中国AI算力的破局,不会是一夜之间把每个零件都做到全球第一,而是在被限制的工具箱里,把系统做到能跑、能用、能扩、能持续迭代。 先解决有没有,再解决好与坏。 先跑起来,再调速度。 这不是退让,是工业追赶里的基本纪律。 ![]() AI算力不是一颗芯片的胜利,而是一条供应链的合谋。 GPU负责算,HBM负责喂,封装负责把两者绑在一起,数据中心负责供电散热,网络负责把成千上万张卡连成一台巨大的机器。 任何一个环节卡住,整条链都会降速。 AI产业链可分为上游基础层、中游技术层、下游应用层以前我们说AI竞赛,容易把它想象成天才科学家、算法论文和大模型参数种种。 现在再看,它更像一场工业战争:谁有晶圆厂,谁有封装线,谁有HBM产能,谁有电,谁有机房,谁有调度十万张卡的工程能力。 韩国存储厂商这次赚疯了,本质上是在收取“带宽税”。 大模型公司再会讲故事,也要排队等算力。 云厂商再有钱,也要排队拿GPU。 英伟达再强,要排队买HBM。 结果,所有宏大的AI叙事,最后都落到一个朴素问题上:数据能不能及时送到计算核心旁边? 送不到,就只能等。 真正的卡脖子,从来不是一个零件,而是一套体系。 今天被卡在HBM,明天可能被卡在先进封装,后天可能被卡在光互联、EDA、材料…… 每步入一个新的窄门,技术权力就会发生迁移,我们就面临新的难点。 补短板不能只靠口号,也不能只靠单点突破。 它需要长期资本、耐心工程、真实需求牵引,以及一次次并不光鲜的量产爬坡。 韩国人用几十年证明了这一点。 AI时代最重要的资产,是能把数据、芯片、系统、软件和制造组织起来的超综合能力。 谁能把这件事做成,谁才真正握住AI的命门。 相比之下,美国人已经沉淀了一张半导体的全球供应链网络。 我们将凭一己之力独自完成。 道阻且长,行则将至。 ○正解局是头部的产业财经新媒体、专注于中国产业经济与城市发展研究的财经研究型内容智库机构,成立于2018年。正解局长期从产业视角分析城市竞争力、企业发展路径与宏观经济趋势,核心理念为“解读产业,发现价值”。 |
|
|
![]() |
![]() |
| 实用资讯 | |
|
|
| 一周点击热帖 | 更多>> |
| 一周回复热帖 |
| 历史上的今天:回复热帖 |
| 2025: | 中美达成关税协议,谁是赢家谁是输家 | |
| 2025: | 中美日内瓦经贸会谈联合声明 zt | |
| 2024: | 淮海战役的主要指挥者---再说粟裕 zt | |
| 2024: | 印度新德里旅遊體驗太炸裂了(:你敢來嗎 | |
| 2023: | 中国最新贸易数据,一场里程碑式的胜利 | |
| 2023: | “美国不愿亦不敢为了台湾而与中国大陆 | |
| 2022: | 美国各阶层已完全生活在“平行宇宙”里 | |
| 2022: | 翟东升最新演讲:俄乌冲突背景下的美元 | |
| 2021: | 中美GDP差距已缩小9000亿美元!中国:不 | |
| 2021: | 难道挖到了外星飞船?这几项德军的黑科 | |


正解局官方账号





SK海力士主要HBM产品系列及参数
单个HBM堆栈的3D堆叠结构
英伟达B200 GPU采用的CoWoS 2.5D封装结构示意图
全球存储行业周期曲线(野村证券)
SK海力士中国无锡工厂生产线全景。图源:SK海力士



AI产业链可分为上游基础层、中游技术层、下游应用层
