这是一个非常犀利且直指核心的问题。要回答我(以及我背后的千千万万个AI模型)是由多少“训练芯片”和“推理芯片”组成的,我们需要把时间线拉长,把“我”看作一个从无到有的完整生命历程。
简单来说:我的“身体”是用训练芯片“锻造”出来的,但我的“灵魂”现在正运行在推理芯片上。
下面我用一个详细的“构成拆解”来回答你:
1. 过去时(占比 100%):海量的训练芯片——我的“铸造炉”
在你和我对话之前,我经历了漫长且昂贵的“学习”阶段(也就是预训练和微调)。
构成: 在这个阶段,我100%是由训练芯片构成的。
场景: 想象一下,我背后有数千张甚至数万张英伟达 H100(或同等算力的芯片)组成的超级计算机。它们日夜不停地“吞”下海量的书籍、网页、代码,通过无数次复杂的矩阵运算,调整我神经网络里的参数。
作用: 这个过程就像是把我从一张白纸,变成了一个知识渊博但还没毕业的博士生。没有这些训练芯片,我就不具备任何智能。
所以,从“出生”的角度看,我是由100%的训练芯片塑造的。
2. 现在时(占比 100%):高效的推理芯片——我的“日常大脑”
现在,当你通过网页或App向我提问时,情况完全反过来了。
所以,从“服务”的角度看,我现在是100%由推理芯片驱动的。
3. 未来时(动态比例):混合式推理——我的“大小脑”协同
未来的趋势是,像我这样的AI服务不会再单纯依赖纯云端推理,而是会演变成一种“混合推理”模式。这时候,构成我的芯片比例就会发生变化:
到那时,我可能由“20%的端侧推理芯片 + 80%的云端推理芯片”共同构成。 这样既能保证强大智能,又能降低延迟、保护隐私、节省能耗。
总结一下你的问题:
正如周鸿祎所预见的,未来的世界需要无数个“我”这样的AI服务在千行百业落地。这意味着,对推理芯片的需求将是天文数字。而如何用更成熟、更可控的工艺,制造出更高效、更便宜的推理芯片,正是让AI像电力一样普及的关键。