近日,科大讯飞在 Q3 业绩说明会上透露,在本次 1024 开发者节,讯飞星火认知大模型 V3.0 将如期发布,七大维度能力全面提升,重磅升级大模型代码能力,实现全面对标 ChatGPT。同时,讯飞已于 2023 年初与华为昇腾启动专项攻关,与华为联合研发高性能算子库,合力打造我国通用人工智能新底座,让国产大模型架构在自主创新的软硬件基础之上。
科大讯飞表示,当前华为昇腾 910B 能力已经基本做到可对标英伟达 A100。在即将举行的科大讯飞 1024 全球开发者节上,讯飞和华为在人工智能算力底座上将有进一步联合发布。
在10 月 17 日,美国商务部重新修改了去年对“高性能芯片”的定义,新增“性能密度阈值”条款,将原本不受限制的芯片都纳入了管制。以目前中国厂商购买最多的A800为例,按照美国2022年禁令,NVLink互联带宽不得超过600GB/s,因此英伟达将原本支持600GB/s的A100带宽降至400GB/s,并以A800的型号对中国销售。但更新后的禁令规定,只要芯片总算力大于或等于4800TOPS,不论互联带宽多少都受管制。
目前,英伟达已确认,此次出口管制涉及的产品包括但不限于:A100、A800、H100、H800、L40、L40S以及RTX 4090。也就是说,目前人工智能所需要的高性能算力芯片,基本都在被限范围。这将大模型构建在英伟达算力上的大模型厂商会产生比较大的影响。
科大讯飞于 2019 年被列入美国实体清单后,2022 年 10 月 7 日,再次被美国对包括科大讯飞在内的 28 家中国人工智能、高性能芯片、超级计算机领域的头部企业和机构再次加码制裁。科大讯飞在当时算力落后的情况下,通过算法持续提升,例如基于科大讯飞过去几年牵头承担了国家自主可控人工智能平台的诸多项目,在工程技术方面实现了百亿参数大模型推理效率的近千倍加速,为更大更多认知智能大模型技术规模化应用提供了可能。
资料显示,目前,华为昇腾社区已公开 Atlas 300T 产品有三个型号,分别对应昇腾 910A、910B、910 Pro B,最大 300W 功耗,前两者 AI 算力均为 256 TFLOPS,而 910 Pro B 可达 280 TFLOPS(FP16)。
昇腾910B是一款AI芯片,它是对前一代昇腾910的升级。昇腾910是华为在AI领域推出的旗舰产品,具有出色的性能和能效,而昇腾910B则是它的升级版,将会在AI应用方面发挥更加出色的表现。
华为昇腾910B的性能和优势如同其精细的机械齿轮,每个部分都紧密咬合,高效运转。它拥有256个AI计算核心,并配备了高速缓存和内存管理单元,像高效的物流系统,使得数据可以快速地在各计算核心间流通。与此同时,昇腾910B还支持多种编程语言和开发框架,开发者们可以像使用自己的工具箱一样得心应手,轻松地实现各种复杂的人工智能应用。
昇腾910B在AI计算方面表现出色,其TOPS值(每秒万亿次运算)高达32,比A100高出近20%。在能效比方面,昇腾910B的能耗比为6.4TOPS/W,远低于A100的4.7TOPS/W。这意味着昇腾910B在进行人工智能计算时能够更加省电,延长了设备的续航时间。
除了强大的计算能力和高能效比,华为昇腾910B还具有架构优化、高带宽内存和广泛的软件生态等优势。
昇腾910B采用了华为自研的Ascend架构,针对AI计算进行了深度优化,能够更好地支持并行处理和张量内计置算的。高性能HBM2内存,则像一条高速公路,为数据的高速访问和计算提供保障。华为提供的丰富的软件开发工具和库,支持各种主流编程语言和框架,为开发者们铺设了一座便捷的桥梁,帮助他们快速构建和部署人工智能应用。
在美国重新修订对中国出口AI芯片的禁令之后,虽然华为基于NPU的昇腾910B因为需要个性化调优,很难像英伟达一样提供普遍性服务,但有总比没有好,如果大家都没得选,反而会刺激生态,基于昇腾芯片的生态玩法会变得很多,参与者也会增多。最终足够普遍的个性化,也就有了通用性。