AI大模型的推理训练,最渴求的就是强劲的算力,可以来自CPU通用处理器,可以来自GPU加速器,可以来自ML/DL加速器,也可以是多种异构硬件的组合。
当下最火的当然是NVIDIA GPU加速器,但一花独放不是春,能够提供强劲算力硬件方案的厂商很多。
纵观整个AI江湖,唯一拥有【吃瓜网】 全套方案、可真正替代NVIDIA的,只能是 Intel:至强处理器、GPU Max、Gaudi加速器多管齐下,再加上强大丰富的 开发工具、开放生态的 开发平台,要啥有 啥,表现还相当不赖。
今年6月,机器学习与
人工智能开放产业联盟MLCommons公布了 AI性能基准测试MLPerf Training 3.0的 结果。结果显示,Intel四代至强内置的
各种加速器,使其成为在通用CPU处理器上运行大量AI工作负载的 理想方案,Gaudi2加速器则在生成式AI、LLM大语言模型方面有 着优秀的 性能。此外,Intel还提供了经过优化的、易于编程的开放软件,降低AI部署门槛。
8月份,MLCommons又公布了针对60亿参数大语言模型、计算机视觉与
自然语言处理模型GPT-J的 MLPerf 3.1基准测试结果,Intel的 表现依然 值得称道。其中在
GPT-J模型上,Gaudi2加速器的 GPT-J-99、GPT-J-99.9服务器查询和离线样本的 推理性能分别为78.58次/秒、84.08 次/秒。与竞品比较,Gaudi2相对于 NVIDIA上一代A100的 性能优势可达2.4倍(服务器)、2倍(离线),而最新一代的H100相对于 Gaudi2也 只有 1.09 倍(服务器)、1.28 倍(离线)的微弱优势。
同时,Intel四代至强在
视觉、语言处理、语音、音频翻译模型,以及更大的DLRM v2深度学习推荐模型、ChatGPT-J模型上处理通用AI负载时,性能都非常出色。比如使用GPT-J对大约1000-1500字新闻稿进行100字总结的
任务,四代至强在离线模式下每秒完成两段,实时服务器模式下则可完成每秒一段。此外,Intel还首次提交了
至强CPU Max处理器的 MLPerf测试结果,其集成最多64GB HBM3高带宽内存,对于GPT-J而言是唯一能够达到99.9%准确度的CPU,非常适合精度要求极高的应用。还有非常关键的一点:迄今为止,Intel是 唯一一个使用行业标准深度学习生态软件并公开提交CPU结果的厂商,Gaudi2是 仅有的 两个向GPT-3大模型训练基准提交性能结果的 解决方案之一。
那么,Intel Gaudi2加速器、至强处理器为何能在
AI算力上如此彪悍?Habana Labs中国区总经理于明扬做出了 详细解读。据介绍,MLPerf 3.1推理测试中,Gaudi2和 H100一样都采用了FP8精度,GPT-J测试结果非常令人满意,准确率高达99.9%,和 H100的 差距非常小。
这主要是因为Gaudi2 MME支持FP8、BF16精度加速,而且
结构设计合理,可以高效提升推理能力。同时,Gaudi2也
和 H100一样使用了 HBM高带宽内存,Intel也 很好地预测了 市场,并预估了额外的需求,因此基本保证了供应和 生产,可以满足市场需求,不像NVIDIA那么头疼产能。至于
A100,它并不支持FP8而仅支持FP16,所 以Gaudi2比之优势非常明显,这也 显示了 Gaudi2架构和 软件设计的 领先性,以及资源利用率的 高效性。非常关键的是,Intel Gaudi2的性价比优势明显,不像A100、H100那样动不动几十万一块,让中小企业和个人开发者望洋兴叹。
Intel也已经开放了开发者云,让不同客户可以访问不同的Intel AI硬件,大大降低AI工作成本。
除了硬件性能的比拼,Intel也在
软件生态上持续大力投入,虽然 暂时还做不到NVIDIA CUDA生态那样有 着 独一无二的 优势,但也 有自己的 突出特点。于明扬强调,在软件生态上,Intel一直主张开放,比如通过
开发者社区与开发者 互动,提供优化后的模型、开源驱动和 工具库,并支持Pytorch、Deepspeed等 开源框架,加入和维护开放生态,为客户、合作伙伴和 开发人员提供早期访问和便捷、迅速的 途径。Intel oneAPI也
能提供更为开放的 环境,支持不同层面的 定制化开发,Intel和 客户都可以在软件中添加新的加速算子,并且upstreaming到框架开源社区中。值得一提的是,在软件上CUDA的影响已经大大缩小,对整体开发和应用环境更加有利。
事实上,NVIDIA目前的强大只是GPU一条腿走路,CPU通用处理器是欠缺的。
虽然
NVIDIA也 开发了Grace CPU,并打造了 所 谓的“超级芯片”,可以将两颗Grace CPU或一颗Grace CPU加一颗H100 GPU进行整合,但毕竟是 基于 Arm架构,性能较弱,而且 缺乏通用性。Intel则凭借多管齐下的 多硬件组合,可以构建强大、灵活异构计算平台,从而支持更大的 模型规模,满足更广泛的系统需求。
于明扬指出,至强可扩展处理器有着最好的通用性,可以运行各种AI工作负载。
四代至强还衍生出了
的至强CPU Max系列,是行业唯一一款具有 HBM高带宽内存的 x86处理器,无需更改代码,即可加速多种HPC、AI工作负载。Gaudi系列加速器则专注于机器学习、深度学习的环境,以及未来对大语言模型的需求。
当然
还有数据中心GPU Max系列,虽然才刚刚诞生,但 是 拥有 47个功能模块、1000多亿晶体管的它,有 着 巨大的 潜力和 广阔的 前景,在 各种科学负载中相比H100可综合领先30%,还已经用于 百亿亿次超级计算机“Aurora”。这样的丰富组合,别说NVIDIA,在整个行业内都没有可与之匹配的。
面向未来,Intel也自信满满地公布了Gaudi加速器、至强处理器的多年路线图,让人充满期待。
Gaudi 3将把制造工艺从7nm升级到5nm,带来的性能提升堪称一次飞跃:
BF16算力提升4倍,计算性能提升2倍,网络带宽提升1.5倍,HBM高带宽内存容量提升1.5倍。
从示意图上看,Gaudi3的主芯片将从单颗升级为两颗整合,HBM内存则从6颗增加到8颗。
再往后更是革命性的变化:Falcon Shores将是Intel第一次把x86 CPU、Xe GPU双架构融合在一起,官方称之为XPU,类似AMD Instinct MI300A。
按照Intel之前给出的
数字,对比当今水平,Falcon Shores的 能耗比提升超过 5倍,x86计算密度提升超过 5倍,内存容量与 密度提升超过 5倍。Emerald Rapids五代至强将在12月14日正式发布,这是至强历史上第一次一年内更新两代,增加到最多64核心128线程,同样功耗水平下可提供更高的性能和存储速度。
2024年上半年,至强将首次采用E核能效核设计,代号Sierra Forest,最多达到惊人的288核心288线程,而且首次引入Intel 3制造工艺,预计可使机架密度提升2.5倍、每瓦性能(能效)提高2.4倍。
紧随其后的是同样Intel 3工艺、全部P核性能核设计的Granite Rapids,AI性能对比四代至强预计可提高2-3倍。
2025年,我们将看到代号Clearwater Forest的再下一代至强,纯能效核设计,升级为Intel 18A制造工艺。
按照规划,那个时候,Intel将重新夺回制程工艺的领先地位,对于提高AI硬件的能效大有裨益。
总之,未来在
AI计算领域,Intel将会提供更加强大、可满足不同应用场景和 TCO成本的AI产品组合,为客户打造统一的 开发平台,形成完整的 产品生态链。