CPU也支持AI加速,英特尔发布第3代至强处理器,推理速度提升80%,阿里腾讯云都在用

AI资讯1年前 (2023)发布 AI工具箱
278 0 0

AI时代,英特尔最担心的是什么?当然是自家的CPU被GPU、TPU等AI硬件的冲击。现在英特尔的新一代CPU也带来了全新的AI加速能力。

今天,英特尔发布了三款硬件产品,都是为了AI而准备:第三代至强(Xeon)可扩展处理器、新一代的傲腾(Optane)存储器以及Stratix AI FPGA。

至强可扩展CPU

首先,英特尔发布了Cooper Lake至强可扩展处理器,也就是英特尔的第三代至强可扩展服务器CPU。

在英特尔的路线图中,还有Ice Lake至强处理器将在今年晚些时候推出,也属于第三代,只是支持的CPU数量比Cooper Lake更少,应该是一款面向中低端的产品。

对于Cooper Lake平台,英特尔加入了一项重要更新,增加了基于AVX-512的BF16指令,引入了全新的BF16数字格式。

现在,用于“深度学习增强”(DL Boost)的AVX-512指令集也支持全新的BF16数据类型。

过去,英特尔在CPU上的AI训练主推INT8整数格式,在精度要求不高的模型中,使用INT8还是可以的。但是许多高精度模型需要使用FP32浮点数格式。

新一代的至强CPU加入了对16位浮点数支持,不过此16位浮点并非常见的FP16,而是英特尔称之为bfloat16(BF16)的格式。

BF16将FP32模型的位宽减少一半,除了加速处理速度外,更重要的是,它将模型保留在内存中所需的空间减少了一半。

BF16可以执行许多通常在FP32或FP16中实现的AI任务,它只是比FP32的范围稍低,但是却能有与FP16几乎相同的吞吐量。

国内的阿里云、腾讯云都已经在其数据集上使用了支持BF16的CPU,实现了1.6倍左右的吞吐量加速和1.8倍左右的推理加速。

英特尔还对Cooper Lake处理器之间的互连进行了升级。

至强处理器使用超路径互连(UPI)将多个CPU连接在一起。在Cooper Lake中,每个CPU到CPU的连接现在都包含两个UPI链接,链接速度达到了20.8GT/s。

傲腾SSD和Stratix FPGA

英特尔还宣布了新一代的傲腾(Optane)“持久内存” 200系列,带宽相比前代提升了25%。

200系列傲腾提供128 GB、256 GB和512 GB三个不同存储容量,并且将以与DDR4-2666内存相同的速度运行。

该系列为每个插槽提供高达4.5TB的内存支持,以更好地处理数据密集型的AI工作负载。

最后,英特尔发布了Stratix 10 NX FPGA,这是英特尔第一个针对AI优化的FPGA。

Stratix 10 NX FPGA加入了为AI设计的张量模块,在INT8数据类型上,相比现在的Stratix 10 MX FPGA带来了15倍的运算加速。

参考链接:

https://www.anandtech.com/show/15862/intel-launches-cooper-lake-3rd-generation-xeon-scalable-for-4p8p-servers

© 版权声明

相关文章

暂无评论

暂无评论...