今年以来,chatGPT 的火热出圈让生成式 AI 掀起了全球人工智能新浪潮,AI,正成为变革千行百业的新动力,也是各大科技公司共同押注的未来。
比如 AMD 最近就在 Advancing AI 活动中推出了数据中心 AI 芯片 AMD Instinct MI300X GPU,还有结合最新 AMD CDNA 3 架构和“Zen 4”CPU 的 MI300A 加速处理单元 APU 等等,引发了外界广泛关注。
而在“AI 改变世界”的探索之路上,其实有一家企业早早就展开了布局,就是英特尔。2018 年,英特尔就提出要在 PC 上引入 AI,还推出了“AI on PC Developer Program”的 AI PC 开发者计划。在此之后,英特尔持续将 AI 能力融入到旗下酷睿处理器产品中,从第 10 代酷睿-X 开始,英特尔就已经在其 CPU 中添加了 AI、深度学习相关的加速指令,包括在架构层面提升 AI 的性能,SoC 中内置 Intel GNA 以加速低功耗 AI 在 PC 上的应用等等,并且还将 AI 加速单元引入到 Xe、ARC 架构的 GPU 中。
英特尔多年的探索成果也将在最近迎来一次集中释放。12 月 15 日,英特尔就将在国内正式发布基于全新 Meteor Lake 架构的酷睿 Ultra 处理器,而在 Meteor Lake 处理器中,英特尔最重要的举措,就是将 Al 引入客户端 PC,并在 Meteor Lake 处理器架构中集成了独立的 NPU 单元,带来独立的低功耗 AI 加速能力。
具体到 Meteor Lake 中加入的集成式 NPU 单元,它实现更高效能的 AI 计算,包含了 2 个神经计算引擎,能够更好地支持包括生成式 AI、计算机视觉、图像增强和协作 AI 方面的内容。而且,这枚 NPU 不是单一孤岛式的架构,除了 NPU,CPU 和 GPU 也都可以进行 AI 运算,不同场景下会用不同的 AI 单元去应对,彼此协调,如此一来,其整体能耗比相比前代最多可以提升 8 倍之多。
而当生成式 AI 基本本确定为 AI 2.0 时代后,为了让 AIGC 能够更好地在 PC 本地端运行,英特尔也做了很多努力。
在我们传统的认知里,运行类似 ChatGPT 这种大语言模型必须要有大显存的显卡支持,比如前面我们讲到的 AMD 推出的 Instinct MI300X GPU,但是这距离广大消费者确实有点远,而英特尔为了让面向消费端的 12、13 代酷睿平台也能够顺利运行各种大语言模型并提供流畅的使用体验,他们构建了 BigDL-LLM 库,这个库专门针对 Intel 硬件的低比特量化设计,支持 INT3、INT4、INT5、INT8 等各种低比特数据精度,性能更好,内存占用也更少。
通过这个库,英特尔对各种大语言模型进行了优化和支持,包括一些开源的、可以在本地运行的大语言模型。这个库甚至可以在一台搭载 16GB 内存的英特尔轻薄本的机器上运行参数量高达 160 亿的大语言模型。此外还支持 LLaMA / LLaMA2、ChatGLM / ChatGLM2 等多个大语言模型。