12月7日,主题为“AI新生态,智启新元年”的首届AI PC产业创新论坛在北京联想总部举办。联想集团副总裁、联想研究院人工智能实验室负责人范建平出席论坛并表示,混合智能(Hybrid AI)模式是构建用户专属个人大模型的必经之路。大模型厂商需要提供能够打造成轻量化本地大模型的公共大模型技术,可针对不同形态和性能的终端进行调优和适配,还可能推出面向用户的个性化微调/自主微调服务。
据范建平介绍,联想混合智能主要包括五种混合:端侧个人大模型/企业私有大模型跟云端公有大模型的能力混合、大模型和小模型的混合、多种算力和端-边-云的混合、多种数据源和知识源的混合、人与大模型的有机混合。
随着技术的发展,个人大模型需要具备强大的AI能力,满足用户日益增长的AI需求和任务复杂度。大模型轻量化的关键是端侧、云侧大模型互为补充、各有所为。据了解,打造轻量化不仅是将个人大模型进行压缩并部署到用户设备上,轻量化还包括在企业内部的轻量化,甚至在云端的轻量化,轻量化还意味着使用成本的高低。大模型厂商将通过模型蒸馏、压缩等技术将大模型“瘦身”,以便实现本地推理和实时响应。
模型蒸馏通过训练“教师”网络监督“学生”网络进行学习,而模型压缩则是通过剪裁、量化等方法对模型进行压缩。这些技术可以减小模型的尺寸和复杂度,同时保留其核心能力,而不会显著牺牲其AI能力。在保证模型性能的同时,大模型可以在资源有限的设备上运行,再辅以云端强大AI能力的支持,个人大模型的通用场景服务能力才能得以保证。
另一方面, 大模型厂商需要解耦和适配AI PC的个人智能体和本地个性化知识库,从而为用户提供更多开放选择。无论是位于AI PC的本地大模型还是位于云端的公共大模型,大模型厂商都需要在终端厂商定义的标准化接口和API下,与智能体做好对接和交互,从而成为个人智能体所调用的能力的组成部分。大模型厂商需要做模型与个人智能体之间、模型与模型之间解耦的设计, 模型的充分解耦可以有效提升本地适配效率,以便用户根据自己的需求和偏好进行选择和定制, 从而提高AI PC的综合性能。
总的来说,大模型厂商在为用户带来适用于AI PC的轻量化、小型化大模型的同时,也给AI PC的应用带来无限想象。未来,围绕公共大模型和本地大模型的AI原生应用的占比将持续上升。众多传统的应用也将以云端调用等方式获得大模型的赋能,来提升任务完成的效率及智能化程度。#首届AI PC产业创新论坛举办#