高通坐上“生成式AI”牌桌
由ChatGPT引发的AI新一轮浪潮正在席卷全球之际,芯片厂商高通也顺势表明了立场,近期对外官宣《混合AI是AI的未来》白皮书,并向外界阐明自身的AI发展战略——混合AI。
“在云端完成所有生成式AI所需的工作负载,是难以实现的。”高通技术公司产品管理高级副总裁兼AI负责人Ziad Asghar在媒体沟通会上表明,云端处理存在成本的乘数效应,用户进行查询的次数越多,模型规模就越大,也就会导致云端的成本不断上升。据估计,使用基于生成式AI的搜索,每一次查询(query)其成本是传统搜索方法的10倍,而这只是众多生成式AI的应用之一。不仅如此,应用数量和用户数量的增加,也会导致成本的提高。因此,高通倡导“混合AI”的模式。
混合AI是指“终端”和“云端”协同工作,在适当的场景和时间下分配AI计算的工作负载,以提供更好的体验,并高效利用资源——比如在一些场景下,计算主要以终端为中心,在必要时向云端分流任务;而在以云为中心的场景下,终端将根据自身能力,从云端分担一些AI工作负载。高通认为,混合AI能节约成本并带来更强大、更高效且高度优化的AI。
作为终端侧AI领导者,高通面向包括手机、汽车、XR头显与眼镜、PC和物联网等在内的数十亿边缘终端,提供软硬件解决方案,对推动混合AI规模化扩展存在优势。
混合AI是百搭神器
生成式AI的应用很广,包括搜索、内容生成、生产力、代码编写等等,能够在数秒内通过大模型生成内容。“生成式AI的应用能够在高通所推出的几乎所有主要产品线中使用。”Ziad Asghar说道。
譬如在MWC2023(世界移动通信大会)期间,高通展示了全球首个安卓手机上的Stable Diffusion终端侧演示。
Stable Diffusion是一个参数超过10亿的AI模型,能够基于文本输入来生成图像,此前主要限于在云端运行。根据高通的演示,手机即便是在“飞行模式”下,基于全栈AI优化,这一模型也能够完全在终端侧运行,实现在15秒内20步推理,生成饱含细节的图像。也就是说,高通将Stable Diffusion能力集成到了相机应用中,用户可以在任何一个地点拍照并提出需求,Stable Diffusion都能完成任务,例如将照片背景改为夕阳之下的万里长城。此外它还有其他用例,比如数字助手、生产力应用等。
Ziad Asghar透露,如果在云端运行一个超过10亿参数的生成式AI模型,功耗可能高达数百瓦,而在终端侧运行的功耗仅有几毫瓦。“高通的AI技术能够支持终端在既定功耗下完成更多处理工作。”
此外,尽管高通已经实现了支持参数超过10亿的AI模型在安卓手机上运行,但由于许多关键的生成式AI模型(比如文本生成图像、自然语言处理、编程、图像理解、图像创作等)的规模一般在10亿到100亿参数之间,所以未来几个月内,高通将进一步寻求突破,有望支持参数超过100亿的模型在终端侧运行。
Ziad Asghar解释称,在云端服务器上训练的模型一般采用32位浮点运算(FP32),这意味着完成模型推理需要大量的处理工作,高通希望通过整数运算模式和量化技术进行AI推理,即时获取模型推理结果。比如,针对Stable Diffusion,高通采用的是8位整数运算(INT8)。而去年底在第二代骁龙8移动平台上,高通已经能支持4位整数运算(INT4)能力。
至于混合AI的运行模式,Ziad Asghar与高通技术公司工程技术副总裁侯纪磊在博客文章中表示,混合AI架构可以根据模型和查询需求的复杂度等因素,选择不同方式在云端和终端侧之间分配处理负载。例如,如果模型大小、提示(prompt)和生成长度小于某个限定值,并且能够提供可接受的精确度,推理即可完全在终端侧进行。如果是更复杂的任务,模型则可以跨云端和终端运行。
与此同时,混合AI还能支持模型在终端侧和云端同时运行,也就是在终端侧运行轻量版模型时,在云端并行处理完整模型的多个标记(token),并在需要时更正终端侧的处理结果。
“混合AI策略适用于几乎所有生成式AI应用和终端领域,包括手机、笔记本电脑、XR头显、汽车和物联网。这一策略对推动生成式AI规模化扩展,满足全球企业与消费者需求至关重要。”侯纪磊指出。
据悉,高通的AI业务具体分为三要素:左手软件高通AI软件栈,它专门面向边缘侧AI,能够从软件层面进行模型优化;右手硬件高通骁龙移动平台,支持在既定功耗下,实现更高性能;外加一系列工具,包括高通AI模型的增效工具包(AIMET)等。
Ziad Asghar表示:“高通的AI能力赋能了一系列产品,包括智能手机、XR、PC、平板电脑和汽车等,基于高通统一的技术路线图,我们将核心的硬件、软件以及工具技术扩展到不同产品线,开发人员只需要进行一次开发,就可以将开发成果和经验应用于其他使用高通技术和平台的产品上。”
如何看待生成式AI未来
生成式AI的发展还处于混沌之中,究竟如何选择合适的大模型?在Ziad Asghar看来:“目前大语言模型的模态非常丰富,并且已经出现了多模态模型,包括文本生成图片、文本生成文本、文本生成视频、图片生成文本、图片生成视频等方式,这将揭开新的序幕,开启许多人们未曾想象过的全新用例。”高通已经开始面向不同场景和用例需求的模型展开工作,对于模型的应用持有非常开放的态度。
Ziad Asghar进一步指出,针对中国市场的模型,高通会专注于面向本地语言和使用场景的模型调优和训练,以让用户能够根据不同的需求,随时随地地使用模型。此外,高通当前还在关注不同的开源模型,也将与众多中国合作伙伴携手,实现这些模型在本土市场的终端侧部署。
终端侧AI的部署,还有一大优势,就是有利于解决用户所担心的个人隐私数据保护问题。“无论是10亿参数的模型,还是100亿参数的模型,如果能够完全在终端侧来运行,比如用户发出一个查询,终端接收之后能够独立完成推理,那么所有相关的查询信息和数据都会留在终端上,不会离开终端。”Ziad Asghar认为,这对用户来说是非常直观的隐私和数据保护优势。
对于“生成式AI”的未来发展,Ziad Asghar认为,AI大模型会在C端和B端同步落地,无论是智能手机、VR、AR还是汽车等面向消费者的智能设备,抑或是企业级的搭载骁龙计算平台的PC、智能手机等,都将是AI大模型的载体。
更重要的是,Ziad Asghar预测“端侧运行生成式AI将是一大趋势”。未来所有不同的终端在生成式AI的助力下,将为消费者带来更强大的吸引力,而到那时候,终端的可用性、娱乐性和生产力价值将远远超越当前的水平。
(文章来源:科技行者techwalker)