天玑9500旗舰芯片凭借革新性的双NPU架构脱颖而出,实现智能体验与隐私安全兼得
- 科技快讯
- 6天前
- 40热度
如今,手机上的AI功能越来越强大,无论是帮你一键生成朋友圈文案,还是实时翻译外文菜单,都离不开生成式大模型。但是,你有没有遇到过这样的尴尬:想在没信号的地下车库让AI帮忙,它却提示“网络连接失败”;或者担心和手机的私密对话被上传到云端?这正是当前手机AI面临的核心痛点。不过,一场静悄悄的革命正在进行,手机厂商们正在把强大的AI大模型,直接“塞进”你的手机里。这就是“端侧AI”,它意味着数据在手机本地处理,无需联网上云。这不仅是技术路径的转换,更可能彻底重塑我们与手机交互的方式。
告别“转圈圈”:体验与安全的双重飞跃
为什么行业要不遗余力地发展端侧AI?因为传统的云端AI模式,存在几大难以调和的矛盾。首先,响应速度是硬伤。云端AI需要将你的指令打包、上传到千里之外的服务器,处理完再下载回来,这个过程中的网络延迟不可避免。对于实时语音翻译、会议纪要生成等场景,哪怕0.5秒的卡顿都足以破坏体验。而端侧AI在本地完成所有计算,将响应延迟压缩到毫秒级。例如,搭载了端侧视觉大模型的手机,在“飞行模式”下也能秒级生成高清图片。在汽车智能座舱里,本地模型能将人机交互的等待时间控制在0.2秒以内,体验无比跟手。其次,数据隐私是悬顶之剑。将包含个人照片、语音、位置乃至工作文档的数据持续上传至云端,隐私泄露的风险如影随形。端侧AI遵循 “数据不出设备” 的原则,所有敏感信息都在本地芯片内处理完毕,从根源上切断了数据在传输和云端存储环节的泄露风险。这对于处理健康数据、金融信息或商业机密来说,提供了根本性的安全保障。最后,摆脱网络束缚。在电梯、山区、飞机上,云端AI立刻“罢工”。而端侧AI让手机成为全天候在线的智能伙伴,无论何时何地,AI能力触手可及。

“大模型”如何装进“小手机”?背后的技术攻坚战
你可能好奇,动辄数百亿参数、需要庞大算力的大模型,是怎么跑在小小手机里的?这背后是一场软硬协同的极限攻坚。核心在于“模型压缩”。工程师们通过一系列“瘦身”技术,在尽量保持模型智商(精度)的前提下,大幅缩减其体积和算力需求。比如剪枝,像修剪树枝一样去掉模型中不重要的参数;量化,将模型计算从高精度转为低精度,好比把高清电影转为标清,体积骤减;还有知识蒸馏,让一个大模型“教导”一个小模型,传承核心能力。国内首个视觉基座大模型“橘洲”,就是通过“极限蒸馏”技术,将参数量压缩到国外主流模型的1/20,从而成功部署到手机端。硬件是强大基石。手机芯片正飞速向“AI原生”进化。新一代移动平台集成了专为AI运算设计的处理器,算力飙升。以联发科天玑9300的APU 790为例,其生成式AI处理速度是前代的8倍,能支持最高330亿参数的大模型在端侧运行。谷歌甚至开源了专为手表、耳机等微型设备设计的Coral NPU平台架构,让AI能在仅消耗数毫瓦功率的设备上高效运行。
软硬深度联调。光有强悍芯片还不够,手机厂商需要与芯片厂商深度合作,打通从芯片底层到系统应用的每一个环节。OPPO通过与芯片厂商合作,在端侧实现了8倍以上的解码加速,将大模型文字生成速度提升至每秒200个token,并能一次性处理约300页书籍的超长文档。荣耀与高通成立的联合实验室,则通过“超融核架构”实现了芯片资源的智能调度,在提升性能的同时优化了能效。

不仅仅是“更快更安全”:体验的革命性重塑
当端侧AI的基础打好后,它带来的远不止是速度和安全的提升,更是交互范式的颠覆。从“被动应答”到“主动服务”。传统语音助手是你问一句,它答一句。而端侧AI能结合对你习惯的长期学习(数据在本地,更懂你),提供主动服务。例如,手机可以学习你的通勤规律,在下雨前主动提醒你带伞并规划路线;或者根据你正在浏览的网页,主动推荐相关的资料备忘。从“单一模态”到“多模态融合理解”。未来的手机AI将能同时听懂你的话、看懂你指着的屏幕内容、甚至感知你所处的环境,然后综合理解你的复杂意图。比如,你指着地图说“把这里周末的照片找出来”,它能瞬间理解“这里”指的是地理位置,并完成跨模态的精准搜索。荣耀的多模态感知大模型,已能对语音、图像、环境上下文进行深度理解。
AI智能体的崛起。这是端侧AI的终极形态之一。它不再是一个个孤立的功能,而是一个能理解复杂指令、自主规划并执行一连串任务的“智能管家”。比如,你只需说“帮我策划一个浪漫的结婚纪念日晚餐”,它就能自动查询餐厅、对比评价、完成预订,甚至生成一份电子邀请函。联发科与阿里云正携手探索,让由天玑平台和通义大模型驱动的AI智能体,通过用户的一句话就自动建立并完成任务。
数据来源和参考文献:
湖南省人民政府 - 国内首个视觉基座大模型“橘洲”正式上线
36Kr - Google Research开源新架构,AI摆脱云端束缚直跑手表与耳机
新华网 - OPPO刷新端侧AI性能上限
