在手机上就能“云”玩游戏大作,相信不少玩家听了都会心动。
然而,虽然5G已来,但云游戏这些年的落地效果并不让人满意。
确实已经有平台能直接做到云玩游戏(不用下载),但画质低、传输延迟高一直很影响游戏玩家的体验。
这是因为,即使传输速度上去了,如果图像和视频处理技术跟不上,仍然会给游戏应用带来很大的延迟。所以,想玩好游戏,答案要从AI里找。
AI技术的发展确实给手游玩家们带来了新的希望。
例如,借助本地AI超分辨率技术,可以使GPU与APU协同计算,能够带来画质的提升,从而提升本地游戏和云游戏体验,并且实现了性能和功耗的平衡。
问题来了,像移动端游戏超分这类和AI有关的技术都是现阶段应用就可以实现的,然而目前真正落地的还非常少。
其中的难点究竟在哪?
难在硬件对AI模型的运算效率上。
以云游戏为例,如果在本地使用AI技术实现游戏超分的同时,又遇到了其他应用也调用AI计算,势必会给APU等硬件带来巨大的负荷。
应用AI技术确实能给游戏玩家带来更好的体验,但得是在手机硬件能同时运行这么多AI模型,且不影响手机使用体验的前提下。
面对这种情况,联发科给出了自己的答案。我们可以清晰的看到,在AI这一步棋上,作为手机核心提供者的芯片厂商是怎么走的。
近期,联发科对天玑旗舰技术做了一系列分享,透露了领先AI技术优势背后的关键要点——高能效AI。
相比于不少芯片在AI性能上强调的峰值AI算力,联发科的高能效AI更强调处理器的每瓦有效AI性能,这也是联发科在设计架构和优化上的关键指标。
如何理解每瓦有效AI性能?
例如,处理器每秒能运算这样4个单位的AI任务,然而实际的4个单位AI任务其实长这样:
处理器要想像俄罗斯方块一样灵活地分配AI性能,就必须要有良好的任务排程,充分运用好每一个计算单元发挥有效算力,这就是“每瓦有效AI性能”强调的AI处理能力。
除了能提升AI本身的处理能力以外,“高能效AI”还满足了移动端用户的另一核心需求:
用户在使用手机时,耗电量和应用体验往往需要“兼得”。
像超分辨率等技术采用的AI模型,即使效果再好,如果在运行时给用户带来耗电量大幅增加、或是其他性能急剧下降的问题,就会极大地影响手机等移动设备的使用体验。联发科的高能效AI则可以很好地解决这个问题,为用户带来体验上的提升。
那么芯片厂商如何提升每瓦有效AI性能?
我们主要从硬件和软件两个方面来看。
硬件上,针对每瓦有效AI性能这一指标,联发科在对自家APU架构进行评测时,会加入比模型运算(速度、准确率)更多的具体指标,以提升硬件同时处理多个模型的能力。
目前的大多AI Benchmark,基本都是针对单个模型在处理器上的运算速度、或是准确率,像语义分割、目标检测、语音识别等CV和NLP任务。
然而现实场景中,无论是游戏超分、还是更复杂的其他手机功能,在处理器上运行的AI模型都不止一个。
单方面追求某一个模型的速度和准确率,在实际进行AI模型运算时,处理器就容易翻跟头,出现处理时间延长、发烫或是掉帧等情况,用户体验大打折扣。
为了保证用户的优质体验,联发科提出了用AI Burnout应用程序来对APU等处理器进行多AI模型处理性能测试。
具体来说,AI Burnout会像模拟真实场景一样,让处理器重复进行大量运算直至停止,来测试处理器在同时运行多个AI模型时,是否会出现急剧发热、或是急剧降低的情况,并据此进行优化,展现了真实的AI性能和功耗。
据联发科介绍,通过这种方式,他们确实将APU的功耗限制在了1w左右,运算多个AI模型时也不会导致明显的发烫发热现象。
在Al Burnout测试中,搭载第三代APU的天玑1200获得了接近450帧/秒的成绩,同时温度一直保持在40℃以下(用于做对比分析的竞品不足250帧/秒,最高温度突破45℃),成绩亮眼,对联发科高能效AI在功耗和性能方面的优秀表现做出了佐证。
当然,除了APU自身表现以外,还需要在架构设计时考虑APU与各处理器之间的协同效率,进一步优化AI模型的处理速度。
软件上,硬件厂商也需要设计对应的处理平台,让AI算法“更快地”适应硬件架构。
联发科推出的NeuroPilot人工智能平台,就针对AI模型做出了更好的优化。
一方面,该平台支持目前所有的AI主流框架,同时针对模型多任务处理进行软件层上的优化,使得采用不同框架编写的AI模型,也能共同高效运行;
另一方面,该平台可提供Platform-aware工具链,使得移动厂商在开发APP初期,就可以针对平台特性进行对应的算法优化,进一步提升AI模型的运算效率。
通过联发科NeuroPilot人工智能平台与其AI处理器APU的配搭,二者结合可实现高能效AI表现,也进一步给移动端提供了更丰富的想象空间。
比如在超分辨率技术的基础上,结合其他AI技术提升传输效率的同时,功耗还不发生明显增加。同时,为直播、特效拍照、实时光追提供了更高的技术上限;
在5G传输时,AI算法能针对5G耗电大的情况进行智能优化,同时结合VR等AI技术,在手机上实现智能视频通话、虚拟3D应用也并非完全不可能;
在面对夜景拍摄这种需要AI模型大幅提升画质的场景时,高能效AI技术使得手机拍摄也不会出现明显快速掉电现象,同时将功率稳定控制在一定范围内……
从游戏、5G到拍照等多媒体场景,联发科带来的高能效AI实现,又进一步拓宽了我们对手机AI应用的想象。
事实上,智能手机对AI应用的依赖程度,可能比我们想象得要更高。
就在前段时间,谷歌发布了最新的手机芯片Tensor。
相比于芯片性能和参数,谷歌在Tensor中加入了大量的AI技术支持。
例如之前的智能通话、语音实时翻译、照片去模糊、智能擦除等AI技术,谷歌都将之直接集成到了手机芯片中,并以此作为芯片的核心亮点。
虽然Tensor芯片更多是被搭载在谷歌自身的Pixel 6和Pixel 6 Pro手机上,但它所透露出来的信号不言而喻。
很明显,AI技术正在智能手机中占据着越来越重要的地位。
在硬件性能提升的同时,如何让手机尽可能搭载更多AI模型、如何合理对AI模型进行融合来实现更多功能,正在成为智能厂商追逐的趋势之一。
反过来看,更丰富的AI技术,势必又会对智能硬件本身提出更高的要求。
随着AI愈发成为手机中势不可挡的技术趋势,手机硬件也不应当只通过提升算力这一条路径去提升优化空间,而应该聚焦于实际体验,开辟如联发科“高能效AI”这样的更新思路。
换而言之,硬件不仅要去“适应”AI技术本身,而是更应当理解AI背后的逻辑,并以此“延伸”AI技术背后的技术脉络。
从发展路线来看,联发科在“高能效AI”上,已经进行了相当长时间的技术储备,这一布局相比于一味提升峰值AI算力,更具实用价值:
包括天玑1000+在内的多款天玑移动平台先后登顶苏黎世AI-Benchmark的移动芯片排行榜,同时在硬件架构和软件设计上,联发科针对高能效这一方向进行了不少自研技术优化……
如今联发科的下一代天玑旗舰处理器将要发布,随着AI技术的演进,又会有怎么样的颠覆性创新和升级?我们拭目以待。
“