设为首页收藏本站

生成式AI手机怎么样?首款70亿参数大模型手机OPPO Find X7有答案

[复制链接]
查看5797 | 回复2 | 2024-1-10 11:40:01 | 显示全部楼层 |阅读模式

手机除了卷影像能力,还能卷什么?

2024 年度发布的首款旗舰智能手机 OPPO Find X7 系列给出了答案——端侧生成式 AI。

Find X7 的 4 种配色:烟云紫、海阔天空、大漠银月、星空黑

2024 年 1 月 8 日 OPPO 发布的全新旗舰 Find X7,以全新一代同心寰宇设计,全新超光影三主摄实现的哈苏全焦段大师影像,OPPO 自研潮汐架构所释放的超强性能,以及超明亮超护眼的新一代钻石屏,再度革新行业的旗舰标准。

OPPO Find X7 Uluta 更是首创了双潜望四主摄构成哈苏大师镜头群,再次刷新移动影像天花板。OPPO 首席产品官刘作虎称 Ultra 这个词代表的就是——极致,没有中心态。

影像能力已经领先,OPPO 还率先为消耗者展示了生成式 AI 手机的样子,全球首个端侧应用 70 亿参数大语言模型的手机有何不同?

手机的 AI 功能并不奇怪,AI 美颜,AI 助手已经被广泛应用,但是和生成式 AI 实现的功能另有两个明显的差异,更智能和更多样的玩法。

手机端大模型如何升级 AI 体验?

以 AI 图片消除来说,传统的 AI 修图,不够智能且效果不够理想。

比如在拥挤的景点拍了一张风景照,想要消除照片里的路人,传统 AI 的做法要手动精细选择范围,等待许久之后获得单纯被模糊掉路人的照片,观感很差。

如果是借助手机端的大模型能力,大致框定必要消除的范围,就可以轻松消除风景照里的路人,而且 AI 还会 " 生成 " 出路面,得到一张没有人潮的风景照。

这就是 Find X7 的 AIGC 消除功能,区别于传统的 AI 模型只支持人体识别,Find X7 的大模型能力不但支持凌驾 120 类主体的识别与分割,还可以实现发丝级的分割、高达 6 个的多主体分离,与此同时,还能实现超大面积图像的填充与自然生成,这是手机端生成式 AI 时代图像编辑的体验。

和 AI 编辑图片一样遍及的另有 AI 语音助手。

现有的语音助手,大部分人用起来照旧以为不够智能,奇怪劲一过就会被遗忘。但有了手机端的 AI 大模型,体验也实现了凌驾式的提升,AI 助手能够更好地理解自然语言,对话起来更像人和人之间的聊天。

在 AI 大模型加持下,OPPO 全新的小布不但可以聊天,还可以回答各种题目,总共凌驾 100 种能力,包罗文字生成图片、图片生成文字、AI 文章择要等功能,能够在办公服从,生存服务,学习教诲等不同维度为用户提供帮助。

比如你可以问小布为什么饼干上有很多小孔?并让小布以四岁孩子能理解的方式回答。

除了升级已有的手机端 AI 体验,生成式 AI 模型还给手机带来了全新的 AI 功能。

比如通话择要,在 Find X7 系列的发布会现场,刘作虎展示了一段和理想汽车 CEO 李想电话交流结束后,AI 大模型语音择要功能,重点清晰的呈现出了通话的要点,并生成待办,极大提升了服从。

这得益于 Find X7 的端侧 70 亿参数大模型,相比其他的 10 亿参数模型,以更高 " 智商 " 的理解能力,可以更准确地理解对话内容并生成重点明确、细节不遗漏的择要内容。

同时,借助 OPPO 安第斯大模型端云协同的智能调理,OPPO 大模型语音择要的处理全程经过加密处理,生成的择要内容完全存储于终端本地,能够很好保护用户隐私。

隐私保护,更快速率都是端侧大模型带来的优势。

相比于同平台其他模型,Find X7 搭载的端侧 70 亿参数大语言模型可以在 200 字首字生成带来 20 倍的更快相应,面向 2000 字首字生成也可以实现 2.5 倍的更快速率。

而且,Find X7 的端侧 70 亿大模型还可以实现最高 14,000 的择要字数上限,到达了同平台其他模型的 3.5 倍,大模型的对话体验更接近人类对话的速率与容量。

全球首个端侧应用 70 亿参数大语言模型的手机如何炼成?

Find X7 是全球首个端侧应用 70 亿参数大语言模型的手机,并通过端云协同的摆设,实现了领先不止一代的 AI 体验。

" 为什么我们能够第一个把 70 亿大模型真正在端侧运用起来?模型、算法与 GPU、NPU 如何适配和摆设,不是简单的变乱。" 刘作虎进一步表明," 这个过程必要与平台厂紧密沟通,基于我们对芯片的理解和对用户的洞察,根据大模型和算法来定制芯片,用芯片的语言给芯片厂商提需求,这是我们的核心竞争力。"

刘作虎透露,"我们保存了一些核心的架构师,目的就是跟平台厂商,比如说高通和联发科的深度定制芯片。我们本身不做芯片,芯片平台厂非常愿意和我们深度探讨,实现强强联合。如果不懂芯片,没有做过芯片,只能停留在‘水上漂’不能进入到底层,比如我们自研的潮汐架构,比重新做的代价更大。"

潮汐架构是 OPPO 自研的芯片软硬融合技术的聚集,是一群懂芯片的人打造的芯片优化技术。

潮汐布局深度触及了 SoC 的 L3 缓存和 SLC(系统级缓存),传统 SoC 的 SLC 每每针对 CPU 和 GPU 等计算核心接纳固定的分配方案,这种枯燥的分配方式会造成一定的资源浪费和拥堵。

潮汐架构可以根据应用场景的不同,灵活调整缓存配比。

比如当运行大型游戏必要图像渲染时,GPU 分配更多的,低落对 DDR 和 UFS 的访存频率,提高应用运行速率,还能低落计算链路的整体能效。经测算,对于 SLC 的调理优化,能带来平均 8% 的能效节约。

端侧大模型的摆设,少不了潮汐架构,但端侧大模型面对着更极致的计算和存储挑衅。

OPPO 软件创新中心总经理张峻表明,70 亿大模型正常的模型大小是 28GB,为了真正在端侧摆设,OPPO 用高精度 4 比特对模型进行压缩和轻量化,模型从 28GB 压缩到最小的 3.9GB 左右。

即便云云,依旧对手机的性能、内存和功耗都是很大的考验。

" 大模型在端侧性能消耗比较大,要通过并行计算的算子优化、对内存管理的优化等来低落损耗和系统资源占用。续航方面要根据用机的情况来看,我们端侧大模型的功耗控制在用户可以接受的范围内。" 张峻表示。

"OPPO Find X7 系列端侧化摆设 70 亿参数的大语言模型,视觉模型也会端侧化摆设,它会跟着我们的 OTA 随后上线。" 张峻强调," 我们真正把 70 亿参数大模型同时在高通和联发科两个芯片平台上端侧化摆设,OPPO 是第一家。"

至于为什么会选择 70 亿参数的模型,张峻也给出相识释,"为什么选择 70 亿参数的模型,而不是 10 亿参数?我们在每一个场景都会选择最恰到好处的参数规模,它代表了这个模型在这个场景的智慧水平。"

技术能力之外,在手机端 AI 领域成功的关键是策略。

" 我以为未来几年的实核心是用产品驱动。基于要做什么产品,确定大模型的训练,以及底层的算力,整体路线照旧以产品驱动技术。" 刘作虎以为," 通过用户洞察的方式来做产品最紧张。谁对用户最理解,谁真正地懂产品,谁就能在竞争中保持差异化,始终拥有核心竞争力。"

雷峰网相识到,OPPO 在上周五成立了 AI 中心,聚集了公司所有 AI 相关的员工,目标是集中所有资源把 AI 做好。

OPPO 已经拉开了手机生成式 AI 时代的序幕,未来端侧大模型还能给手机带来怎样意想不到的应用?

回复

使用道具 举报

xcor | 2024-4-19 11:35:03 | 显示全部楼层
回复 支持 反对

使用道具 举报

xcor | 2024-4-19 11:36:08 | 显示全部楼层
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则