究竟该指望谁来拉近我们与AI的距离?

虎嗅APP
发布于 2024-4-3 18:35
浏览
0收藏

AI被所有人使用的时代,正越来越近。
如果说AI大模型之前已经用ChatGPT多轮的技术进展、国内的百模大战、Sora在视频大模型领域的突破,以及其他一系列大模型初步的应用探索证明了全新的AI更强大;那么最近悄然吹起的、厂商纷纷将最日常使用的消费电子终端套上AI之名的占位之风,则进一步宣告了AI普惠时代的加速到来。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区
在这波关于AI终端的行业讨论中,有一个热度始终最高:在现阶段,大模型普惠的第一终端是哪个?是深入我们日常生活的智能手机,还是作为生产力工具长久不衰的个人电脑(PC)?

将范围缩小到这两种终端的原因很简单:最近足够自信公开喊出端侧AI战略的,除了OPPO、vivo、魅族、华为、小米这样的手机厂商,就是英伟达、英特尔、AMD这样的芯片巨头,亦或是联想这样的全球PC行业龙头。

这些公司的想法也并非完全统一。以智能手机为例,有非常焦虑说“不转向AI的手机厂家就是下一个诺基亚”的,有直接喊口号“All in AI”的,还有的表示“AI是未来,但AI手机绝对是噱头的”;而在PC这边,拥有领先GPU软硬件能力的英伟达将自己的重心放在了更偏向云计算的位置上,英特尔直接对外宣布自己的Meteor Lake处理器是40年来最重大的处理器架构变革,还有联想直接站出来推广自己的“AI PC”研究与实际产品的。

但在笔者看来,这一堆崭新的说法和讨论恰恰只说明了一件事情——以基础计算和通信为核心功能的现有个人终端(智能手机为主),已经无法满足AI大模型时代的软硬件新需求。而拥有更宽松形态,并且能以多变配置适应各种需求的AI PC正在成为AI新一轮普惠的真正落点。

AI时代能实现普惠的终端,有多难打造?

跟之前的好几轮技术革命一样,这波AI大模型技术革命的普惠,关键在于如何让尽可能多的用户采纳这项技术,并且应用起来,因为只有这样才能创造出最大的价值。

最麻烦的是,AI大模型的本质就是将人类的数据提供给电脑学习,以实现部分脑力成果的复制,这个过程中无可避免地形成了对人类个体隐私保护、职业价值,甚至是生存价值的冲击。最终形成AI的确足够强大,但是用户不敢更不愿意使用的情况。

一个典型的例子就是去年年底的“《纽约时报》起诉OpenAI”事件。前者指控OpenAI 及其合作伙伴微软,使用其数百万篇文章以训练人工智能模型,要求他们为“非法复制和使用《纽约时报》独特且有价值的作品” 和与之相关的 “价值数十亿美元的法定和实际损失” 负责。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

用更简洁的话来说,就是OpenAI用大模型学习了《纽约时报》大量的付费内容,然后用户在使用OpenAI的过程中,就可以绕过《纽约时报》对独有内容的收费机制,直接为用户生成出关键信息一致但是表达又不完全相同的结果,相当于砸了后者的饭碗。

“上传数据就等于对所有使用者公开”的特性,直接打断了许多企业用户应用AI大模型的进程,去年4月就有三星半导体部门的工程师在使用ChatGPT的过程中,不小心“分享”了公司机密。

套在普通用户身上,由于AI 模型的决策过程往往是不透明的,用户很难了解模型是如何分析和处理个人数据的,更难进行数据的处理和保护,最终造成个人信息被不当使用,也让许多个人用户拒绝使用

想要解决这个难题,“突破口”其实很简单——提供个人隐私、关键成果打造的大模型,要有明确的个人归属和使用权保护,即高敏感度、高价值的私有大模型应该由个人用户完全掌握。

要做到“个人完全掌握”,自然需要把这些大模型存储在个人终端设备中。但这也引出了另外两个问题:一是要如何变革,才能满足AI大模型时代、对于隐私和协作都高度要求“云&端”协同?二是在整套AI大模型能跑起来的基础上,应该由谁来确保用户的实际体验?

先说第一个问题,关键在于产业结构的转变。

从最早的PC时代一直到智能手机时代,系统的整体架构其实没有发生太大的变化,最底层的硬件上面是系统,系统再上面是应用,同时衔接硬件和应用的系统就是生态的主体,负责推动技术普惠和生态发展。

最典型的例子就是苹果的AppStore,用户可以轻松找到各种类型的应用程序,从游戏娱乐到生活服务,再到教育工具和商务应用,极大地丰富了移动互联网的内容和形式。开发者则获得了一个有着清晰分发规则和收益模式的、公平竞争的环境。

而根据个人用户对于隐私的基本需求,以其个人训练的AI大模型要存储在本地,但在使用AI能力的过程中,不可避免地还要使用公共数据训练出来的AI大模型。复杂“云&端”、“公共&个人”的大模型协作,显然与传统的系统和应用关系天差地别,也让 “系统”是否应该存在都画上了疑问号。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

(图示:高度集成化、容器化的云端部署解决方案NVIDIA NIM)

以英伟达今年在GTC 2024上全新发布的NIM微服务架构来说,就将AI大模型打包成了底层是k8s、顶层直接输出服务能力的整体化解决方案。一下子将自己从GPU制造商的角色,提升到了没有“操作系统”的“应用生态”管理者。

在基础大模型领域进展最快的OpenAI的尝试还要更早,去年在ChatGPT大火的时候,就推出了自己的GPT Store,希望让更多开发者可以基于GPT语言基础大模型打造更多的实际应用。但最终的结果却事与愿违,真正亮眼的GPT应用数量没多少,反倒是出现了很多违规、违法,甚至是直接抄袭的应用。

AI芯片龙头、AI技术龙头虽然在特定环节足够强大,但仍无力支撑整个生态。过去IT产业虽然通过分工解决了PC和智能手机时代的复杂需求,但AI成熟之后,产业显然需要在结构上相应变革。

因此,最终问题就变成了我们上面提到的:究竟应该由谁来保障用户在使用AI终端时的体验?

从用户体验出发,智能手机和PC这样的终端厂商在确保海量用户体验这件事上颇有心得,但面对AI大模型引发的计算力、存储空间、云端协同,多变终端形态终端新需求,智能手机的潜力始终有限。

就拿目前的很多手机AI大模型应用来说,无论是 OpenAI 的 ChatGPT、百度的文心一言,乃至最近火热的月之暗面 Kimi,这些App的工作方式也并非本地运行,仅仅是将手机作为一个面向用户的载体,在这种情况下与手机和浏览器并没有什么区别。

“放任AI与自己无关,就将在AI大模型时代,想当初的运营商一样被微信管道化一样,成为边缘存在”,这或许才是部分手机厂商们着急要做“AI手机”的真正原因。

相比之下,个人电脑(PC)的状况反而要好上不少,目前普通笔记本电脑的独立显卡已经具备运行大模型的能力,诸如英特尔、英伟达等PC芯片厂商还在不断升级算力层面的解决方案,加之更充足的存储空间和电池容量,更灵活的操控与显示能力。

上游产业龙头的不断升级,叠加PC形态在AI时代重新获得的终端优势,让PC整机厂商,有希望基于其亿万用户的庞大基础,建立起用户反馈驱动的生态,最终在AI PC上,构建真正的“杀手”级应用。

就在前不久,在前沿科技研究机构“未尽研究”发布的《从工具到平台 AI PC:AI 普惠第一终端》报告中,就专门提到了其中两个机会,一个是基于混合算力的推理引擎,另一个是基于大模型和智能体技术的AIOS。

究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

异构算力其实比较好理解,即便进入AI时代,在芯片上我们仍需要CPU+GPU+NPU这样同时可以处理AI加速,同时承担通用计算、图形处理与并行计算等任务。但如何构建起足够强大且方便调用、方便开发、方便驱动的实际架构,仍需要产业进行探索。

基于整合异构算力的需求,同时衔接芯片厂商等算力硬件、衔接利用算力硬件性能的开发者,衔接终端用户等算力应用场景消费者的整机厂商,实际上站到了一个产业的优势位置。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

再说AIOS,传统架构中应用一直是非常重要的存在,但随着AI大模型在越来越多应用和场景中走向成熟,AI应用不再是独立于系统之上,而是需要依赖基础大模型、工具库、用户隐私数据的搭建。

彻底大变的系统曾需求,让微软这样的传统厂商不再“垄断”这一环节的生态位,过去也部分涉及系统层能力的整机厂商,完全可以在硬件层基础之上,搭载多种个人智能体,为用户打造体验足够优秀的AI第一入口。尤其是微软Copilot因为众所周知的原因在中国缺席,整机厂商的机会正在进一步被凸显。

AI PC—让AI离你更近的答案

在报告中,未尽研究还专门对AI PC的产业架构、市场价值、社会意义进行了全面的分析。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

就拿AI PC应该提供的用户体验来说,就包含了们上面提到的隐私需求、以及包含在系统架构需求中的实时、性价比、准确。还有非常反直觉的,对于键盘鼠标这样“传统”交互方式的坚持,而这恰恰也体验了这份报告真正从用户体验出发的初心。

在虎嗅旗下的财经品牌妙投前不久举办的、以 “AI 终端元年开启:变革、挑战与机会” 为题的行业论坛上,场景实验室创始人吴声也给出了自己相似的看法——大模型小型化与个人化是未来发展的关键路径,大模型最终必须以便捷易用的方式进入每个人的日常生活,才能真正发挥其价值。而终端设备,尤其是 PC 作为本地计算中心,将承担起承载个人 AI 的重要角色,并可能成为普及 AI 应用的第一线战场。

一同出席活动的联想集团副总裁阿不力克木・阿不力米提(以下简称阿木)、看法还要更详细一些:“AI 赋能的终端将成为用户的智能代理和个人助理,改变传统的工具属性,成为具有高度智能化和个性化的助手。”

究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

未尽研究也在报告中专门提到了应该如何实现这些野心勃勃的目标,例如应该构建一个最符合异构算力发挥、最能保障用户体验的AI大模型时代产业中间层。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

最有希望肩负这一中间层建设“重任”的,就是联想这样的整机厂商。 通过衔接芯片厂商等算力硬件的设计者,衔接利用算力硬件性能的开发者,以及终端用户等算力应用场景的消费者,整机厂商可以成为异构算力的整合者和推动者,确保硬件性能的发挥和AI算力的释放。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

在为AI大模型引入一系列关键组件升级之外,整机厂商还能在实体层面,为用户带来AI大模型技术驱动的创新。例如端侧AI和云端AI协作模式下的硬件级加密解决方案;AI PC 对实时环境和用户反馈的本地多模态数据的安全采集等等。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

站在全行业视角看,除了应用层均有所覆盖的联想,还能基于AI大模型时代用户多变的需求,凭借自身在芯片、操作系统、大模型、应用生态和终端产品设计与制造集于一身的垂直整合,快速满足用户的各种需求。

从这个角度来看,联想这样的整机厂商不仅是第一终端上 AI 算力的最终交付者,也是第一入口 AIOS 的有力构建者。在本地大模型部署的基础上,整机厂商也将是 AI 生态的第一平台的整合者。

而在一众整机厂商中,供应链管理最成熟、创投产业生态最厚实、设备用户基数最庞大的厂商,将成为最终的胜者。

究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

作为全球最大的PC整机厂商、算力基础设施厂商,全球人工智能基础设施的第三大供应商,以及全球服务器与存储的第三大供应商,联想对于AI的战略投入也可以追溯到2017年。

当时深度学习崛起之后,联想就义无反顾地“All in AI”。在去年 8 月,联想与英特尔在合作中首次提及 AI PC 的概念。 10 月,联想就展示了革命性的 AI PC 产品,可以离线运行本地大模型,并根据用户个人数据生成定制化解决方案。

今年 1 月,联想先后发布了十余款 AI Ready 阶段 PC 产品,并在 CES 上提供试用个人智能体 AI Now 与本地 AI 文生图应用 Creator Zone 的机会。

为了迎接人工智能时代的爆发式增长,联想集团也已做好准备。在刚刚过去的联想集团2024/25财年誓师大会上,杨元庆预告,4月18日,在上海举行联想创新科技大会Tech World上,具备5大特征的真正意义的AI PC将在中国市场率先面世。届时,联想集团将进一步阐释“AI for All”战略,持续推动人工智能在设备、基础设施和解决方案领域的创新与应用。
究竟该指望谁来拉近我们与AI的距离?-鸿蒙开发者社区

可以预见,在AI大模型这个全新时代,在中国这个全球最大的PC市场,在各行各业都亟待AI大模型能为自己提供更多推动力的当下。联想以自己对于AI技术的深度理解,对于IT产业的深度洞察,带来AI PC这一关键的创新性产品,必然会再次掀起IT产业的又一次变革浪潮。

阅读完整报告,可在此处下载:https://wj.qq.com/r/login.htmls_url=https%3A%2F%2Fwj.qq.com%2Fs2%2F14340213%2F0d40%2F&sid=14340213&hash=0d40&login_type=weChatClient&scene_type=responden

标签
收藏
回复
举报
回复
    相关推荐