2022年底,ChatGPT 的出世,让“大模型”成为全球科技领域的关键词。整个2023年,所有模型玩家都在以 GPT-4 作为目标进行追赶。原因很简单,在这场先发制人的游戏里,推理能力被认为是*的衡量标准。
全球所有的科技公司里,苹果无疑是个“另类”。在目前所有的主流智能手机厂商乃至全球科技公司里,苹果是*一家还没有正式发布大模型产品的厂商,甚至都很少正面提及。就连马斯克在去年7月成立的人工智能公司xAI,马上就要发布*AI大模型Grok 1.5。
而在已披露苹果大模型进展的有限信息里,苹果给人一种感觉:相比其他科技公司,苹果并不追求大模型性能的**,而是更看重大模型落地的可能性。
我们应该如何理解苹果在大模型上的“迟钝”?选择“务实”路线的苹果,又会在大模型故事里扮演怎样的角色?
01.双面“苹果”
去年的大模型风潮中,手机厂商成为一股不可或缺的“力量”。
2023年,华为发布了盘古大模型,并率先将大模型接入手机;vivo则推出了主打轻量化的蓝心大模型;三星也公布了其自研的生成式人工智能模型“三星高斯”,并在今年推出了旗下*AI手机Galaxy S24系列手机。
唯独苹果是个例外。作为全球*的科技公司,苹果在去年对这项过去十年中最重要的科技发展——生成式人工智能,很少正面提及。
在一季报的电话会议上,苹果CEO库克只是轻描淡写地表示,苹果会将AI应用到更多产品上,但要深思熟虑。甚至在6月的开发者大会WWDC上,苹果对人工智能和大模型更是只字未提,只是简单提到了“机器学习”这个词语。
在目前所有的主流智能手机厂商乃至全球科技公司里,苹果是*一家还没有正式发布大模型产品的厂商。就连马斯克在去年7月成立的人工智能公司xAI,就要发布*AI大模型Grok 1.5。
看上去,苹果似乎“缺席”了这场大模型的赛跑。但事实可能并非如此。
种种迹象显示,苹果在AI领域的布局比我们想象得要更深。据彭博社报道,2023 年 7 月,苹果建立了自己的大型语言模型 Ajax,并推出代号为「Apple GPT」的内部聊天机器人,用于测试 Ajax 的功能。
据知情人士分析,Ajax GPT的训练参数数量超过2000亿。参数反映了机器学习模型的规模和复杂程度;参数数量越多,表示复杂程度越高,需要的存储空间和计算能力也越大。要知道,GPT-3.5的训练参数规模在1750亿,也就是说,如今的Ajax GPT或许在功能上比OpenAI的GPT-3.5更强。
从投入规模上看,Ajax GPT所在的生成式AI项目每年将花费苹果约 10 亿美元。另外,根据The Information报道,如今苹果公司将把训练*进模型的预算增加到每天数百万美元,而这只是对开发其中一种模型的投入。
与很多人印象不同,苹果还是最热衷于投资AI的科技公司。自2010年以来,在FAMGA的公司中,苹果共收购了20家AI公司,位列*。同期,谷歌和微软分别收购了14家和10家。
更加有趣的事情是,在投入研发大模型的同时,苹果还花了相当大的精力去探索大模型落地的可能性。
02.押注端侧大模型
今年下半年以来,AI硬件是所有科技公司共同发力的方向。在真正“AI-native 硬件”诞生之前,把 LLM 和现有终端融合更具有落地可能性。手机、PC、车车等硬件厂商都有极大动力去落地大模型,这其中以手机厂商最为激进。
但遗憾的是,到目前为止,大模型与现有智能硬件之间的融合并不流畅。
就拿手机来说,受限于手机内存的运存处理能力限制,大模型还无法被搬到手机上。联发科就曾透露,130亿参数大模型至少需要13GB内存,再加上6GB App保活、4GB安卓OS,即总的手机内存容量需求将达到23GB。
23GB手机内存是个什么概念呢?去年上市最新的iPhone 15的运行内存大小只有6GB,iPhone15 Pro 和 iPhone15 Pro Max 运行内存也只有8GB。这意味着,想要在手机上提升跑大模型,内存容量必须有大幅度提升。
所以,目前大多数大模型都是在云端运营,固然参数规模更大、算力更高等优势,但缺点也很明显。当用户在弱网乃至离网环境下,无法使用大模型功能,甚至还有用户隐私安全泄露的风险。这对极为重视用户体验的苹果来说,是无法接受的。
而苹果就是端侧大模型的坚定支持者。多位前苹果机器学习工程师称,出于提高隐私和性能的考虑,苹果的领导层更倾向于在设备上运行大模型,而不是在云服务器上。
要想落地落地端侧大模型,除了内存容量提升,模型本身的压缩和优化也是落地大模型的一种方式。前者顾名思义就是压缩模型的规模,让模型更注重关键场景的精度和效果;后者则是通过技术手段对模型进行优化,通过内存管理减少内存搬运,进而降低功耗。
目前,大部分科技公司把更多精力放到训练参数更少、体量更小的“小模型”。去年12月,微软正式发布了参数规模仅有27亿的“小模型”Phi-2,并宣称该模型性能够“吊打”体量在其25倍以上的大模型。
但苹果却另辟蹊径,选择了后者。此前,苹果发布的论文显示,它尝试利用闪存来解决大模型在塞进手机时遇到的内存不足的问题。简单来说,苹果就做了两件事情,优化闪存交互和内存管理。
说起来,计算机的各种硬件设备和我们人类的躯体非常相似,计算机的 CPU 好比人类的大脑,其中也有用来存放程序和数据的记忆装置,相当于我们脑袋中的记忆体。
计算机的记忆体简单分为内存和闪存两种。内存用于临时存储那些需要随时访问的数据和指令,它提供高速的读写,有较高的存储密度。而闪存正相反,它读写较慢,适用于长期数据的存储。从特性上看,内存更适合需要频繁读写的大模型。但正如上文所说,内存现阶段性能不够,仅凭它一个撑不起大模型。
而苹果的做法是,允许模型重复使用部分已处理的数据,从而减少频繁读取内存的需要,提高大模型运行效率;二是通过对数据进行更有效的分组,令大模型能够更快地从闪存中读取数据,从而加速AI 理解和生成语言的能力。
通过这一方式,苹果可以运行比设备DRAM容量大两倍的模型,并在CPU和GPU上分别比传统方法提速4-5倍和20-25倍。用研究人员的话说,这为在内存有限的设备上有效推理 LLM 铺平了道路。
作为一个硬件公司,苹果更注重于技术落地本身没有什么太大问题。但如果把其视作是一家科技公司,苹果就多少显得有些“另类”。
03.科技公司里的“实用主义者”
几乎在所有人的逻辑里,大模型是一场先发制人的游戏,推理能力是*的衡量标准。甚至在很多人看来,模型竞赛相当残酷,类似芯片或 SpaceX,因为*的模型能力又强又便宜,后面的玩家会很难存活。
但苹果对这个游戏的理解并非如此。一个更接近真相的解释是:相比其他科技公司,苹果并不追求大模型性能的**,而是更看重大模型落地的可能性。
这与苹果长期以来的“实用主义”理念有很大关系。苹果实用主义的精髓在于,其并不追求*的技术*,而更擅长在技术向产品大规模转化过程中,通过其独特的产品能力,实现对同类产品的超越。
从过去看,智能手机是由IBM公司的工程师Theodore Paraskevakos发明的,但却在苹果手里发扬光大;在初代iPod发布时,MP3播放器已经是一个个非常成熟的品类,可最后苹果还是赢了。在更擅长赚钱的库克上任后,苹果的实用主义得到更充分的践行。
这也体现苹果在AI领域的布局。相比谷歌的动辄上亿美元的大手笔,苹果虽然并购数量多,但整体金额都不大。它们更愿意收购一些小型公司,借助其团队和技术为苹果自身未来的产品增加新功能。比如,iPhone X的FaceID就源自苹果在芯片和计算机视觉领域的一系列并购行动。
沿着这个逻辑,也就不难理解苹果为何迟迟不公布其大模型产品。因为到目前为止,大模型远大愿景与尚不清晰的商业化前景之间仍然需要无数的产品去填。
尽管目前已经出现ChatGPT、Character.AI 等超级应用,但上述应用的调用入口十分单一,功能也多集中在内容生产方面,仍然有很大提升空间。一个显著的体现是,这些应用在用户活跃度上起伏很大。比如在经历去年年初的疯狂后,ChatGPT日活在去年下半年出现了明显的回撤。
更重要的是,相比功能相对单一,大模型落地所要付出的成本与商业化回报之间不成正比。目前,AI应用商业化手段还很单一,难以支撑其高昂的运行成本。
按照Open AI公布的GPT-4的API费用表,为每输入1000个字符(约合750个单词),价格为0.03美元,每生成1000个字符,价格为0.06美元。也就是说用户每问一次,成本差不多就是1毛钱。考虑到苹果全球仅 iPhone 用户就超过十亿,意味着大模型运行的成本将极其高昂。
退一步讲,如果仍然是这个路子,无论哪家厂商最终“赢了”,他们的产品或者服务都会极大概率以“App”的形式出现在苹果的App Store里,为全球的苹果用户提供服务。
苹果看似务实的做法并非没有一丝隐患。目前,市场对于AI硬件的发展大致有两种观点:
一种观点是基于大模型的自然语言交互能力需要一个新硬件。无论是去年发布的AI Pin,还是不久前在CES上亮相的Rabbit R1,都属于这一类产品。这类产品的特点是*化利用了AI的文本理解、生成、翻译能力、特别是图片、音视频等多模态能力,几乎做到无缝衔接,融于无形。
另一种观点是手机就是大模型*的硬件载体,这也是苹果所相信的方向。所以,我们能看到,苹果将更多精力投入了新硬件产品的研发——Vision Pro,而非AI硬件。
路线差异背后,意味着一旦踏错,苹果几乎就完全要依赖产品能力进行追赶。但近年来,苹果所引以为傲后发至上的产品能力却频频失效。
尽管经历了漫长的7年研发,Vision Pro最终上市,但距离库克的最初设想相继甚远;而在造车这事上,苹果也与最初的梦想渐行渐远。根据此前的报道,苹果的*汽车放弃了 L5 全自动驾驶路线,方向盘、刹车和油门踏板等传统汽车该有的硬件都会保留,售价调低至 10 万美元以下,量产时间再推迟到 2026 年。这意味着,苹果基本已经退出新能源汽车的竞争。
毫无疑问,大模型时代的硬件会重复计算机的老路:就是从算力集中于超算等大型设备上到算力一步步转移至属于个人终端。只是“实用主义者”苹果,最终会在这个故事里扮演怎样的角色,仍然要打一个大大的问号。