ai pc和ai手机出现的来龙去脉。
相信大家现在每天经常可以在报章媒体上看到“ai pc”、“ai 手机” 这两个词吧?特别是财经新闻,这几个月时不时就可以看见哪一只股票又因是ai pc 概念股上扬之类。有的报道中甚至表示2024 年是“ai pc 元年”。
你会不会好奇,这些大厂或者是报章杂志整天在喊的ai pc、ai 手机, 到底是什么?他们跟一般的pc、手机,又差在哪边?这篇文章就是要用最通俗的方式告诉你,ai pc、ai 手机,他们为什么会出现的来龙去脉,以及未来可能的发展方向。
顾名思义ai pc、ai 手机就是可以运行人工智能的pc 跟手机。但没有这么简单,不然现在就算是一台配备普通中低端手机,不都可以通过app 或浏览器,用上chatgpt、bard 或是dall-e、midjourney 等ai 了吗?
现在大家在喊的ai pc、ai 手机,最简单的定义就是“不用连网,就可以在本机端运算ai 模型的pc/手机”。
相信就有的读者会问了:“跑ai 模型?那不是有gpu/显卡就可以跑了吗?”理论上没错,其实有一张不错的消费级显卡,就很够拿来跑许多一般中小型ai 模型了。
不过,这是不考虑一台电脑效能功耗比的状况下所得出的结论。现在大厂们喊的ai pc、ai 手机,其实就是装了npu(神经网络处理器)的pc/手机。
这里跟不太熟的读者们稍微科普一下:我们现在所熟悉的ai 模型,像是前面提到chatgpt 或是dall-e,背后通通都是“神经网络模型”所写出来的,这是一种模仿人脑的系统,人脑中我们是使用神经元接收、发送讯息,而在神经网络中,是使用数学上的模型来模仿这种行为。
npu 就是专门拿来算神经网络模型的芯片,单一“块”npu 跟一块gpu 的算力,当然是gpu 强,但单一“块”npu 的成本、能耗又小又便宜,拿来跑ai模型的话可以好好分担gpu 的工作量。
简言之,就是intel、amd、高通以及联发科这些大厂看准了未来ai 模型会走进每个人的电脑与手机里,纷纷推出了“cpu+gpu+npu”的架构,反正多多益善,何乐不为?但为什么会是“现在”2023-2024 之际,这些大厂才推出这种三层运算架构的产品呢?
一言以蔽之:大型语言模型(llm)。更精确的说,是meta(facebook)在消费市场上开了这扇大门。在chatgpt 掀起生成式ai 的狂潮之后, 众多科技大厂(特别是网络跟软件这端) 开始猛起直追, 纷纷加大投入大型语言模型研究。在这些大厂之中,meta 比较特别,走了一条开源的路,把它的llm“llama”让各机构提出申请,以非商业授权使用。
不过说来也很崎岖,llama 没几天就意外外流,让有意的使用者都能下载到使用,再过几天事情快速发酵,陆续有人把容量比较小的llama 装在mac、google 手机pixel,甚至还装在raspberry pi 4 上,大家瞬间了解到就算技术上还有很多待突破的地方,但要把llm 装在终端装置上,是可行的。也是从这一刻起,meta 主动意识到大有可为,在随后7 月发布新版llama 2 第一时间就宣布已跟高通携手,要把llama 2 积极带进智能手机、 pc 等终端装置。
再说通俗一点:这波ai pc、ai 手机风潮,是被meta、高通有意带动起来的。高通去年也凭借这股底气,用snapdragon x elite 正式向苹果、amd、intel 下战帖,不然像amd,也是早早就有ryzen ai 摆在那边。
不然npu 说白了也不是全新玩意,像是苹果很早就开始在用了,早在什么时候呢?早在2017 a11 bionic,那还是iphone 8 就有非图形专用的神经处理单位。然后苹果不管是在手机、电脑,只要是自己研发的芯片,每年都越塞越多颗npu,理论上来说他们才是ai pc、ai 手机的鼻祖。至于非消费者端的部分,google 就更早了,早在2015 年google 就开始偷偷把自己设计的tpu 用在数据中心。
那到底ai pc、ai 手机会是真主流,还是只是又一场泡沫?这是一个很难现在就用yes 或no 二分法回答的问题,其一是因为这个问题,其实已经在2018 年“计算摄影”(也就是ai 优化手机照相)时被问过一次了,事后证明npu 确实被越来越多开发者重视,但消费端反而还没那么(在表面)重视npu 的表现。
但笔者认为,不妨从几条轴线来观察ai pc、ai 手机的发展:一是观察llm 的压缩率跟硬体什么时候到达“甜蜜点”,像是手机存储器的部分,普遍都需要24gb 以上才够运行llm(但现在的主流规格只有8~16gb);软件这边去年已经有非常多研究单位,在压缩llm 上有丰硕的成果(最著名的就是spqr 法),就看双方什么时候可以耦合。
二则是观察开发框架的发展速度,像是苹果最近就推出专为apple silicon 芯片进行优化的深度学习框架“mlx”,经开发者证实,mlx 在跑模型时已经优于自家的mps,且跟用cuda 的v100 pcie 相比也不逊色。苹果自家开发框架的表现相当快速、优异,至于一般pc 这里,就要看有没有同样出色的开发框架出现了。
贸泽电子打造现代化智慧仓储,助力分销升级
方博碳讨室17 | 从青海格尔木,看光伏电站十年高质量发展
CES2012:三星PLS广视角液晶再受热
视频监控的供电方式_如何选择视频监控的供电方式
金信诺郑军:“中国航展是最好的展示舞台”
什么是AI PC、AI手机?AI PC和AI手机出现的来龙去脉
什么是Register Renaming(寄存器重命名)/R
魅族Flyme 6今天公测:亮点很多,一定不会让煤油失望
云计算不被信任的原因是什么
中国智能锁行业混战 求稳才是大多数企业2020年的发展目标
升压斩波电路能使输出电压高于输入电压的原因
Print My Part研发视觉辅助新工具:3D打印为早产儿进行视力检测和训练
电动叉车充电桩户外充电安全又快速
如何让语音芯片长期保持稳定?
超稳定界面和超高性能的全固态电池
这台诺基亚能买4台iPhone7
连接器如何助力工业设备小型化数字化
LCD液晶拼接屏的使用寿命有多长
人工智能的进步到底会带我们走向怎样的世界?
vivoY55s开启预售,6000mAh超大电池1399元起