AI算法进步神速对人工智能意味着什么

对于“未来的算法能与现有半导体芯片或正在开发之新运算架构契合”这件事,我们能抱持多大的信心?随着算法的进展速度超越硬件技术进展进步,甚至是最先进的深度学习模型都可以被布署于只要5美元的raspberry pi开发板。
在1980年代的处理器上执行目前最先进的算法,与在目前最先进的处理器上执行1980年代之算法,哪一种可以算得更快?答案令人惊讶,通常是在旧处理器上执行新算法能算得更快。虽然摩尔定律(moore’s law)因为是电子产业快速发展的驱动力而备受关注,但它只是驱动力的其中之一,我们经常忘记算法的进展速度其实在很多情况下都胜过摩尔定律。
根据德国柏林工业大学教授、知名数学家martin grötschel的观察,在1988年需要花费82年才能算出解答的一个线性程序设计问题,在2003年只需要1分钟就能解决;在这段时间,硬件的速度快了1,000倍,算法的进步则达到4万3,000倍。
美国麻省理工学院(mit)教授dimitris bertsimas的类似研究结果显示,在1991年至2013年间,混合整数求解器(mixed integer solvers)算法速度快了58万倍,同时间顶尖超级计算机的硬件速度只有进步32万倍。据说类似的结果也发生在其他类型的约束优化(constrained optimization)问题和质因子分解(prime number factorization)问题中。
这对人工智能(ai)意味着什么?
过去五年来,ai无论在学界、业界或是新创领域都呈现爆炸性发展,最大的转折点可能是发生在2012年,当时一个来自加拿大多伦多大学(university of toronto)的团队alexnet,利用深度学习方法一举赢得了年度计算机视觉影像辨识大赛imagenet large scale visual recognition challenge (ilsvrc)冠军,自此深度学习就成为实现ai的关键方程式。
计算机视觉的演进已蔓延至自然语言处理和其他ai领域。智能喇叭、实时计算机翻译、机器人对冲基金(robotic hedge funds),以及web参考引擎(web reference engines)…等等新产物,已经不会再让我们感到惊讶。
ai也成为了交通运输产业的驱动力(这也是autotech ventures的投资目标之一);我们已经观察到,先进驾驶辅助系统(adas)、自动驾驶、车队检测(fleet inspection)、制造质量控制,以及车载人机接口等等应用领域具备庞大的发展潜力。到目前为止,我们已经投资了几家在诸如adas、自动驾驶、视觉检测与边缘运算等应用领域开发ai解决方案的新创公司,在分析这些商机时,算法和硬件之间的交互作用是我们进行投资决策时的关键考虑因素之一。
大众对ai硬件的关注
基于深度学习的ai在其转折点之后,出现了对绘图处理器(gpu)的强劲需求。由于具备很强的平行运算能力,gpu对于深度学习算法所采用的逻辑碰巧能展现惊人效率;gpu大厂nvidia在市场竞争中脱颖而出,其股价从2013年到2018年上涨了20倍。
当然,nvidia竞争对手们正在努力追赶;高通(qualcomm)、arm和其他公司将注意力集中在ai芯片设计上,英特尔(intel)则收购了ai芯片新创公司nervana systems。google、facebook、苹果(apple)和亚马逊(amazon)纷纷投入了为自家数据中心及其他计划开发自有ai处理器,也有一些新创公司(例如graphcore、mythic、wave computing、cerebras和sambanova)看准商机,试图设计更好的图灵机(turing machine)系统。像d-wave systems和ibm等其他一些公司也在积极探索后图灵时代的架构。大多数芯片开发的目标是赶上或超过nvidia。然而,据我们所知,大多数处理器都是针对今日的ai算法进行设计。
尽管需要庞大的前期开发成本,我们仍将经历各种ai芯片设计的“寒武纪大爆发”。ai前景如此诱人,让产业玩家愿意投入巨资开发硬件,在以往是要让硬件与基础数学算法匹配,但对于让现有半导体芯片或正在开发的新运算架构能与未来的算法契合,我们有多大的信心?
有鉴于算法的演进速度和幅度变化是如此之快,许多ai芯片设计可能还没上市就过时了;我们推测明日的ai算法可能会需要完全不同的运算架构、内存资源,以及数据传输能力等等条件。
尽管深度学习框架已经出现很长一段时间,直到最近才真正被付诸实现,这要感谢摩尔定律所预测的硬件技术进展。最初的数学不一定是为工程实践而设计的,因为早期研究人员无法想象今日花1,000美元就能获得的运算能力有多么大。现今许多ai实作都是使用原始的数学模型,朝着准确、简单且更深层的方向发展,或者添加更多数据;但这样只会很快消耗gpu的运算容量。只有一小部分研究人员专注于改善基础数学和算法框架的难题。
还是有很多机会认识并利用这些新颖的数学进展,我们所观察到的方法包括精简冗余数学运算(redundant mathematical operations)而减少运算时间,将卷积压缩到较小的矩阵而减少内存需求,或者对加权矩阵进行二值化(binarize)而简化数学运算。这些是算法演进的第一次尝试,其发展之快已经开始超越硬件进展。
举例来说,从美国加州大学伯克利分校(uc berkeley)研究项目独立的deepscale ,就是将应用于adas和自动驾驶的ai,“塞进”车用芯片(不是gpu),与仅采用算法的物体检测模型相比较,他们的神经网络模型的指令周期要快30倍,同时在功耗和内存占用方面也有很大的提升,足以在这几年问世的现有硬件上执行。
另一个算法大跃进的案例来自美国的非营利研究机构艾伦人工智能研究所(allen institute of artificial intelligence),该机构研究人员采用一种利用神经网络二值化的创新数学方法,已经证明可以大幅提高速度,同时降低功耗和内存要求;如此甚至能让最先进的深度学习模型布署于售价仅5美元的raspberry pi平台上。研究人员最近将这种算法和处理工具独立为一家公司xnor.ai,旨在于边缘设备布署ai,并进一步推动ai算法的进步。
有趣的是,新的二值化框架从根本上改变了最佳处理逻辑的类型,它们不再需要解决神经网络所需的32位浮点卷积,而只需要进行位计数运算(bit counting operations)——这将改变gpu领域的权力平衡。此外如果这些算法与专门设计的芯片相匹配,则可以进一步降低运算资源需求。
算法的进步不会停止;有时需要数年甚至数十年才能发明(或者说是发现)新的算法。这些突破无法以与摩尔定律推动的运算进展相同之方式来预测。它们本质上是非确定性的;但是当它们发生时,整个局势变化通常会让现有的主导者变成脆弱的猎物。
黑天鹅效应
畅销书《黑天鹅效应:如何及早发现最不可能发生但总是发生的事》(the black swan: the impact of the highly improbable)的作者在书中阐明,最佳决策在很大程度上取决于分析过程是不可预测或不确定;换句话说,我们是在处理“已知的未知”(known unknowns)还是“未知的未知”(unknown unknowns)?算法创新基本上是未知的未知,因为它们的发现时间不确定以及影响不可预测,押注于这类发展需要持续的关注。
然而,在应用数学领域,尤其是ai应用领域,在最近二十年内出现了数次颠覆性的算法发现,它们与gpu一起,将ai从一个不起眼的研究领域带到了商业化最前线。
我们意识到这些运算领域“黑天鹅”的潜力,它们将使现有芯片架构成为过去,或者在一夜之间让它们的市场地位重新洗牌。对我们来说,这些「黑天鹅」最后可能会实现更安全的自动驾驶车辆,以及许多其他未知的应用案例。

采甩EPlKl000C208-3芯片实现温度检测无线发射接收系统设计
最新的机器人将怎样用于工业与军事
定位精准至“厘米级” 高精度“赋能”全社会
电动机选型注意事项
基于Arduino与机智云的家居环境远程系统设计(云平台部署)
AI算法进步神速对人工智能意味着什么
海康威视获得发明专利授权:“一种人体应激性信息识别方法、装置及电子设备
中国电信将持续强化IPTV平台赋能,打造有温度的“智慧乡村”!
马云:未来30年 数据将取代石油,成最强大能源
赛普拉斯推出全球最灵活的单芯片ARM Cortex-M0解决方案
CMCIC2017中国测控技术与仪器大会-主题展
使用人工智能的智能手机应用程序来帮助糖尿病患者
RS232转PROFINET网关PNRS232-K20配置步骤
Beat Saber面市 被赞“追踪功能非常棒”
赛灵思和华为联合宣布华为 FPGA 加速云服务器平台登陆北美市场
苹果Apple News+陷入无法访问状态
富士通Tegra3首款四核智能机泄露
风河云平台催生新一代物联网支持系统
深度学习在机器视觉中的应用与发展
智能家居魔镜,让智能家居行业人气爆棚的黑科技