Nvidia GTC2019:没有新架构,但黄仁勋打造了一个巨大的生态圈

在美国加州圣何塞的圣何塞大学活动中心,一年一度的英伟达 gtc(gpu technology conference)大会正式开幕,英伟达创始人兼 ceo 黄仁勋做了重磅演讲。
作为英伟达展示其技术实力和产品进展的最重要的舞台,本次 gtc(也称 gtc 2019 )覆盖了 ai/深度学习、数据中心加速、自动驾驶、图像处理与模拟、高性能计算、机器人等多个领域。雷锋网编辑也受邀来到 gtc 2019 现场,见证了英伟达在诸多领域的最新进展。
那么,在本次 gtc 的 keynote 上,英伟达放出了哪些“核弹”呢?
利用 rtx 技术,发力 3d 行业
在 2018 年的 siggraph 会议上,英伟达发布了全新的图灵架构惊艳了整个计算机图形行业;同时基于此架构,英伟达发布了 rtx (实时光线追踪)技术和基于该技术的 quadro 系列 gpu。
不过对于英伟达来说,要想推动 rtx 走向市场,自然离不开合作伙伴的支持。
在本次 gtc 上,英伟达宣布,众多全球顶级的 3d 应用提供商支持 nvidia rtx 技术,相关产品将在 2019 年发布;这些应用商包括 adobe、unity、unreal engine、pixer 等。按照英伟达的说法,在这样的合作之下,rtx 技术将会在 2019 年到达 900 万 3d 创作者手中。
在这里,黄仁勋发布了 nvida omniverse,它是一个让创作者利用 rtx 技术来进行创作的 3d 开放协作平台。
在这个平台之上,英伟达与 pixar、digital domain 等众多平台合作,支持最新的设计协作行业标准。比如说,它支持 pixar 的 scene description 技术,在渲染、模型、动画、光效、阴影等方面更好地交换信息,同时也支持 nvidia 的 material definition language,能够让创作者在多个工作中变换表面材料信息。
同时,创作者也可以利用英伟达的 omniverse viewer 来实时查看自定义条件下的 3d 效果。当然,omniverse viewer 也利用了 rtx 技术和 cuda 核心和支持 tensor core 的 ai 技术。
基于 rtx 技术,黄仁勋还发布了数据中心级别的图像服务器 nvidia rtx servers,它能够支持渲染、omniverse 和 geforce now 云端游戏服务。其中,有一个最新配置令人震惊,它在 32 个 rtx blade server(每个 blade server 拥有 40 个 gpu) 上部署了 1280 个图灵架构的 gpu,从而在云渲染、效率和规模上实现了飞跃。
目前,包括戴尔、hpe、联想、asus、supermicro 在内,已经有不少服务器厂商已经推出了讲过认证的 nvidia rtx 服务器,从而提供数据中心级别的高度可定义、按需分配的内容渲染和虚拟工作站解决方案。
值得一提的是,基于两块 quadro rtx 8000 gpu(quadro rtx 系列除了支持实施光线追踪,也 ai 方面也有极佳的表现 ), 英伟达也发布了专门面向数据科学家的工作站,它拥有 96gb 内存,预装了 cuda-x ai 库,支持 rapids、tensorflow、pytorch、caffe、anaconda dsitribution,可以达到 10 倍的数据处理速度。
发布 cuda x ai,加速数据科学
本次 kyenote 上,黄仁勋发布了全新的 ai 加速库——cuda x ai sdk 库。
cuda x ai sdk 可以用于数据分析、机器学习、深度学习等多个领域的加速;它可以更好地释放 tensor core gpu 的灵活性,实现以下诸多方面的加速:
数据科学中的数据获取、etl、模型训练和部署;
机器学习算法的压缩、分类等;
深度学习中的的训练框架,针对 nvidia tensor core gpu 进行自动优化;
云端的推理和大规模 kubernetes 部署;
pc、工作站、超计算机、企业数中心中的数据科学;
aws、google cloud 和微软 azure 云计算中的 ai 服务。
英伟达方面表示,cuda-x ai 可以实现机器学习和数据科学最高 50 倍的负载加速,它包含了十几个特性的加速库。比如说,它可以通过 cudf 加速数据分析,通过 cndnn 加速深度学习,通过 cuml 加速机器学习算法,通过 dali 加速数据处理。
当前,cuda-x ai 已经被 charter、微软、paypal、sas 和沃尔玛等公司所采用,同时也支持 tensorflow、pytorch 和 mxnet 等主流的深度学习框架。
在本次 gtc 上,黄仁勋宣布,已经有七家世界级的厂商将推出基于 nvidia t4 gpu 和 nvidia cuda-x ai 加速库的服务器,这些服务器都已经针对 cuda-x ai 进行了特殊优化。这七家厂商分别是:思科、戴尔 emc、富士通、惠普企业、浪潮、联想、曙光。
同时,英伟达宣布,这些厂商推出的上述服务器均为 nvidia ngc-ready 认证通过。2018 年 11 月,英伟达发布了 ngc-ready 计划,让采用基于英伟达 gpu 系统的客户能够在更广的范围内放心地部署 gpu 加速软件。目前,这些通过认证的服务器的关键型号如下:
cisco ucs c240 m5
dell emc poweredge r740/r740xd
fujitsu primergy rx2540 m5
hpe proliant dl380 gen10
inspur nf5280m5
lenovo thinksystem sr670
sugon w760-g30
此外,针对 ngc-ready 项目,英伟达也宣布了一项全新的企业级支持服务——nvidia ngc support services,它可以支持所有的 ngc-ready t4 系统和诸多此前已经通过认证的基于 nvlink 和基于 tesla v100 的服务器,以及基于 nvidia 的工作站。
值得一提的是,在谈到这一环节时,mellanox technologies(英伟达此前不久宣布以 69 美元的价格收购该公司 )ceo eyal waldman 也来到现场,与黄仁勋同台亮相,二人对外简单分享了英伟达在加速计算的未来愿景。
另外,在发布会上,黄仁勋与为之站台的亚马逊 aws 副总裁 matt garman 联合宣布,nvidia 与亚马逊 emc 达成合作关系;它的最新的 ec2 g4 服务器采用了英伟达 t4 tencor core gpu,该服务器将在未来数周内可用。
全新99美元jetson nano可运行所有ai模型
在大篇幅介绍rtx和cuda-x ai后,黄仁勋表示,机器人无处不在,英伟达非常重视机器人市场,为此开发了一整套的软硬件产品。gtc 2019推出的全新机器人产品是jetson nano。借助cuda-x可以提供472 gflops的ai性能,功率低至5w。jetson nano分为两个版本,开发者套件面向开发者、发烧友,售价99美元,面向边缘设备系统公司的模块售价129美元。
黄仁勋现场只介绍了售价99美元的版本,不过展示了基于jetson nano的一个小型机器人kaya,集成了多个传感器。这很好的说明,jetson nano支持高分辨率传感器,可处理多个传感器的并行数据,并支持主流的ai框架。
据雷锋网了解,jetson nano的关键特性包括:
gpu:基于nvidia maxwell架构128核的gpu
cpu:四核arm a57
视频:4k @ 30 fps(h.264 / h.265)/ 4k @ 60 fps(h.264 / h.265)编解码
摄像头:mipi csi-2 dphy通道,12x(模块)和1x(开发者套件)
内存:4 gb 64位lpddr4; 25.6千兆字节/秒
连接:千兆以太网
操作系统支持:linuxfortegra
模块尺寸:70mm x 45mm
开发者套件尺寸:100mm x 80mm
drive constellation正式上市
最后介绍的是自动驾驶。黄仁勋认为,未来的自动驾驶系统将是软件定义。他宣布推出drive ap2x 9.0,并展示了这个系统的工作原理以及它如何构建地图。
于此同时,英伟达还推出了加强的nvidia drive av自动驾驶汽车软件套件,套件主要组成部分软件是safety force field(sff),sff是通过获取传感器数据来分析和预测周围环境的动态,并确定车辆和其他道路使用者的安全。
据悉,sff可以使车辆实现安全的碰撞验证,并不是通过有限的统计数据来分析实际情景,试图模拟高复杂性。sff使用真实数据精确模拟进行验证,包括高速公路和城市驾驶的场景,这些场景太危险难以在真实世界进行。
接下来,黄仁勋还宣布nvidia drive constellation正式上市,这个可扩展的仿真平台支持大型虚拟车队自动驾驶汽车,效率更高、成本更低、安全性超过了现实世界中可能实现的效率。
汽车的安全性至关重要,但很多情景难以在现实中测试。黄仁勋演示的视频模拟了汽车在不同自然环境(白天或晚上),不同交通情况下的12种自动驾驶情景。
drive constellation自动驾驶仿真系统的首次亮相是在gtc 2018上,该系统基于两种不同服务器的计算平台:一台服务器运行 nvidia drive sim 软件来模拟自动驾驶车辆的传感器,,如相机、激光雷达和雷达。另一台drive constellation vehicle服务器包含nvidia pegasustm ai 汽车电脑,处理模拟传感数据。drive constellation vehicle的驾驶决策将反馈到drive constellation模拟器,实现位精确,定时精确的硬件在环测试。
简单来说,drive constellation 生态系统的合作伙伴可以整合他们的开放平台环境模型、车辆模型、传感器模型和交通场景。 通过整合来自更广泛的模拟生态系统的数据集,平台可以生成全面的,多样化和复杂的测试环境。
最后,英伟达还宣布了与丰田宣布了一项新的合作,建立在英伟达drive agx xavier av平台与位于日本的丰田tri-ad团队和位于美国的丰田研究所(tri)的持续合作基础之上。
据悉,英伟达和丰田的协议包括开发跨多个扩展的架构车型和类型,加速开发缩短生产时间,以及在具有挑战性的场景中模拟相当于数十亿英里的驾驶。
总结
与往年相比,本次的 gtc 既没有发布新的 gpu 架构,也没有抛出什么重磅的 gpu 硬件新技术和新品;然而,一向雷厉风行的黄仁勋却严重拖堂了——原本计划两小时的 keynote,最终花了两小时四十分钟才结束。
从 keynote 内容来看,英伟达在本次 gtc 上想要传递的信息有两点:一是利用现有的 gpu 技术来实现基于 ai 的加速计算,以此来应对 ai 时代数据科学所面临的挑战;二是在现有的 gpu 能力的基础上,努力扩展在 3d 视觉、自动驾驶等领域的行业,从而构建出一个更加广泛的 gpu 应用生态——这对英伟达未来价值的实现,毫无疑问是非常必要的。

区块链技术将改变防御网络安全的现状
电阻如何看色环读数?终端电阻的开发与应用
如何设置虚拟局域网_虚拟局域网的划分方式
三星8nm LPP工艺利用 Mentor Tessent 工具节省大量设计测试时间
Android 13应用迁移的两个阶段
Nvidia GTC2019:没有新架构,但黄仁勋打造了一个巨大的生态圈
区块链技术运用开发加密货币场外OTC交易所搭建
Zynq UltraScale+ MPSoC以太网接口调试
AMD 将要推出Radeon RX Vega系列GPU 大幅度提升 VR 与 PC 图形
互联网的本质是垄断,要用区块链来颠覆
是不是特别后悔不该买16G的手机?内存总不够?跟我学会这几招,手机内存用不完
FTU系统控制板共模浪涌(SURGE)干扰案例分析
小米机器狗有什么用
万物互联的IoT时代,柔性电子的未来将会如何发展
中核集团创建智慧食堂,践行厉行节约风尚,落实双碳行动
基于摄像机的先进驾驶辅助系统
质量流量计在煤焦化应用技巧:ST98流量元件现场安装定位
中国物联网产业发展关键年2010年
Protel文件如何用CAM Manager制作BOM
51单片机介绍 stm32和51单片机的区别