Graphcore首次发布大型IPU产品,为超级计算机领域提供超强AI算力

2021年10月22日,英国布里斯托——graphcore今日宣布发布最新产品ipu-pod128和ipu-pod256。ipu-pod128和ipu-pod256是graphcore迄今为止发布的最大型的产品,分别能够提供32 petaflops和64 petaflops的ai计算。ipu-pod128和ipu-pod256的发布意味着graphcore进一步扩展了其在超级计算机领域的业务范围,将为超级计算机领域提供超强ai算力。
ipu-pod128和ipu-pod256的发布进一步兑现了graphcore在ai旅程的每个阶段为客户提供服务的承诺。ipu-pod16仍然是理想的探索平台,ipu-pod64适用于想要建立ai计算的客户,而ipu-pod128和ipu-pod256适合需要实现进一步快速增长的客户,可以在整个系统中更快地训练基于transformer的大型语言模型,在生产中运行大规模商业ai推理应用程序,通过将系统划分为更小、更灵活的vpod,为更多开发人员提供ipu访问权限,或者通过在整个系统中探索gpt和gnn等新兴模型来实现科学突破,是云超大规模企业(cloud hyperscaler)、国家科学计算实验室以及在金融服务或制药等市场拥有大型ai团队的企业的理想之选。
首批部署ipu-pod128的客户包括韩国科技巨头korea telecom(kt)。为了不断满足日益增长的超大规模ai hpc环境市场需求,kt正与graphcore合作,将其所拥有的ipu-pod64升级为ipu-pod128,以增加为客户所提供的“超大规模ai服务”。
kt云/数字体验业务部高级副总裁mihee lee表示:“通过此次升级,预计我们的ai计算规模将增加至32 petaflops的ai计算,使更多元的客户能够使用kt的先进ai计算技术进行大规模ai模型训练和推理。”
与其他ipu-pod系统一样,ai计算和服务器的解聚意味着ipu-pod128和ipu-pod256可以在优化后,为不同的ai工作负载提供最大性能,实现最佳总体拥有成本(tco)。例如一个以自然语言处理(nlp)为主的系统可以只使用2台服务器;而更多的数据密集型任务,例如计算机视觉任务等可以使用8台服务器。此外,系统存储可以使用来自graphcore最近公布的存储合作伙伴所提供的技术,围绕特定的ai工作负载进行优化。
广泛使用的语言和视觉模型的结果显示,ipu-pod128和ipu-pod256具有极为出色的训练性能和高效的扩展能力,随着未来软件的优化,这两大产品有望进一步提高性能。
将graphcore计算扩展到ipu-pod128和ipu-pod256需要大量使能技术支持,其中既包括硬件技术也包括软件技术。graphcore将携手合作伙伴为全球客户部署ipu-pod256和ipu-pod128,客户可以从云端或atos等graphcore的合作伙伴处获取ipu-pod256和ipu-pod128。
atos集团高级副总裁兼hpc和quantum主管agnès boudot表示:“我们十分高兴能将ipu-pod128和ipu-pod256加入到我们的atos thinkai产品组合中,使我们的客户能够在众多领域更快探索和部署更大、更具创新性的ai模型。”

一种振动供能的车间远程火灾报警器
谷歌Pixel手机,物美价廉让我们共同期待它的诞生吧!
配网行波故障预警与定位装置的测距理论
我们目前在机器学习方面的进展有多可靠?
LXI数字化仪为混合模式测试新增了I/O线
Graphcore首次发布大型IPU产品,为超级计算机领域提供超强AI算力
如何得知太阳能组件最大输出功率
华为Mate 10手机发布了手机盾可让金融服务更安全更智慧
高智商机器人背后的喜怒哀乐
发电机功率因数过高或过低的危害
双面电路板焊接方法视频
iphone8什么时候上市?iphone8最新消息:别等了,oled显示屏断货,iPhone8 可能将无缘亮相2017
如何将在CAD中绘制螺旋线导入到AD中
典型的FPGA芯片解读
如何理解SD-WAN的“小”?
模数转换方案合集
关于光纤尾纤和光纤跳线的区别
感测元件助力 驱动IC商力拓智慧照明市场
AMD表示:与上一代RDNA 的显卡相比,AMD RDNA2 性能更胜一筹
应用于机器人的传感器技术介绍