2020年9月25日,北京-在刚刚结束的2020云旗大会上,阿里云宣布了业界首个开源深度学习开放接口标准ODLA(开放深度学习API)。
阿里云在今年5月的OCP全球峰会上首次宣布了ODLA接口标准,并宣布率先获得了Graphcore等生态合作伙伴的支持。
IPU是Graphcore从头开始设计的用于机器智能的AI处理器。
通过ODLA界面,开发人员可以在IPU上快速运行各种模型的AI Matrix。
张伟峰博士在2020 OCP全球峰会上宣布了ODLA接口标准。
ODLA是用于加速深度学习的统一异构硬件编程接口。
ODLA标准化了深度学习计算任务的定义和执行,实现了上层应用程序与底层异构硬件平台的分离,使AI异构计算更加容易,并实现了“一次生成,随时链接,随处执行”的愿景。
;。
“令人兴奋的新应用程序意味着我们对数据中心的期望比以往更高。
我们希望通过使用更广泛的硬件选项来更大范围地扩展操作类型的范围。
ODLA使我们能够管理这种复杂性并发掘这些杰出新技术的全部潜力”。
Graphcore高级副总裁兼中国总经理卢涛说。
阿里云开发了ODLA,以解决异构计算中长期存在的核心挑战。
ODLA是用于异构硬件的轻量级且高效的统一接口标准,可以在异构计算环境中最大程度地提高效率。
在异构计算环境中,软件框架需要从专业芯片中获得最高性能,并且多种类型的处理器需要在同一个平台上协同工作,并且每个处理器都必须在一定程度上针对其体系结构和专业知识。
优化,例如AI的稀疏性。
API提供的抽象级别可以适应芯片体系结构之间的差异。
通过ODLA的基于ODLA的异构AI硬件对接解决方案,可以大大减少Graphcore IPU上的技术适应和应用部署的工作量,并可以大大提高效率。
此外,通过ODLA,软件和硬件可以更好地与AI计算框架进行协调,并且可以快速使用现有的编译优化技术来实现最佳性能。
对于异构任务,ODLA充当系统范围通用语言和特定于体系结构的优化之间的接口或转换器,这些优化可以从诸如Graphcore的IPU之类的设备中获得最佳性能。
对于数据中心运营商而言,ODLA除了简化了新微处理器技术的集成之外,还带来了一系列其他好处。
它支持常规的高性能数据中心设置,并为高级应用程序提供统一的加速框架。
对于应用程序开发人员,它减少了重复优化不同体系结构的需要,并应减少开发成本并缩短上市时间。
2020年云栖大会上宣布的ODLA的主要特点和优势包括:透明的接口层,零损耗。
接口抽象和统一,软硬件解耦:通过面向AI的多粒度运算符抽象,定义了统一的接口,特定的软件和硬件分离,服务得以顺利迁移;实现代码重用,提高开发和部署效率。
多模式执行模式:支持多种执行模式,涵盖了与各种硬件操作模式兼容的解释执行,编译执行,加载预编译代码等场景。
AI全场景支持:支持推理和培训,适应云,边缘和端到端AI服务;具有广泛的操作员定义和丰富的界面(设备管理,会话管理,执行管理,事件同步/异步,资源查询,性能监视等)。
出色的可扩展性,支持AI芯片制造商的独特属性和定制运营商。
张卫峰博士在云栖大会上宣布,开源ODLAGraphcore公司相信IPU将成为下一代数据中心AI工作负载的核心。
我们深知,我们的愿景需要包括ODLA在内的许多框架和工具,这些框架和工具才能使我们的产品与其他一流的技术协同工作。
Graphcore联合创始人兼首席执行官Nigel Toon表示:“ ODLA优雅地满足了Graphcore新用户的两个最大需求。
一个是他们想轻松地将我们的技术集成到现有数据中心中,另一个是