APSys 2014,AMD将发表基于异构体系的DNN实现与评估

更新时间:2014-06-25 03:55:55 点击次数:2663次

amd语音识别深度学习人工智能deep learningAPSys 2014DNN

摘要:APSys2014将于6月25日-26日将在北京隆重召开,AMD研究院DNN研究项目专家,谷俊丽博士将发表《基于主流异构处理器的DNN实现与评估》的论文并做大会报告,围绕如何创建高效DNN异构平台及OCL的实现技巧作出深入探讨。

APSys 2014将于 6月25日-26日将在北京隆重召开,和人工智能的国际顶会ICML一起举行,来自全球各地的学者将聚集在次,会议将开设专门的针对人工智能设计的系统,解决Big Data+人工智能为系统设计带来的挑战问题。届时,AMD研究院DNN研究项目专家,谷俊丽博士将在APSys 2014上发表《基于主流异构处理器的DNN实现与评估》的论文并做大会报告,内容主要针对主流的机器学习算法,围绕如何创建高效的DNN异构平台以及OCL的实现技巧作出深入探讨。


AMD在DNN研究上的新突破


“性能制约”是早期商用语音识别系统中无法采用人工神经网络技术实现的原因之一。在APsys学术上,AMD DNN深度探讨了基于多个异构平台包括APU/CPU+GPUs方面的研究,以大限度利用计算机的运算能力。经研究表明,APUs能够实现高达2X单位瓦特性能,能效超过已有的CPU+GPU平台。这足以说明,APU服务器可以为DNN应用提供更加高效和高密度的解决方案。


值得庆幸的是,AMD在APSys发表的这篇论文——机器学习系统得到了业界的一致好评,该论文也是受欢迎的作品之一。以下是APSys上的专家给予的高度评论:


该论文很棒,诠释了一种新的观点。

当前工作的好处是,它探索了一种新的方向,基于APU可享受GPU-CPU共享内存和低功耗的优点。

这项工作的价值体现了通过一个潜在的方向使用APU服务器/客户端作为未来深度学习的架构/平台。

深度学习带来了机器学习的一个新浪潮,受到从学术界到工业界的广泛重视,也导致了“大数据+深度模型”时代的来临,未来越来越多的识别都将依赖于深度神经网络。


DNN背景介绍


早在20世纪50年代就出现了人工神经网络,它是一个有很悠久历史的结构,但经过了很多年的发展,依然有很多的局限,比如训练时间长、效率低下等。近年来由于Deep Learning的研究出现了比较大的突破,Deep Neural Network(以下简称DNN)应该是伴随着Deep Learning一起出现的一种人工神经网络的重大改良,其模拟了人脑的一些特性,比如人脑具有一个深度的结构,每深入一层就进行一次抽象,认知的时候逐层进行抽象,进而突破了传统的神经网络算法的局限性,可以说,DNN的出现为语音/图像/人脸等大规模物体的识别技术带来了一次新突破。


众多知名企业参与探讨DNN


2012年《纽约时报》就曾披露了Google Brain项目,吸引了公众的广泛关注。该项目是由的斯坦福大学机器学习教授Andrew Ng和在大规模计算机系统方面的世界顶尖专家Jeff Dean共同主导,用16000个CPU Core的并行计算平台训练一种称为“深层神经网络”(DNN,Deep Neural Networks)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。


据悉,Google(DNN)是早突破深层神经网络工业化应用的企业之一。如今,越来越多的企业开始参与到DNN的研究中,这其中也包括AMD、微软亚洲研究院以及上海交通大学均在APsys上发表了学术论文(APsys是亚太地区系统领域专家组织的专门从事论文研究的学术会议,发展至今已成功举办多次)。


本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责,本站只提供参考并不构成任何投资及应用建议。本站是一个个人学习交流的平台,网站上部分文章为转载,并不用于任何商业目的,我们已经尽可能的对作者和来源进行了通告,但是能力有限或疏忽,造成漏登,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

回到顶部
嘿,我来帮您!