英特尔推出从云端到边缘的全新AI 硬件,加速AI 开发

2019-11-13来源: EEWORLD关键字:英特尔  AI  硬件

在2019英特尔人工智能峰会期间(Intel AI Summit 2019),英特尔展示了一系列新产品进展,旨在加速从云端到边缘的人工智能系统开发和部署,迎接下一波人工智能浪潮的到来。英特尔展示了面向训练 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特尔® Nervana™ 神经网络处理器 (NNP)。作为英特尔为云端和数据中心客户提供的首个针对复杂深度学习的专用 ASIC芯片,英特尔 Nervana NNP具备超高扩展性和超高效率。英特尔还发布了下一代英特尔® Movidius™ Myriad™ 视觉处理单元 (VPU),用于边缘媒体、计算机视觉和推理应用。

 

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao表示:“随着人工智能的进一步发展,计算硬件和内存都将到达临界点。如果要在该领域继续取得巨大进展,专用型硬件必不可少,如英特尔 Nervana NNP 和 Movidius Myriad VPU。采用更先进的系统级人工智能,我们将从‘数据到信息的转换’阶段发展到‘信息到知识的转换’阶段。”

 

随着这些产品的发布,英特尔人工智能解决方案产品组合进一步得到强化,并有望在2019年创造超过35亿美元的营收。英特尔人工智能产品组合的广度和深度都堪称行业之最,能够帮助客户在从云端到边缘的所有设备和各个范围内,进行人工智能模型的开发和部署。

 

新推出的英特尔 Nervana神经网络处理器现已投入生产并完成客户交付,它是系统级人工智能解决方案的一部分。该解决方案提供由开放组件和深度学习框架集成开发而成的完整软件堆栈,能够充分利用硬件性能。英特尔 Nervana神经网络训练处理器(Intel Nervana NNP-T)在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。英特尔 Nervana神经网络推理处理器(Intel Nervana NNP-I)具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。

 

Facebook人工智能系统协同设计总监Misha Smelyanskiy表示:“我们非常高兴能够与英特尔合作,利用英特尔神经网络推理处理器(NNP-I)部署更快、更高效的推理计算。同时,我们最新的深度学习编译器Glow也将支持NNP-I。”

 

此外,下一代英特尔 Movidius VPU 计划于 2020 年上半年上市,凭借独一无二的高效架构优势,能够提供业界领先的性能:与上一代VPU相比,推理性能提升10倍以上,能效则可达到竞品的 6 倍。英特尔还发布了全新的英特尔® DevCloud for the Edge,与英特尔® Distribution of OpenVINO™ 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。

 

推进深度学习推理和应用需要极其复杂的数据、模型和技术,因此在架构选择上需要有不同的考量。事实上,业界大部分组织都基于英特尔®至强®可扩展处理器部署了人工智能。英特尔将继续通过英特尔®矢量神经网络指令 (VNNI) 和英特尔®深度学习加速技术(DL Boost)等功能来改进该平台,从而在数据中心和边缘部署中提升人工智能推理的性能。在未来很多年中,英特尔至强可扩展处理器都将继续成为强有力的人工智能计算基石。

 

对于有着最先进深度学习训练需求的英特尔客户来说,他们要求性能每 3.5 个月提升一倍,而这一类突破只有借助一系列人工智能解决方案才能实现,比如英特尔人工智能解决方案。英特尔有能力全面考虑计算、内存、存储、互连、封装和软件,以最大限度提升效率和可编程性,并能确保将深度学习扩展到数以千计节点的关键能力,进而扩大知识革命的规模。

关键字:英特尔  AI  硬件 编辑:muyan 引用地址:http://news.2689mr.com/IoT/ic479828.html 本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:创建智能办公空间,卓思韦尔助力企业数字化转型
下一篇:儒卓力提供具有高开关速度的英飞凌宽带RF开关

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

英特尔携手创新者生态伙伴共同加快5G创新
英特尔的宏旨是创造改变世界的技术,造福地球上每一个人。为此,我们正在把技术的力量融入通信产业,并将云经济扩展到网络和边缘。从核心到边缘的云化网络将有助于创建我们数据驱动的未来所需的5G通信基础设施。 与任何革命性的技术一样,5G的真正价值将来自跨行业的创新者生态系统。在此生态系统里,创新者以指数级的方式提升彼此能力,而英特尔在加速此类协作方面具有独特优势。从我们在云、网络和边缘计算的核心位置开始,我们正在推动5G摆脱炒作,带来更多经过验证的5G用例。我们致力于帮助更广泛的商业社区实现5G作为下一代和最佳无线网络的全部潜力,无论是基于超可靠连接的智能交通、人工智能助力的实时数据分析、工业制造还是任何我们尚未畅想过的事情
发表于 2020-06-08
英特尔携手创新者生态伙伴共同加快5G创新
自动驾驶汽车大规模落地所面临的挑战
作者:Amnon Shashua教授 ,英特尔公司高级副总裁、英特尔子公司Mobileye总裁兼首席执行官在今年1月的国际消费电子展(CES)上,Mobileye公布了一段未经剪辑的时长为25分钟的路测视频,展示了Mobileye自动驾驶汽车在耶路撒冷喧嚣街道上行驶的情景。我们发布这段视频的首要目的是提高自动驾驶的透明度,即便我们也想展示Mobileye的非凡技术,但比这更重要的是,我们想向世人展示自动驾驶汽车是如何运行的,因为只有这样,自动驾驶汽车才能赢得社会的信任。为了进一步加深大家的理解,我想要再公布一段40分钟的视频,这段新的视频同样未经剪辑,记录了Mobileye的自动驾驶汽车在耶路撒冷街道上连续行驶160英里期间的情景
发表于 2020-06-06
自动驾驶汽车大规模落地所面临的挑战
日经:华为囤货英特尔、赛灵思等美国关键芯片,库存够2年
日经亚洲评论报道,消息人士透露,华为已经储备了长达两年的美国关键芯片,以保护其业务不受美国政府的打击。消息人士称,华为储备的重点是英特尔生产的服务器芯片和赛灵思的服务器以及可编程控制器芯片,这些是华为基站业务和新兴云业务最重要的组件,其库存足以维持一年半至两年。消息人士指出,在美国5月15日新一轮制裁之后,华为没有可立即获得的长期替代产品,实际上美国政府已经阻止了华为芯片的生产。此外,分析师表示,长久依赖库存消耗最终会消磨华为的竞争力。在华为首席财务官孟晚舟在加拿大被捕后不久,华为在2018年底开始购买芯片,消息人士透露。华为上周披露该公司在2019年斥资人民币1674亿元储备芯片、零部件和材料,较上年增长73%。尽管华为尚未透露
发表于 2020-05-29
英特尔:是今年高性能10nm节点,同时会致力于7nm工艺的量产
据华硕官微消息,近日,英特尔在股东大会上回应投资者的提问中表示,今年年中将是高性能10nm的一个节点,同时会致力于7nm工艺的量产。此外,英特尔还提到了,他们正在投入大量资源研发5nm工艺。而当前的工作重点,是加速10nm工艺量产。此前英特尔的首席财务官George Davis日前也有所提及未来制程发展计划。他称,现在10nm产能正在加速。接下来,英特尔将会于2021年推出7nm制程,之后迅速切换至5nm并重夺领导地位。George Davis还坦言了10nm制程的情况,即10nm不会像14nm与22nm那样高产量。其此番话有两层意思,一是与14nm并行的状态下,10nm产品本身就有限,二是10nm仅会改良1-2代(10nm+
发表于 2020-05-28
最强算力融合最强区块链技术,英特尔加入蚂蚁区块链生态
5月27日,英特尔与蚂蚁区块链宣布战略合作,并完成远程链上签约。全球芯片巨头加入蚂蚁区块链生态,最强算力和最强区块链技术首次深度融合。  物联网时代,无处不在的算力需求推动芯片爆发式增长,传统芯片行业重资产、高投入、长周期的商业模式难以适应大批量、高流转、快速出货的需求,产业链流转效率亟需提升。 芯片上链推动传统芯片商业模式革新。加入蚂蚁区块链后,以英特尔芯片为源头的硬件租赁供应链体系将实现整体区块链化,租赁厂商、保险公司、资金机构全部上链,流转过程中所有信息均真实不可更改,从而降低各环节互信成本,提高芯片产业链中下游的供给效率和融资效率,拉动芯片供应商供货量,为传统芯片行业注入新活力。 
发表于 2020-05-27
最强算力融合最强区块链技术,英特尔加入蚂蚁区块链生态
ICP推出紧凑型ITG-100AI人工智能系统
ICP日前推出超紧凑型ITG-100AI人工智能推理系统,该系统可与专用的神经网络拓扑(DNN)一起使用。在硬件方面,ITG-100AI中集成了两个英特尔Movidius MyriadX VPU,提供出色的推理性能。 在软件方面,ITG-100AI支持英特尔开源工具包“Open Visual Inference Neural Network Optimization”(OpenVINO),为广泛的神经网络提供端到端加速。OpenVINO使得基于CNN(卷积神经网络)的预训练模型可以轻松部署在边缘。除其他外,Caffe或Tensorflow的训练模型也可以轻松地导入。 ITG-100AI还配备了Intel
发表于 2020-05-27
小广播
换一换 更多 相关热搜器件
电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2020 EEWORLD。com。cn, Inc。 All rights reserved
皇家赌场送彩金 充值送彩金的彩票网 送彩金论坛 天音彩票开奖 彩票大赢家 海鸥娱乐系统 那个娱乐网送彩金 qq等级送彩金线上娱乐 充值送彩金购彩软件 彩票大赢家