英特尔 CEO Brian Krzanich 刚刚在《华尔街日报》举办的 D.Live 大会上发布了自家性能最强、专为深度学习而打造的神经网络处理器 Nervana 。 其声称这颗 ASIC 芯片可用于处理人工智能方面的工作(比如矩阵乘法和转换),这是它与 CPU 和 GPU 这样的通用计算硬件的最大区别。尽管当前英特尔在芯片架构上没有太深入的动力,但 Nervana 创造者 Naveen Rao 在一篇单独的博客文章中写到:
其从一开始就能理解所涉及的操作和数据动作,因此该芯片可以不像今日的 CPU 或 GPU 那样需要一个标准的缓存层次结构。
相反,其内存管理显然是 100% 在软件中完成的。Rao 声称 ,与主打通用计算的竞品相比,这意味着该芯片能够更好地压榨芯片性能。
在更早的一篇博客文章中,该公司表示,由于仅包含金酸相关的硬件,Nervana 可以省去与缓存控制和相干逻辑有关的电路,从而囊括更多的计算资源。
在那时,Nervana 还计划为该芯片搭配高达 32GB 的四堆栈 HBM 运存,且暗示已通过某种形式实现了神经网络计算(NNP)。
NNP 的另一潜在创新,在于对某些数据类型的处理。英特尔声称 NNP 提供了一种全新的“拐点”(Flexpoint)数字格式。
该公司称:“Flexpoint 允许通过固定点乘和加法来实现标量计算,也可借助共享指数来实现大动态范围”。
该特性还使得 NNP 可以在给定核心面积上封装进更多的操作部件,同时减少每个部件工作时的能耗。此外,每个 NNP 也可包含专门用于和其它神经网络处理器通讯的片内互联芯片。
在过去有关 Nervana Engine ASIC 的描述中,该公司计划为每颗芯片上具有弹性计算力的内部或互联连结点引入“六个双向高带宽链接”—— 要么增加用于任务的计算资源的数量、要么增加 NNP 集群的规模大小。
Krzanich 表示,当前英特尔正在制定数代 Nervana NNP 产品。而该公司新闻稿中也提到,未来这些产品有助于在 2020 年将深度学习成绩提升百倍的目标。
最后,在一个单独的 播客 节目中,Rao 表示,随着产品的成熟,该公司还与 Facebook 在 NNP 上展开了合作,更多细节可留意该他们的后续报道。
相关资讯
最新热门应用
非小号交易平台官网安卓版
其它软件292.97MB
下载
币交易所地址
其它软件274.98M
下载
iotx交易所app
其它软件14.54 MB
下载
zt交易所安卓最新版
其它软件273.2 MB
下载
币拓交易所bittok
其它软件288.1 MB
下载
u币交易所平台app
其它软件292.97MB
下载
热币全球交易所app官网版
其它软件287.27 MB
下载
多比交易平台app
其它软件28.28MB
下载
币赢交易所app官网安卓版
其它软件14.78MB
下载
toncoin币交易所安卓版
其它软件48MB
下载