本文摘要:随着人们更加多地用于 AI 来解决问题各个领域的问题,一场“ AI 军备竞赛”早已打响,即建构出有需要以更高速度和更加低功耗运营深度自学模型的专用硬件,以构建翻译成应用程序、数字助手、面部识别系统、内容引荐系统等方面的功能,甚至在医疗保健和自动驾驶等领域获得更大的变革。
随着人们更加多地用于 AI 来解决问题各个领域的问题,一场“ AI 军备竞赛”早已打响,即建构出有需要以更高速度和更加低功耗运营深度自学模型的专用硬件,以构建翻译成应用程序、数字助手、面部识别系统、内容引荐系统等方面的功能,甚至在医疗保健和自动驾驶等领域获得更大的变革。还包括新的芯片架构在内,这场竞赛中早已有了众多新的突破;而这些突破正在以前所未有的全新方式来继续执行任务。针对这一现象,软件工程师兼任科技博客 TechTalks 创始人 Ben Dickson 回应,通过对这些新的突破的洞察,我们也许可以对未来几年里的 AI 硬件架构的发展看出一二。以下是Ben Dickson 的观点,在不转变本意的基础上不作了编译器和补足。
神经形态芯片神经网络是深度自学的关键,它由成千上万个人工神经元构成。无论是非常简单的计算出来,还是例如图像识别和语音辨识等简单的任务,都必不可少(人工)神经网络。然而,目前,人们对传统计算机的升级并不基于对神经网络的优化,而是基于一个或多个更为强劲的中央处理器(CPU)。
神经形态计算机则与传统计算机有所不同,因为它用于一种独有的芯片架构来仿真神经网络,即神经形态芯片。该芯片由许多物理形态的人工神经元构成,在训练和运营神经网络时十分较慢高效。实质上,神经形态计算出来的概念早于在 20 世纪 80 年代就早已经常出现,但由于当时神经网络的效率太低,这个概念并没引发过于多注目。
近年来,随着人们对深度自学和神经网络的兴趣重燃,神经形态芯片的研究也受到了新的注目。今年 8 月,顶级学术期刊《大自然》(Nature)刊出了清华大学施路平教授团队的一项研究,该研究还攀上了该期的封面。(参看(公众号:)此前报导)杂志中取名为《面向人工标准化智能的异构天机芯片架构》(Towards artificial general intelligence with hybrid Tianjic chip architecture)的论文讲解道,清华大学施路平教授的团队研究出有了一款叫做“天机”(Tianjic)的新型人工智能芯片,也就是本文说到的神经形态芯片;它融合了类脑计算出来和基于计算机科学的人工智能。为了检验这款全球首款异构融合的 AI 芯片,研究团队设计了无人智能自行车系统。
据报,该系统还包括了激光GPS、陀螺仪、摄像头等传感器,刹车电机、改向电机、驱动电机等致动器,以及掌控平台、计算出来平台、天机板级系统等处置平台。论文的第一作者,加州大学圣塔芭芭拉分校博士后邓磊指出:相比自动驾驶飞机,智能自行车看上去较小,但实质上它是一个“五脏俱全”的小型类脑技术平台......无人自行车系统的语音辨识、自律决策、视觉跟踪功能运用了仿真大脑的模型,而目标观测、运动控制和逃离障碍功能运用了机器学习算法模型。
虽然没必要证据指出神经形态芯片是建构标准化人工智能的准确道路,但它们的研发认同不会协助更加高效的人工智能硬件问世。而且,神经形态计算出来早已引发了大型科技公司的留意——今年 7 月,英特尔发售了 Pohoiki Beach,这是一台装有 64 块英特尔 Loihi 神经形态芯片的电脑,需要仿真总共 800 万个人工神经元;Loihi 处置信息的速度比传统处理器慢 1000 倍,效率比传统处理器低 10000 倍。
不过,这款神经形态芯片并不合适替代传统的 CPU 架构,它的潜力在于加快诸如约束符合问题、图形搜寻和稠密编码等专门应用于。英特尔还允诺在今年晚些时候将 Pohoiki Beach 不断扩大到 1 亿个神经元。光学计算出来众所周知,神经网络和深度自学计算出来必须大量的计算资源和电力,而人工智能的碳足迹早已沦为一个环境问题。
在今年 6 月份,研究人员估计回应,训练一个 AI 所产生的碳足迹相等于 284 吨二氧化碳当量,这是普通汽车使用寿命内排放量的五倍。与此同时,神经网络的能源消耗也容许了它们在电力受限的环境中的应用于。
随着摩尔定律之后上升,传统的电子芯片的发展想符合人工智能行业的市场需求显得更加吃力。目前,早已有几家公司和实验室将目光改向了光学计算出来,以谋求解决方案——光学计算出来用光子替换电子,用光学信号替换数字信号,从而展开计算出来。由于光学计算出来设备不像铜电缆那样产生热量,这大大降低了它们的能源消耗;光学计算出来也尤其限于于较慢矩阵乘法,这是神经网络中的关键运算之一。在过去的几个月里,早已经常出现了几款光学 AI 芯片的原型机。
总部坐落于波士顿的 Lightelligence 公司就研发了一种光学人工智能加速器,该加速器与当前的电子硬件相容,通过优化一些艰巨的神经网络计算出来,可以将人工智能模型的性能提升一到两个数量级。Lightelligence 的工程师回应,光学计算出来的变革也将减少人工智能芯片的生产成本。最近,香港科技大学的研究人员研发了一种仅有光神经网络。
为了证实这种新方法的能力和可行性,他们建构了一个概念检验模型,即一个具备 16 个输出和 2 个输入的几乎相连的双层神经网络,然后用于仅有光学网络对 Ising 模型的有序和无序阶段展开分类。结果表明,仅有光学神经网络与训练有素的基于计算机的神经网络一样精确。研究小组成员刘俊伟说道:我们的全光学方案可以使神经网络以光速继续执行光学并行计算,而消耗的能量却很少。
大规模的全光学神经网络可以用作从图像识别到科学研究的各种应用于。大型芯片录:右图为Cerebras 公司的大型芯片有时,不断扩大规模显然是解决问题的好方法。
今年 8 月,硅谷初创企业 Cerebras Systems 发售了一款包括 1.2 万亿晶体管的大型人工智能芯片,这也是有史以来仅次于的半导体芯片;除此之外,它在 42225 平方毫米的面积上享有 40 万个内核,比 Nvidia 最大规模的图形处理器还要大 56.7 倍,后者的尺寸为 815 平方毫米。这种大型芯片减缓了数据处理速度,需要以更慢的速度训练人工智能模型——据报,Google、Facebook、OpenAI、腾讯,百度以及其他许多公司都指出,当今 AI 的基本局限性在于训练模型花费的时间过于宽。因此,增加 AI 训练时间可以避免了整个行业变革的主要瓶颈。
与传统的 GPU 和 CPU 比起,这种超大型芯片的独有架构还增加了能耗。Linley Group 首席分析师 Linley Gwennap 在一份声明中说道:Cerebras 的晶片级技术获得了极大的进步,在单个硅片上构建了相比之下远超过任何人想象的处置性能。为已完成这一伟业,该公司甚至解决问题了一系列后遗症工程行业数十年的恶性工程挑战。
Cerebras 最近还与美国能源部签定了一份合约,美国能源部将利用该芯片加快科学、工程和身体健康领域的深度自学研究。不过,生产出有超大规模的芯片并不意味著万事大吉。因为芯片的尺寸将不会受到用于空间的容许;而且,芯片制造商一般来说也会生产这么大规模的芯片,因为在生产过程中很有可能经常出现杂质,从而造成芯片故障。由于目前各行各业都在为深度自学找寻应用于场景,单一芯片架构主导市场的可能性较小。
但可以认同的是,未来的人工智能芯片很有可能与过去数十年里的经典 CPU 不尽相同。录:本文编译器自 VentureBeat原创文章,予以许可禁令刊登。
下文闻刊登须知。
本文来源:博鱼官网-www.deceleratedenergy.com
我要加盟(留言后专人第一时间快速对接)
已有 1826 企业通过我们找到了合作项目