忆阻器的发展过程

忆阻器的发展过程,第1张

HP 关于忆阻器的发现在 2008 年时发表于「自然」期刊,2009 年证明了 CrossLatch 的系统很容易就能堆栈,形成立体的内存。技术每个电线间的「开关」大约是 3nm x 3nm 大,开关切换的时间小于0.1ns,整体的运作速度已和 DRAM差不多, 但是开关次数还不如DRAM-- 还不足以取代 DRAM,但是靠着 1 cm² 100 gigabit(GB), 1cm³ 1 petabit(数据存储单位1PB=1000TB)(别忘了它是可以堆栈的)的惊人潜在容量,干掉闪存是绰绰有余的。

但是 Crossbar Latch 可不止用来储存数据而已。它的网格状设计,和每个交叉点间都有开关,意味着整组网格在某些程度上是可以逻辑化的。在原始的 Crossbar Latch 论文中就已经提到了如何用网格来模拟 AND、OR 和 NOT 三大逻辑闸,几个网格的组合甚至可以做出加法之类的运算。这为摆脱晶体管进到下一个世代开了一扇窗,很多人认为忆阻器电脑相对于晶体管的跃进,和晶体管相对于真空管的跃进是一样大的。另一方面,也有人在讨论电路自己实时调整自己的状态来符合运算需求的可能性。这点,再搭配上忆阻器的记忆能力,代表着运算电路和记忆电路将可同时共存,而且随需要调整。这已经完全超出了这一代电脑的设计逻辑,可以朝这条路发展下去的话,或许代表着新一代的智慧机器人的诞生。

忆阻器和 Crossbar Latch 的组合代表的是电脑科技的全新进展,或许能让我们再一次延续摩尔定律的生命,朝向被机器人统治的未来前进。

惠普实验室的研究人员认为RRAM就是Chua所说的忆阻器,其报道的基于TiO2的RRAM器件在2008年5月1日的《自然》期刊上发表。加州大学伯克利分校教授蔡少棠,1971年发表《忆阻器:下落不明的电路元件》论文,提供了忆阻器的原始理论架构,推测电路有天然的记忆能力,即使电力中断亦然。惠普实验室的论文则以《寻获下落不明的忆阻器》为标题,呼应前人的主张。蔡少棠接受电话访问时表示,当年他提出论文后,数十年来不曾继续钻研,所以当惠普实验室人员几个月前和他联系时,他吃了一惊。

RRAM可使手机将来使用数周或更久而不需充电;使个人电脑开机后立即启动;笔记型电脑在电池耗尽之后很久仍记忆上次使用的信息。忆阻器也将挑战掌上电子装置内普遍使用的闪存,因为它具有关闭电源后仍记忆数据的能力。RRAM将比今日的闪存更快记忆信息,消耗更少电力,占用更少空间。忆阻器跟人脑运作方式颇为类似,惠普说或许有天,电脑系统能利用忆阻器,像人类那样将某种模式(patterns)记忆与关联。

RRAM为制造非易失性存储设备、即开型PC、更高能效的计算机和类似人类大脑方式处理与联系信息的模拟式计算机等铺平了道路,未来甚至可能会通过大大提高晶体管所能达到的功能密度,对电子科学的发展历程产生重大影响。

研究人员表示,忆阻器器件的最有趣特征是它可以记忆流经它的电荷数量。蔡教授原先的想法是:忆阻器的电阻取决于多少电荷经过了这个器件。也就是说,让电荷以一个方向流过,电阻会增加;如果让电荷以反向流动,电阻就会减小。简单地说,这种器件在任一时刻的电阻是时间的函数———或多少电荷向前或向后经过了它。这一简单想法的被证实,将对计算及计算机科学产生深远的影响。 比勒菲尔德大学托马斯博士及其同事在2012年就制作出了一种具有学习能力的忆阻器。2013年,安迪·托马斯利用这种忆阻器作为人工大脑的关键部件,他的研究结果将发表在《物理学学报D辑:应用物理学》杂志上。

安迪·托马斯解释说,因为忆阻器与突触的这种相似性,使其成为制造人工大脑——从而打造出新一代的电脑——的绝佳材料,“它使我们得以建造极为节能、耐用,同时能够自学的处理器。”托马斯的文章总结了自己的实验结果,并借鉴其他生物学和物理学研究的成果,首次阐述了这种仿神经系统的电脑如何将自然现象转化为技术系统,及其中应该遵循的几个原则。这些原则包括,忆阻器应像突触一样,“注意”到之前的电子脉冲;而且只有当刺激脉冲超过一定的量时,神经元才会做出反应,忆阻器也是如此。

忆阻器能够持续增高或减弱电阻。托马斯解释道:“这也是人工大脑进行学习和遗忘的过程中,忆阻器如何发挥作用的基础。”

传统的计算机将数据储存在内存中,然后传送到处理器运算。这种来回“搬运”数据的活动耗费能源和时间,被认为是冯诺依曼计算架构的核心瓶颈。

而人类的大脑却并非如此,而是直接在记忆体里计算。被认为具有“存算一体”潜力的忆阻器,因而成为类脑计算领域的热门器件。

近日,清华大学微电子所、未来芯片技术高精尖创新中心钱鹤、吴华强团队与合作者在顶尖学术期刊、英国《自然》杂志(Nature)在线发表论文,报道了基于忆阻器阵列芯片卷积网络的完整硬件实现。

该存算一体系统在处理卷积神经网络(CNN)时能效比前沿的图形处理器芯片(GPU)高两个数量级,可以说在一定程度上突破了“冯诺依曼瓶颈”的限制:大幅提升算力的同时,实现了更小的功耗和更低的硬件成本。

基于忆阻器芯片的存算一体系统 来源:清华大学

什么是忆阻器?

忆阻器,全称记忆电阻器(Memristor),是继电阻、电容、电感之后的第四种电路基本元件,表示磁通与电荷之间的关系,最早由加州大学伯克利分校教授蔡少棠在1971年预言存在,惠普公司在2008年研制成功。

简单来说,这种组件的的电阻会随着通过的电流量而改变,而且就算电流停止了,它的电阻仍然会停留在之前的值,直到接受到反向的电流它才会被推回去,等于说能“记住”之前的电流量。

这种奇妙的效果,其实和神经元突触有相仿之处。再加上忆阻器还具有尺寸小、 *** 作功耗低、可大规模集成(三维集成)等优点,难怪计算机科学家们在忆阻器身上看到了存算一体、低能耗类脑计算的前景。

人工神经网络近年来大放异彩,如果用忆阻器连接成阵列,作为人工神经网络的硬件,会有什么效果?

忆阻器阵列

尽管国内外许多企业、研究机构给予关注,但据清华大学新闻页面报道,当前国际上的忆阻器研究还停留在简单网络结构的验证,或者基于少量器件数据进行的仿真。基于忆阻器阵列的完整硬件实现仍然有很多挑战。

比如,器件方面,需要制备高一致、可靠的阵列;系统方面,忆阻器因工作原理而存在固有缺陷(如器件间波动,器件电导卡滞,电导状态漂移等),会导致计算准确率降低;架构方面,忆阻器阵列实现卷积功能需要以串行滑动的方式连续采样、计算多个输入块,无法匹配全连接结构的计算效率。

通过近年来积累的一些成果,钱鹤、吴华强团队逐渐优化材料和器件结构,制备出了高性能的忆阻器阵列。

2017年5月,该课题组就曾在《自然通讯》报告称,首次实现了基于1024个氧化物忆阻器阵列的类脑计算,将氧化物忆阻器的集成规模提高了一个数量级。这使芯片更加高效地完成人脸识别计算任务,将能耗降低到原来的千分之一以下。

忆阻器神经网络

这次,钱、吴团队集成了8个包括2048个忆阻器的阵列,以提高并行计算的效率。

在此基础上,他们构建了一个五层的卷积神经网络进行图像识别,获得了96%以上的高精度,结果显示,基于忆阻器的卷积神经网络比目前最先进的GPU的能效要高出两个数量级。

这样的提升是如何实现的?原来,为解决器件固有缺陷造成的系统识别准确率下降问题,他们提出了一种新型的混合训练算法,仅需用较少的图像样本训练神经网络,并微调了最后一层网络的部分权重。

与此同时,他们提出了空间并行的机制,将相同卷积核编程到多组忆阻器阵列中,各组忆阻器阵列可并行处理不同的卷积输入块,提高并行度来加速卷积计算。

多个忆阻器阵列并行处理

随着摩尔定律放缓,计算界翘首以待新的架构突破冯诺依曼瓶颈,适应越来越复杂的AI问题。基于忆阻器的存算一体系统在这场角逐中稳步前进。

电子材料专业。

忆阻器是一种通过控制电流的变化可改变其阻值,有记忆功能的非线性电阻。

记忆电阻半导体忆阻器最简单的应用就是构造新型的非易失性随机存储器,或当计算机关闭后不会忘记它们曾经所处的能量状态的存储芯片 。

今天的动态随机存储器所面临的最大问题是,当你关闭PC电源时,动态随机存储器就忘记了那里曾有过什么,所以下次打开计算机电源,你就必须坐在那儿等到所有需要运行计算机的东西都从硬盘装入到动态随机存储器。

有了忆阻器这样的非易失性随机存储器,那个过程将是瞬间的,并且你的PC会回到你关闭时的相同状态。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/dianzi/6094622.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-03-14
下一篇2023-03-14

发表评论

登录后才能评论

评论列表(0条)

    保存