比超级计算机快百万亿倍,仅是量子计算“星辰大海”的第一步

比超级计算机快百万亿倍,仅是量子计算“星辰大海”的第一步,第1张

早在20世纪80年代,美国著名物理学家费曼提出了按照量子力学规律工作的计算的概念,这被认为是最早的量子计算机的构想,此后 科技 界就没有停止过 探索 。

近年来,量子计算机领域频频传来重要进展:美国霍尼韦尔公司表示研发出64量子体积的量子计算机,性能是上一代的两倍;2020年底,中国科学技术大学潘建伟教授等人成功构建76个光子的量子计算机“九章”;2月初,我国本源量子计算公司负责开发的中国首款量子计算机 *** 作系统“本源司南”正式发布……

作为“未来100年内最重要的计算机技术”“第四次工业革命的引擎”,量子计算对于很多人来说,就像是属于未来的黑 科技 ,代表着人类技术水平在想象力所及范围之内的巅峰。世界各国纷纷布局量子计算并取得不同成就后证实,量子计算虽然一直“停在未来”,但“未来可期”。

20世纪60年代,平面型集成电路问世,光刻技术成为了半导体元器件性能的决定因素:只要光刻精度不断提高,元器件的密度也会相应提高。因此,平面工艺被认为是“半导体的工业键”,也是摩尔定律问世的技术基础。

摩尔定律指出,平均每18个月,集成电路芯片上所集成的电路数目就翻一倍。虽然这并不是一个严谨的科学定律,但在一定程度上反映了信息化大数据时代人类对计算能力指数增长的期待。

随着芯片集成度不断提高,我们的手机、电脑等电子产品也在不断更新换代。那么,摩尔定律会不会被终结?

摩尔定律的技术基础天然地受到两种主要物理限制:一是巨大的能耗让芯片有被烧坏的危险。芯片发热主要是因为计算机门 *** 作时,其中不可逆门 *** 作会丢失比特,每丢失一个比特就会产生相应热量, *** 作速度越快,单位时间内产生的热量就越多,计算机温度必然会迅速上升,必须消耗大量能量用于散热,否则芯片将被高温烧坏。

二是量子隧穿效应会限制集成电路的精细程度。为了提高集成度,晶体管会越做越小,当晶体管小到只有一个电子时,量子隧穿效应就会出现。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际也是如此,这种现象称为隧穿效应。简单来说,当集成电路的精细程度达到了一定级别,特别是当电路的线宽接近电子波长的时候,电子就通过隧穿效应而穿透绝缘层,使器件无法正常工作。

鉴于以上两点,物理学家预言摩尔定律终将终结。现有基于半导体芯片技术的经典计算机,芯片集成密度不可能永远增加,总会趋近于物理极限,应付日益增长的数据处理需求可能越来越困难。

最新一代的英特尔酷睿处理器,它的芯片每一平方毫米的面积已经集成了一亿个晶体管。我国的太湖之光超级计算机,大约用了四万多个CPU。如果摩尔定律终结,提高运算速度的途径是什么?破局的方向指向了量子计算。

给经典计算机带来障碍的量子效应,反而成为了量子计算机的助力。

费曼认为微观世界的本质是量子的,想要模拟它,就得用和自然界的工作原理一样的方式,也就是量子的方式才行。他将物理学和计算机理论联系到一起,提出了基于量子态叠加等原理的量子计算机概念。

比特是信息 *** 作的基本单元,基于量子叠加态原理,科学家们尝试用量子比特取代经典比特。

经典比特有且仅有两个可能的状态,经常用“0”和“1”来表示,就好比一个开关,只有开和关两个状态。而量子比特就好比一个旋钮,是连续可调的,它可以指向任何一个角度。也就是说,量子比特不只有两个状态,可以处于0和1之间任意比例的叠加态。想象一下,一枚摆在桌上静止的硬币,你只能看到它的正面或背面;当你把它快速旋转起来,你看到的既是正面,又是背面。于是,一台量子计算机就像许多硬币同时翩翩起舞。

假设一台经典计算机有两个比特,在某一确定时刻,它最多只能表示00、10、01、11这四种可能性的一种;而量子计算由于叠加性,它可以同时表示出四种信息状态。

对于经典计算机来说,N个比特只可能处在2N个状态中的一种情况,而对于量子比特来说,N个量子比特可以处于2N个状态任意比例叠加。理论上,如果对N个比特的量子叠加态进行运算 *** 作,等于同时 *** 控2的N次方个状态。随着可 *** 纵比特数增加,信息的存储量和运算的速度会呈指数增加,经典计算机将望尘莫及。

有报道指出,一台30个量子比特的量子计算机的计算能力和一台每秒万亿次浮点运算的经典计算机水平相当,是今天经典台式机速度的一万倍。据科学家估计,一台50比特的量子计算机,在处理一些特定问题时,计算速度将超越现有最强的超级计算机。

量子计算机是宏观尺度的量子器件,环境不可避免会导致量子相干性的消失(即消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算,这是量子计算机研究的主要障碍。

即便量子计算机的研究已经出现诸多成果,但还处在早期发展的阶段。倘若类比经典计算机,今天的量子计算机几乎是位于经典计算机的电子管时代,就连最底层的物理载体还没有完全形成。

目前主流的技术路径有超导、半导、离子阱、光学以及量子拓扑这五个方向,前四种路径均已制作出物理原型机。各国科学家研究比较多、也相对成熟的有超导量子计算、半导量子点量子计算等。

超导量子计算的核心单元是一种“超导体-绝缘体-超导体”三层结构的约瑟夫森结电子器件,类似晶体管的PN结。其中间绝缘层的厚度不超过10纳米,能够形成一个势垒,超导电子能够隧穿该势垒形成超导电流。与其他量子体系相比,超导量子电路的能级结构可通过对电路的设计进行定制,或通过外加电磁信号进行调控。而且,基于现有的集成电路工艺,约瑟夫森结量子电路还具有可扩展性。这些优点使超导量子电路成为实现可扩展量子计算最有前景的物理方案之一。

量子点量子计算,是利用了半导体量子点中的电子自旋作为量子比特。量子点是一种有着三维量子强束缚的半导体异质结结构,其中电子的能级是分立的,类似于电子在原子中的能级结构,因此被称为“人造原子”。量子比特编码在电子的自旋态上,使用微波脉冲或者纯电学的方法进行单量子比特 *** 控。量子点方案的优点则是量子位可以是嵌套在固态量子器件上,这与经典计算机的大规模集成电路的设计相似,被认为是最有可能实现大规模量子计算机的候选方案。

量子计算机的运算速度取决于其能够 *** 控的量子比特数。由于消相干的存在, *** 控量子比特难免出现错误,从而计算失效。以超导量子计算为例,一亿次的 *** 控最多只允许犯一次错误。 *** 控量子比特难度如此之大,以至于早期许多科学家认为量子计算机不可能制造出来。

目前而言,超导量子芯片要比半导体量子芯片发展得更快。2019年,谷歌公司发布了53个超导量子比特的量子计算原型机“悬铃木”。2020年12月4日,中国科大潘建伟团队构建起76个光量子的量子计算原型机“九章”,处理高斯玻色取样的速度比目前最快的超级计算机快一百万亿倍。

不过,无论是“悬铃木”还是“九章”,目前都只是仅能够处理运算特定数学问题的“原型机”。而我们的“星辰大海”是造出有大规模容错能力的通用量子计算机。毕竟,量子时代的“未来已来”,超强的量子计算值得期待。

每次提到CPU处理器发展的时候,似乎都绕不开摩尔定律这件事,尤其是对Intel来说,因为提出这个定律的是Intel最早的两位创始人之一的戈登·摩尔,多年来Intel也是最虔诚的摩尔定律信徒。

在半导体工艺进入10nm节点之后,最近几年来业界一直在谈摩尔定律失效的问题,但Intel并不为所动,依然在坚持摩尔定律未死。

在去年底的首次Intel架构日上,Intel高级副总裁、首席架构师Raja Koduri以及TSCG高级副总裁、硅工程总经理、CPU大牛Jim Keller谈到了Intel的六大技术支柱,包括制程和封装、架构、内存和存储、互连、安全、软件,其中工艺、架构等技术就是其中的一部分,也是Intel实现指数级增长的关键。

说了这么多,重点是什么?最近Jim Keller做了一次巡回演讲,在UC伯克利分校发表了一场演讲,时长一个多小时,谈到了摩尔定律以及CPU微架构的演进,从8080一直到最新的10nm Ice Lake处理器,更重要的是他还提到了未来的发展方向。

对CPU架构感兴趣的同学值得仔细学习下,这里来简单看下这个CPU大牛都具体谈了哪些内容吧。

Jim Keller:摩尔定律未死 未来还可以微缩50倍

不论是出于Intel的立场还是他个人的理念,Jim Keller都是坚定支持摩尔定律的,已经在多个场合捍卫摩尔定律的有效性,这次也不例外,一开始就是介绍摩尔定律,并提出了他的观点——摩尔定律未死。

他把对摩尔定律的看法分为四部分,按照(不)相信摩尔定律、摩尔定律(没死)死了做个分割,那些相信摩尔定律并且坚信摩尔定律没死的人则是充满了挑战性。

此外,Jim Keller还拉出了几位大腕,分别是NVIDIA CEO黄仁勋、伯克利学校的大牛David Peterson,他们两人都是“摩尔定律已死”阵营的。

持有这种观点的人不止他们二人,实际上不同公司、不同派系的人赞成或者反对摩尔定律的原因也不同,这点大家可以自己琢磨下为什么GPU厂商往往是不赞成摩尔定律继续有效的,而Intel之外的AMD、台积电近年来也在坚持摩尔定律。

摩尔定律的核心内容是晶体管密度继续微缩,也就是集成越来越多的晶体管,Jim Keller也不是嘴上说说摩尔定律未死那么简单,他提出了一个重要的观点——未来晶体管还能继续微缩50倍,也就是50倍密度与现在的水平。

在这方面,Jim Keller指出未来还有多种技术手段继续提升晶体管密度,其中FinFET 3D晶体管、栅极缩放能够提供3倍的密度提升,纳米线、堆栈纳米线、能够提升2倍的密度提升,再往后还可以借助封装技术的进步,比如晶圆to晶圆、核心to晶圆又分别可以提供2x、2x的密度提升,算下来就是未来还可以再提升50倍左右的晶体管密度,因此摩尔定律离失效还远着呢。

Jim Keller:CPU微架构继续升级Intel正开发IPC线性提升的新架构

除了工艺技术进步带来的密度提升,Jim Keller这次演讲还花了大篇幅介绍了CPU微架构的发展,从最初的Intel 8080一直介绍到了Sunny Cove,这是10nm Ice Lake处理器上使用的新架构。

Sunny Cove是Intel公布的新一代CPU微内核路线图中的第一款,其设计目标就是大幅提升ST单线程性能,Intel 之前公布的数据显示Sunny Cove核心的IPC性能相比Skylake大幅提升,多则提升40%以上,平均下来也有18%的IPC性能提升,可以说是近几代CPU架构中提升最多的一次了。

限于篇幅,这里不详细介绍Sunny Cove核心的技术细节了,之前我们已经有文章介绍过了,可以参考下面的文章。

英特尔Sunny Cove架构很“吸睛”:10nm加持 猛料不少

为什么要开发新架构的CPU?Jim Keller对比了多年来CPU的变化,Ice Lake这一代的IPC性能是早期VAX 11/780处理器的28倍,整体性能则是14000倍。

在这部分的演讲中,Jim Keller还提到了Intel正在开发更先进的CPU微架构,它的性能提升更接近于线性增长(指的是IPC性能跟晶体管规模增长正相关,以往晶体管大幅增长,但IPC性能不一定同步增长这么多),Keller强调说这个内核对他们来说是一次很大的转变,用玩家习惯的话说就是CPU架构不会再挤牙膏了。

总之,Jim Keller的观点就是摩尔定律远没有到失效的时候,未来晶体管密度还可以提升50倍,几乎每个功能单元都有创新的余地,没有什么是不可能的。

在制程技术之外,CPU微内核同样也会继续创新,指令集、分支预测、体系结构都有可优化之处,IPC性能会保持跟晶体管规模提升那样的线性增长,这是一次巨大的转变。

最最后,Jim Keller还提到了老朋友Raja Koduri总结的一条定律——全新的架构每10年将性能提升10倍,并且他还援引了诺奖得主费曼的名言,就算到了原子级的领域,依然会有足够的创新之处。

尽管传统计算机在短期内,还不会退出历史舞台,但旨在超越它的诸如量子计算机、DNA生物计算机、光学计算机,在研究人员的努力下,已经出露端倪。

量子计算机将是未来计算机研究的热点。量子计算机利用粒子的量子力学状态来表示信息,可以实现目前电子计算机无法进行的复杂计算。2000年,德、美科学家研制出五量子位的核磁共振量子计算机,并成功地通过实验运算。

美国科学家研究出了一种可用于制造DNA计算机的新技术,它不仅能将遗传物质DNA分子的活动范围限制在固体表面上来执行运算,而且能大大简化通过DNA运算来解决复杂数学问题的步骤,标志着科学家们朝着研制出功能强大的DNA计算机的梦想又前进了一步。

由美英科学家组成的科研小组,成功地研制出世界上第一台DNA“发动机”,这一成果预示着不久的将来,科学家可以制造出分子大小的电子电路,以代替目前的硅芯片电路,从而使未来的计算机体积更小、体重更轻、运算速度更快。

加拿大科学家最近研制出一种光晶片,这是开发光学计算机征途上的一项重要成果。

在虚拟办公室上班

将来,你的办公室可能不再是目前的方格子单元,而更像科幻电影里的全景 *** 作平台(Holodeck)了。电脑科学家正在对一种叫“远距离兼容”(Tele-immersion)的技术进行试验。这种技术将使我们能与远方的同事共享一个办公室,感觉两人近在咫尺。]

在美国,这个项目的正式名称是“国家远距离兼容首期系统”(NationalTele-immersionInitative),几所大学的电脑科学家正为此进行联合研制。目前,该系统的原型已经出来了,通过两面呈直角安装的显示屏,该系统可以让科学家与远在其他州的同事会面交流。感觉上,像是与自己的同事隔“窗”相望。这项技术与早先的视像会议(videoconferencing)不同,它提供的画面与真实的人和景物同样尺寸,且是三维(3-D)立体效果。

在原型系统中,每个研究人员都被一组数码照相机包围,其一举一动都可从不同角度被摄入镜头。他们还头戴跟踪器和类似看立体电影时用的特制眼镜。当研究人员转动头部时,他看同事的视觉角度也随之变化。譬如,如果他倾身向前,对面的同事就会显得靠近了些,尽管实际上他们之间可能有千里之遥。

要使这套系统有效运作,高功能的电脑必须能迅速将对方的数码影象转变成能通过互联网传送的数码信号,而后在接受终端将信号还原成影象在屏幕上显示出来。目前,整个运作过程还不很理想,因为电脑的速度内存等功能都还配合不来。

不远的将来,随着电脑技术的改善,科学家们希望远距离兼容技术也能进军其他应用领域。譬如,运用此技术,偏远地区的病人可以让大城市里的名医“看”病。让我们拭目以待。

量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。

量子计算机,早先由理乍得·费曼提出,一开始是从物理现象的模拟而来的。可发现当模拟量子现象时,因为庞大的希尔伯特空间而资料量也变得庞大。一个完好的模拟所需的运算时间则变得相当可观,甚至是不切实际的天文数字。理乍得·费曼当时就想到如果用量子系统所构成的计算机来模拟量子现象则运算时间可大幅度减少,从而量子计算机的概念诞生。

量子计算机,或推而广之——量子资讯科学,在1980年代多处于理论推导等等纸上谈兵状态。一直到1994年彼得·秀尔(PeterShor)提出量子质因子分解算法后,因其对于现在通行于银行及网络等处的RSA加密算法可以破解而构成威胁之后,量子计算机变成了热门的话题,除了理论之外,也有不少学者着力于利用各种量子系统来实现量子计算机。

半导体靠控制积体电路来记录及运算资讯,量子电脑则希望控制原子或小分子的状态,记录和运算资讯。

20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热,极大地影响了芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆 *** 作。那么,是否计算过程必须要用不可逆 *** 作才能完成呢?问题的答案是:所有经典计算机都可以找到一种对应的可逆计算机,而且不影响运算能力。既然计算机中的每一步 *** 作都可以改造为可逆 *** 作,那么在量子力学中,它就可以用一个幺正变换来表示。早期量子计算机,实际上是用量子力学语言描述的经典计算机,并没有用到量子力学的本质特性,如量子态的叠加性和相干性。在经典计算机中,基本信息单位为比特,运算对象是各种比特序列。与此类似,在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。所不同的是,量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。这些特殊的量子态,不仅提供了量子并行计算的可能,而且还将带来许多奇妙的性质。与经典计算机不同,量子计算机可以做任意的幺正变换,在得到输出态后,进行测量得出计算结果。因此,量子计算对经典计算作了极大的扩充,在数学形式上,经典计算可看作是一类特殊的量子计算。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来,给出结果,这种计算称作量子并行计算。除了进行并行计算外,量子计算机的另一重要用途是模拟量子系统,这项工作是经典计算机无法胜任的。

1994年,贝尔实验室的专家彼得·秀尔(PeterShor)证明量子电脑能做出对数运算,而且速度远胜传统电脑。这是因为量子不像半导体只能记录0与1,可以同时表示多种状态。如果把半导体比成单一乐器,量子电脑就像交响乐团,一次运算可以处理多种不同状况,因此,一个40位元的量子电脑,就能解开1024位元电脑花上数十年解决的问题。

一:量子计算机的基本概念

[编辑本段]

量子计算机,顾名思义,就是实现量子计算的机器。要说清楚量子计算,首先看经典计算。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行变换的机器,其算法由计算机的内部逻辑电路来实现。经典计算机具有如下特点:

其输入态和输出态都是经典信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制序列0110110,用量子记号,即|0110110>。所有的输入态均相互正交。对经典计算机不可能输入如下叠加态:C1|0110110>+C2|1001001>。

经典计算机内部的每一步变换都演化为正交态,而一般的量子变换没有这个性质,因此,经典计算机中的变换(或计算)只对应一类特殊集。

相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特(qubits)),量子计算机的变换(即量子计算)包括所有可能的么正变换。因此量子计算机的特点为:

量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;

量子计算机中的变换为所有可能的么正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。

由此可见,量子计算对经典计算作了极大的扩充,经典计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和量子相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果。这种计算称为量子并行计算。

无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。遗憾的是,在实际系统中量子相干性很难保持。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干(也称“退相干”)。因此,要使量子计算成为现实,一个核心问题就是克服消相干。而量子编码是迄今发现的克服消相干最有效的方法。主要的几种量子编码方案是:量子纠错码、量子避错码和量子防错码。量子纠错码是经典纠错码的类比,是目前研究的最多的一类编码,其优点为适用范围广,缺点是效率不高。

迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的 *** 纵确实太困难了。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点 *** 纵、超导量子干涉等。现在还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。研究量子计算机的目的不是要用它来取代现有的计算机。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处。量子计算机的作用远不止是解决一些经典计算机无法解决的问题。

量子计算机是通过量子分裂式、量子修补式来进行一系列的大规模高精确度的运算的。其浮点运算性能是普通家用电脑的CPU所无法比拟的,量子计算机大规模运算的方式其实就类似于普通电脑的批处理程序,其运算方式简单来说就是通过大量的量子分裂,再进行高速的量子修补,但是其精确度和速度也是普通电脑望尘莫及的,因此造价相当惊人。目前唯一一台量子计算机仍在微软的硅谷老家中,尚在试验阶段,离投入使用还会有一段时间。量子计算机当然不是给我们用来玩电子游戏的,因为这好比拿激光切割机去切纸,其主要用途是例如象测量星体精确坐标、快速计算不规则立体图形体积、精确控制机器人或人工智能等需要大规模、高精度的高速浮点运算的工作。在运行这一系列高难度运算的背后,是可怕的能量消耗、不怎么长的使用寿命和恐怖的热量。

假设1吨铀235通过核发电机1天能提供7000万瓦伏电量,但这些电量在短短的10天就会被消耗殆尽,这是最保守的估计;如果一台量子计算机一天工作4小时左右,那么它的寿命将只有可怜的2年,如果工作6小时以上,恐怕连1年都不行,这也是最保守的估计;假定量子计算机每小时有70摄氏度,那么2小时内机箱将达到200度,6小时恐怕散热装置都要被融化了,这还是最保守的估计!

又此看来,高能短命的量子计算机恐怕离我们的生活还将有一段漫长的距离,就让我们迎着未来的曙光拭目以待吧!~

二:DNA生物计算机

科学家发现,脱氧核糖核酸(DNA)有一种特性,能够携带生物体各种细胞拥有的大量基因物质。数学家、生物学家、化学家以及计算机专家从中得到启迪,目前正合作研制未来DNA计算机。这种DNA计算机的工作原理是以瞬间发生的化学反应为基础,通过和酶的相互作用,将反应过程进行分子编码,对问题以新的DNA编码形式加以解答。1995年首次报道科学家用“编程”DNA链解数学难题取得突破。和普通的计算机相比,DNA计算机的优点是体积小,但存储的信息量却超过目前任何计算机。它用于存储信息的空间仅为普通计算机的几兆分之一。其信息可存储在数以兆计的DNA链中。DNA计算机只需几天时间就能完成迄今为止所有计算机曾进行过的任何运算。另外,它所耗费的能量仅为普通计算机的十亿分之一。DNA计算机的功能之所以强大,就在于每个链本身就是一个微型处理器。科学家能够把10亿个链安排在1000克的水里,每个链都能各自独立进行计算。这意味着DNA计算机能同时“试用”巨大数量的可能的解决方案。而电子计算机对每个解决方案必须自始至终进行计算,直到试用下一个方案为止。所以,电子计算机和DNA计算机是截然不同的。电子计算机一小时能进行许多次运算,但是一次只能进行一次指令运算。DNA计算机进行一次运算需要大约一小时,但是一次能进行10亿个指令计算。人脑的功能介于两者之间:一小时进行大约10万亿次指令运算。DNA计算机把二进制数翻译成遗传密码的片段,每个片段就是著名双螺旋的一个链。科学家们希望能把一切可能模式的DNA分解出来,并把它放在试管里,制造互补数字链,为解决更复杂的运算提供依据。

利用特定的DNA结构——DNA核酶可以构建各种DNA分子逻辑门,这为DNA计算机的发展奠定了基础。

DNA计算是计算机科学和分子生物学相结合而发展起来的新兴研究领域。

据中国科学院消息,中科院上海应用物理研究所的樊春海研究员与上海交通大学Bio-X中心的贺林院士、张治洲教授(现为天津科技大学教授)通过深入的学科交叉与合作,应用DNA核酶研制成功一类新型的“DNA逻辑门”,为发展DNA计算机奠定了基础。相关研究结果已发表在日前出版的著名化学杂志《德国应用化学》上。

由于DNA分子具有强大的并行运算和超高的存储能力,DNA计算将可能解决一些电子计算机难以完成的复杂问题,而且也可能在体内药物传输或遗传分析等领域发挥重要作用。虽然DNA计算未来潜力无穷,但是当前仍然有许多瓶颈技术和基础问题需要解决,其中基于DNA分子的逻辑门就是实现DNA计算的一个重要基础。

DNA核酶是一种通过体外进化筛选出来的具有特定酶活性的核酸结构,在该项研究中采用的是具有DNA水解酶活性的DNA核酶。这种具有锤头状结构的核酶可以在铜离子辅助下催化氧化并切割底物DNA。DNA逻辑门即是在这种DNA核酶结构基础上通过模块设计(modulardesign)研制出来的。输入信号通过特定的生物分子传感可以产生输出信号,从而实现“YES”、“NOT”等逻辑判断,并可以组合成复杂的三输入逻辑门“AND(A,NOT(B),NOT(C))”。“NOT”与“AND(A,NOT(B),NOT(C))”的组合是一套通用运算符号,因此,理论上图灵机的所有运算均可以通过其组合而实现。

该逻辑门系统的新特色在于排除以往DNA逻辑门设计中RNA核苷的参与,仅单纯应用DNA分子,从而避免了RNA核苷带来的系统不稳定性。相关研究结果已发表在3月出版的著名化学杂志《德国应用化学》上(Angew.Chem.Int.Ed.,2006,45,1759.)。

三:光子计算机现有的计算机是由电子来传递和处理信息。电场在导线中传播的速度虽然比我们看到的任何运载工具运动的速度都快,但是,从发展高速率计算机来说,采用电子做输运信息载体还不能满足快的要求,提高计算机运算速度也明显表现出能力有限了。而光子计算机利用光子取代电子,通过光纤进行数据运算、传输和存储。在光子计算机中,不同波长的光代表不同的数据,这远胜于电子计算机中通过电子“0”、“1”状态变化进行的二进制运算,可以对复杂度高、计算量大的任务实现快速的并行处理。光子计算机将使运算速度在目前基础上呈指数上升。

电子计算机的弊端

[编辑本段]

我们知道,任何金属导线都存在电阻和电容。从电磁学基本知识也知道,电阻和电容的结合会给在导线中传播的电子产生“阻力”,减低它在导线中传播的速度(传播速度大约只有光波在真空中传播速度的千分之一),这个现象又称时钟扭曲。由于存在这样一些问题,相应地也就出现这样的后果:电子对迅速的外来变化反应“迟钝”。当传递信息的载波频率很高(即信号变化速率很快)时,在导线上传递的电信号实际上跟不上要传递的信息信号变化。结果呢,就如同相声演员念绕口令,念得过快,舌头反应跟不上,念错了或走了调那个样子,被传递的信号要发生畸变,计算机的运算发生错误。其次,电子计算机的中央处理机虽然能够迅速处理数据,主存贮器能够吞吐大量的数据。但因为所有的数据信号都必须经过总线传递,而总线的电流密度如果太大,产生的电磁干扰也大。因此,电子计算机也会出现类似于高速公路交汇口由于狭窄,车辆通行速率受限制的现象,计算机和运算速度也受到了限制。还有,计算机使用的集成电子器件,它们因为受量子效应干扰,集成密度受到限制,理论上的集成密度最高为每块芯片10亿个晶体管(在实际上达到的数量比这个数还要低许多)。

光子计算机的优势

[编辑本段]

不用电子,用光子做传递信息的载体,就有可能克服前面谈到的那些限制,制造出性能更优异的计算机。用光子做传递信息的载体有以下几方面的好处:

1、光子不带电荷,它们之间不存在电磁场相互作用。在自由空间中几束光平行传播、相互交叉传播,彼此之间不发生干扰,千万条光束可以同时穿越一只光学元件而不会相互影响。一只的光学系统,能够提供5*10^5行传输信息通道;一只质量好的透镜能够提供条信息通道。如果用光波导传输,光波导也可以相互穿越,只要它们的交叉角大于左右就不会有明显的交叉耦合。上述的性质又称光信号传输的并行性。

2、光子没有静止质量,它既可以在真空中传播,也可以在介质中传播,传播速度比电子在导线中的传播速度快得多(约1000倍),也就是说,光子携带信息传递的速度比电子快计算机内的芯片之间用光子互连不受电磁干扰影响,互连的密度可以很高。在自由空间进行互连,每平方毫米面积上的连接线数目可以达到5万条,如果用光波导方式互连,可以有万条。所以,用光子做信息处理载体,会制造出运算速度极高的计算机,理论上可以达到每秒1000亿次,信息存储量达到10^18位。这种计算机称为光子计算机。

3、超高速的运算速度。光子计算机并行处理能力强,因而具有更高的运算速度。电子的传播速度是593km/s,而光子的传播速度却达3×10�5km/s,对于电子计算机来说,电子是信息的载体,它只能通过一些相互绝缘的导线来传导,即使在最佳的情况下,电子在固体中的运行速度也远远不如光速,尽管目前的电子计算机运算速度不断提高,但它的能力极限还是有限的;此外,随着装配密度的不断提高,会使导体之间的电磁作用不断增强,散发的热量也在逐渐增加,从而制约了电子计算机的运行速度;而光子计算机的运行速度要比电子计算机快得多,对使用环境条件的要求也比电子计算机低得多。

4、超大规模的信息存储容量。与电子计算机相比,光子计算机具有超大规模的信息存储容量。光子计算机具有极为理想的光辐射源——激光器,光子的传导是可以不需要导线的,而且即使在相交的情况下,它们之间也不会产生丝毫的相互影响。光子计算机无导线传递信息的平行通道,其密度实际上是无限的,一枚五分硬币大小的枚镜,它的信息通过能力竟是全世界现有电话电缆通道的许多倍。

5、能量消耗小,散发热量低,是一种节能型产品。光子计算机的驱动,只需要同类规格的电子计算机驱动能量的一小部分,这不仅降低了电能消耗,大大减少了机器散发的热量,而且为光子计算机的微型化和便携化研制,提供了便利的条件。科学家们正试验将传统的电子转换器和光子结合起来,制造一种“杂交”的计算机,这种计算机既能更快地处理信息,又能克服巨型电子计算机运行时内部过热的难题。

光子计算机的组成

[编辑本段]

光子计算机由光学反射镜、透镜、滤波器等光学元件和设备组成。有模拟式与数字式两类光子计算机。模拟式光子计算机的特点是直接利用光学图像的二维性,因而结构比较简单。这种光子计算机现在已用于卫星图片处理和模式识别工作。美国以前提出的星球大战计划,就打算发展这种计算机来识别高速飞行的导d图像。数字式光子计算机的结构方案有许多种,其中认为开发价值比较大的有两种,一种是采用电子计算机中已经成熟的结构,只是用光学逻辑元件取代电子逻辑元件,用光子互连代替导线互连。另外一种是全新的,以并行处理(光学神经网络)为基础的结构在本世纪80年代制成了光学信息处理机年数字光处理机也获得成功,它由激光器、透镜和棱镜等组成。虽然光子计算机已经成功,但在目前来说,光子计算机在功能以及运算速度等方面,还赶不上电子计算机,我们使用的主要还是电子计算机,今后也发展电子计算机。但是,从发展的潜力大小来说,显然光子计算机比电子计算机大得多,特别是在对图像处理、目标识别和人工智能等方面,光子计算机将来发挥的作用远比电子计算机大。

光子计算机现状

[编辑本段]

美国贝尔实验室宣布研制出世界上第一台光学计算机。它采用砷化镓光学开关,运算速度达每秒10亿次。尽管这台光学计算机与理论上的光学计算机还有一定距离,但已显示出强大的生命力。人类利用光缆传输数据已经有20多年的历史了,用光信号来存储信息的光盘技术也已广泛应用。然而要想制造真正的光子计算机,需要开发出可以用一条光束来控制另一条光束变化的光学晶体管这一基础元件。一般说来,科学家们虽然可以实现这样的装置,但是所需的条件如温度等仍较为苛刻,尚难以进入实用阶段。

美国马萨诸塞州的一家光学技术公司——光导发光元件系统公司目前正与美国航空航天局马歇尔航天中心合作开发用来制造光学计算机的“光”路板,实现对光子移动的控制

并有望在今年取得突破。1999年5月,在美国西北大学工作的新加坡科学家何盛中领导的一个有20多人的研究小组利用纳米级的半导体激光器研制出世界上最小的光子定向耦合器,可以在宽度仅0.2至0.4微米的半导体层中对光进行分解和控制。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/dianzi/9090666.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-24
下一篇2023-04-24

发表评论

登录后才能评论

评论列表(0条)

    保存