天涯书库 > 奇点临近 > 计算机技术第六范式:三维分子计算和新兴计算技术 >

计算机技术第六范式:三维分子计算和新兴计算技术

1965年4月19日,戈登·摩尔在《E1ectronics》杂志上这样写道:“集成电子的未来就是电子自身的未来。集成电路的优势将带来电子学的扩散,并把这门科学推广到很多新的领域。”1摩尔通过这些话,宣告了一场势头正劲的革命的到来。为了让他的读者意识到这个新科学的深远意义,摩尔预言,“到1975年,国家经济将建立在一个由多达65000个元件压缩而成的单硅芯片上。”试想一下这些吧。

摩尔的文章描述了嵌入到集成电路上的晶体管(用作计算单元或者门电路)的数量,每年都会增长一倍。他在1965年提出的“摩尔定律”在当时饱受争议,因为他的片上元件数量对数图上只有5个参考点(从1959年到1965年),所以由此来预测1975的趋势是不成熟的。摩尔的最初估计是错误的,他在10年后修订了这一数字(更改为两年翻一番)。但是这个基本观点(由于集成电路板上晶体管体积的缩小而导致电子产品的性价比呈指数增长)被证明是正确的而且有先见之明的。2

今天,我们谈论的是上十亿级而不是上千级的组件。2004年最先进的芯片中,逻辑门仅有50纳米宽,这已经完全是纳米级别(100纳米或以下即属于纳米技术范畴)的数值了。摩尔定律终有一天会终结,但这一典型范式的结束时间一直在推迟。Paolo Gargini,英特尔技术主管兼著名的国际半导体技术路线图(ITRS)主席,最近指出,“我们预测至少在未来15到20年时间里,电子产品将会按摩尔定律继续发展。事实上……纳米技术为我们提供了许多新的关键技术来增加一个芯片上元件的数量。”3

就像我将用整本书去论证的那样,计算机技术的加速发展已经改变了社会关系、经济关系、政治体制以及其他一切。但是摩尔在他的文章里并没有指出,缩小体积的策略,实际上并不是给计算和通信带来指数级增长的第一范式。它只排在第5位,而且我们也已经可以看到接下来的大概情形:在分子水平和三维水平上的计算。尽管第五范式还会使用十几年,但我们已经在所有需要使用第六范式的技术上取得了令人信服的进展。在下一节,我将会分析为了达到人脑的智力水平所需要的计算和存储能力,以及为什么我们会相信,在不到20年里用不是很贵的计算机就能达到这样的水平。即使这些强大的计算机远没有达到最佳的状态,而且在本章的最后一节,我会回顾由目前我们所理解的物理定律所带来的计算限制。大约21世纪末,真正的计算机时代就会到来。

三维分子计算的桥梁。过渡阶段正在进行中:许多新的技术会促进第六代范式——分子三维计算的问世,这些技术包括纳米管和纳米管电路、分子计算、自组装纳米管电路、生物系统模拟电路组装、DNA计算、自旋电子学(电子的自旋计算)、光计算以及量子计算。其中许多独立的技术可以被集成到计算系统,最终将接近理论上物质和能量用于完成计算的能力的最大值,并且远远超过人脑的计算能力。

一种方法是采用光刻硅芯片来构建三维电路。Matrix Semiconductor公司已经在销售一种存储芯片,它含有垂直的晶体管堆叠层而不是一个平面层4。由于三维芯片存储量更大,从而缩小了产品的体积,因此Matrix Semiconductor最初将目标定位到便携电子产品,以此同闪存(用于手机和数码相机,因为它在电源关闭时不会丢失信息)相竞争。而其中堆叠电路的应用还降低了每比特的价格。另一种方法来自于Matrix公司的竞争对手之一,文本冈富士雄(前东芝公司的工程师),就是他发明了闪存。富士雄声称他的新型内存设计(这种设计看起来像一个柱状体)降低了存储器的体积和每比特的价格,是平板芯片的十分之一。5而这个三维芯片的工作原型,也在伦斯勒理工学院千兆集成中心和麻省理工学院媒体实验室得到了证实。

位于东京的日本电报电话公司(NTT)通过使用电子束平印术,展示了梦幻般的3D技术。电子束平印术可以创建任意特征尺寸(和晶体管一样)大约是10纳米的三维结构。6 NTT公司通过创建一个大小为60微米、特征长度为10纳米的高分辨率的地球模型,证明了这项技术。NTT认为该项技术适用于电子设备的纳米加工,如半导体以及建立纳米级的机械系统。

纳米管依然是最佳选择。在《The Age of Spiritual Machines》一书中,我指出纳米管(用三维组织的分子来存储信息和充当逻辑门)是三维分子计算时代最有可能使用的技术。1991年首次合成的纳米管,是由六角形的碳原子网状物卷起来组成的无缝柱体。7碳纳米管非常小——单壁纳米管的直径只有1纳米,这样可以达到很高的密度。

它们也可能很快。皮特·伯克和他在加利福尼亚大学欧文分校的同事最近证明了纳米管电路可以以2.5GHz运行。然而,在《Nano Letters》(美国化学学会同行评审期刊)上,伯克说,这些纳米晶体管的理论限速“应该是太赫兹(1THz=1000GHz)级别,大约是现代计算机速度的1000倍”。8一立方英寸的纳米管电路,一旦充分开发,将比人脑强大1亿多倍。9

当我在1999年讨论纳米管电路时,它还是有争议的。但是在过去的6年里,这项技术有了长足的发展。其中在2001年有两个重大的进展。2001年7月6日,《Science》10报道了一种在室温下工作的基于纳米管的晶体管(尺寸为1纳米×20纳米),它仅仅使用了一个电子控制电路的断开与闭合。大约在同一时间,IBM也演示了一个由100个基于纳米管的晶体管组成的集成电路。11

最近,我们看到了基于纳米管电路的第一工作模式。2004年1月,加利福尼亚大学伯克利分校和斯坦福大学的研究人员建立了一个基于纳米管12的集成存储电路。采用这种技术的难点之一是有些纳米管是导体(即简单的传输电力),而其他一些像是半导体(即有交换能力并且能够实现逻辑门)。细微结构特征的不同导致了能力的差异。直到最近,把它们区分出来需要手工操作,而把它们组装成大规模集成电路也因此变得不实际。伯克利分校和斯坦福大学的科学家宣布解决了这一问题,他们实现了全自动地区分和丢弃非半导体的纳米管。

排列碳纳米管是纳米管电路的另一个挑战,因为它们会向每一个方向延伸。2001年,IBM的科学家证明,碳纳米晶体管可以成批地增长,这一点类似于硅晶体管。他们采用了一种称为“建设性破坏”的方法,该方法破坏了晶片上有缺陷的纳米管,而不是把它们手工整理出来。IBM华生研究中心物理科学主任托马斯·泰斯当时说:我们相信IBM已经完成了通向分子规模芯片道路上的一个里程碑……如果我们最终成功了,那么碳纳米管会使我们在密度方面无限期地保持摩尔定律,因为毋庸置疑的是,这些碳纳米管将来会做的比任何硅晶体管都要小得多。13 2003年5月,一家由哈佛大学的研究员托马斯·瑞克斯在马萨诸塞州创办的小公司Nantero对此作了进一步的深入研究,证明当100亿个纳米管结合起来组成单芯片晶片时,所有的纳米管都会排列在正确的方向上。Nantero公司使用标准光刻设备自动删除未正确对齐的纳米管。这种标准设备的使用令业内观察人士感到兴奋,因为这种技术并不需要的新昂贵生产机器。Nantero公司的设计提供随机存取功能并保证非易失性(电源关闭后数据依然保存),这意味着它有可能取代所有主要的存储形式,如内存、闪存和磁盘。

分子计算。除了碳纳米管外,近几年的主要进展是只用一个或几个分子的计算。分子计算是在20世纪70年代早期由IBM的艾薇·艾维瑞和西北大学的马克·拉特纳14首次提出的。这一思想的普及需要在物理、化学、电子甚至生物进程逆向工程领域的共同进步,而在当时,这些领域的技术都没有达到分子计算的要求。

2002年,威斯康星大学和巴塞尔大学的科学家发明了“原子存储驱动器”,它用原子来模拟一个硬盘驱动器。利用扫描隧道显微镜可以从21个硅原子构成的块里添加或删除一个原子。这个研究过程使研究员相信这个系统跟同等体积的磁盘相比,存储量是后者的100万倍——大约每平方英寸250太比特的数据,虽然这只是通过少量的比特得出的。15

皮特·伯克预测分子电路的速度将达到1太赫兹,而在伊利诺伊大学的科学家创造了纳米晶体管之后,这一预测看起来越来越准确。这一晶体管的速度为604千兆赫兹(比1/2太赫兹多)。16

研究人员已经发现了一种具有理想性能的分子类型——轮烷,它可以通过改变分子内部环状结构的能量等级来实现状态转换。轮烷内存和电力转换能力已得到证明,其显示出的存储潜力为每平方英寸100G比特(1011比特)。如果在三维空间内组织,存储的能力将更加巨大。

自组装。纳米电路的自组装是实现有效纳米电子的另一个关键技术。自组装能够自动剔除错误形成的元件,并使数万亿计的电路元件有可能自动组织起来,而不再需要精心设计的自上而下的组装过程。加州大学洛杉矶分校的科学家17提到,这种技术将会使大规模电路在试管中进行生产,而不再需要花费数十亿美元建造工厂;使用化学技术而不是使用光刻技术。普渡大学的研究人员已经开始使用相同的原则(这一原则能将DNA链连接在一起,从而形成稳定的结构),来验证自组装纳米管结构。18

哈佛大学的科学家在2004年6月迈出了关键一步,他们发现了另一个可以大规模使用的自组装方法。19该方法采用光刻技术来创造一个连接(计算元素之间的互联)的蚀刻阵列。阵列上存放着大量纳米线场效晶体管(一种晶体管的常见形式)和纳米级的互联,并保证这些晶体管以正确的形式自我连接。

2004年,南加州大学和美国航天局艾姆斯研究中心的研究人员,展示了能够在化学溶液里自组装形成的精密电路。20该技术会自发地形成纳米线路,并使能容纳3比特数据的纳米存储单元组装到纳米线上。该技术每平方英寸存储容量高达258Gbit(研究人员声明这一数据还可以增长10倍),相比之下一张闪存卡存储容量是6.5Gbit。同样在2003年,IBM展示了高分子的研发存储设备,它可以自组装形成20纳米宽的六角形结构。21

纳米电路也是可以自我配置的——这一点非常重要。大量的电路元件及其固有的脆弱性(由于其尺寸太小)不可避免地使一个电路的某些部分无法正常运行。仅仅因为一万亿个晶体管的一小部分不能正常工作而抛弃整个电路,从经济上来说这也是不可行的。为了解决这一问题,未来的电路会不断地检查自身性能和周围的路由信息,绕过不可靠的连接部分,就像互联网上路由信息绕过周围无法运作的节点一样。IBM一直活跃在这个研究领域,并已开发了能够自动诊断问题并重新配置相应芯片资源的微处理器。22

仿真生物。创建能够自我复制和自我组织的电子或机械系统的想法,都来自于生物学的灵感,因为生物学也依赖于这些属性。《Proceedings of the National Academy of Sciences》发表的一篇研究报告介绍了基于朊病毒的自我复制纳米线的结构(朊病毒是一种自我复制的蛋白质,如第4章详述,其中一种朊病毒似乎对人的记忆起作用,而另一种则是导致疯牛病的原因)。23由于朊病毒具有自然优势,研究小组把它作为模型。由于朊病毒一般不导电,于是科学家们又创建了一个转基因版本,使它含有薄薄的一层金属,于是它既可以导电,电阻又很小。负责这项研究的麻省理工学院生物学教授苏珊·林德威斯特评论说,“从事纳米电路工作的人都试图使用‘自上而下’技术来进行改造,而我们想尝试一种‘自下而上’的办法,让分子自组装起来为我们努力工作。”

分子生物学里的终极自我复制当然是DNA复制。杜克大学的研究人员从自组装DNA分子中培育出称为“砖”的分子构建模块。24它们能够控制自组装的结构,建立“纳米网格”。这项技术把蛋白质分子自动附加到每个纳米网格的细胞上,从而这些细胞都可以用来执行计算。他们还展示了一项将DNA纳米带的表面附上银来创建纳米线的化学过程。在谈到2003年9月26日科学杂志上的文章时,首席研究员郝言说,“利用DNA自组装来诱导蛋白质分子或其他分子模板化的想法已经试验了很多年,而这是第一次研究得如此透彻。”25

DNA计算。DNA是大自然自身的纳米驱动计算机,其存储信息和在分子水平上逻辑操作的能力已经应用在专门的“DNA计算机”项目中。DNA计算机本质上是一个含有1万亿DNA分子水溶液的试管,每一个DNA分子的作用相当于一台计算机。

计算的目标是要解决一个问题,解决方案用一个符号序列表示(例如,符号序列可能是一个数学证明或只是一个数字编码)。这就是DNA计算机工作的原理:当创建小的DNA链时,每个符号都是一段独特的代码;每个这样的链通过使用“聚合酶链反应”(PCR)的技术复制万亿次,然后把这些DNA集合放入试管。由于DNA具有亲和力,链的增长可以自动进行,而不同的DNA序列代表不同的符号,并且每一种都有可能是解决问题的方法。因为有数万亿这种链,所以每个可能的答案对应着多种链(即每个可能的符号序列)。下一步就是同步检测所有的链,这一步通过使用某种特殊设计的酶实现,它可以破坏掉不符合标准的DNA链。这些酶适用于连续的试管检测;通过使用一系列精确设计的酶,最终水解掉所有不正确的DNA链,只保留正确的序列(更详细的描述可参见注释26)。

DNA计算能力的关键是允许同时检测数万亿个链。2003年,在魏茨曼科学研究所里,由胡德·夏皮罗领导的以色列科学家用三磷腺苷(ATP)合成了DNA(其中ATP是人体等生物系统的天然能源)27。采用这种方法,每个DNA分子都能够执行计算,并为自身提供能源。这些科学家展示了两匙这样的液体超级计算机系统的配置:载有三千万台分子计算机,加起来每秒钟可以执行660万亿次(6.6×1014cps)的计算。这些计算机的能耗极低,3万万亿台计算机总共消耗1/20000瓦的电量。

然而DNA计算也有一个限制,即数万亿台计算机在同一时间内必须执行同样的操作(尽管针对不同的数据),因此该设备是一个“单指令多数据”(SIMD)的架构。由于有一类重要的问题适用于“单指令多数据”(SIMD)架构(例如图像处理时增强或压缩每个像素,以及组合逻辑问题的解决),所以这些是不可能使用通用算法来进行编程设计的,因为该算法要求每一个计算机都能执行特殊使命所需的任意操作。(请注意,先前提到的普渡大学和杜克大学的研究项目中使用自组装DNA链来创造三维结构和这里的DNA计算是不同的,那些研究项目可以创建任意的配置而不仅限于单指令多数据计算。)

自旋计算。除了负电荷以外,电子还有一个属性可以用于存储和计算,这就是自旋。根据量子力学,电子在自旋轴上自旋,类似于地球绕着地轴旋转。这个概念是理论意义上的,因为一个电子通常被认为只是占据点空间,因此很难想象一个点没有大小却在不停地旋转。但是,当电荷运动时,它确确实实会形成一个可以测量的磁场。电子可以在两个方向上自旋,这可以形容为“向上”和“向下”,这个属性可以用来做逻辑开关或一位存储位的编码。

自旋电子学令人兴奋的特性是,并不需要能量来更改电子的自旋态。斯坦福大学物理学教授张守成和东京大学教授直人永长这样说:“我们发现了一条新的‘欧姆定律’,电子的自旋不需要减少或耗散任何能源就可以进行传输。此外,我们可以在室温下利用已经在半导体工业中得到广泛应用的材料(如砷化镓)来产生这一效果。这一点很重要,它能够诞生出新一代的计算机设备。”28

这种潜质能够在室温下实现超导效应(也就是以接近光速的速度传播信息而保证没有信息丢失)。它还允许将每个电子的多重属性用于计算,从而尽可能增加存储和计算密度。

计算机用户对电子自旋的一个应用应该很熟悉:用于硬盘驱动器存储数据的磁电阻(由磁场引起的电阻变化)。MRAM(magnetic random-access memory,磁随机存取存储器)是一种基于自旋电子学的新型非易失存储器,预计它会在未来几年内进入市场。像硬盘驱动器一样,MRAM不需要能量来保留数据,而是使用无需移动的部件,同时它的速度和重写能力可与常规RAM相媲美。

MRAM的信息存储在铁磁性金属合金上,这种材料适合于数据存储但不利于微处理器的逻辑运算。自旋电子学的必杀技是在半导体上产生实际的影响,这将是一项使我们能够同时使用存储和逻辑的技术。现在的芯片制造业是基于硅芯片的,它不具有必要的磁性能。2004年3月国际科学家小组报告说,使用硅和铁钴混合物制造的新材料,一方面能保持作为半导体的硅的晶体结构,另一方面也展示出自旋电子学所需要的磁性能。29

将来,电子自旋学会在计算机存储的发展中扮演很重要的角色,也可能对逻辑系统产生一定的贡献。电子的自旋是一种量子属性(遵循量子力学的规律),因此自旋电子学最重要的应用或许在量子计算系统里,并利用电子自旋来代表量子比特(qubit),这一点将在下面讨论。

利用质子磁矩复杂的相互作用,可以用自旋来存储原子核的信息。俄克拉荷马大学的科学家展示了一种“分子摄影”技术——仅仅一个由19个氢原子组成的液晶分子就存储了1024比特的信息。30

光学计算。另一种单指令多数据的计算方法是使用多束激光光束(其中信息编码在每一束光子流中)。光学组件可以在编码的信息流中执行逻辑和算法功能。例如,由一家以色列的小公司Lenslet开发出的一套使用256束激光的系统,通过在每个数据流中执行同样的计算,可以使每秒钟的计算次数达到8万亿次。31该系统可应用于诸如256个视频通道的数据压缩等方面。

SIMD技术(如DNA计算机和光学计算机等)将在未来的计算领域发挥重要的作用。利用SIMD架构可以重现人脑某些方面的功能,如处理感官数据;对于大脑的其他区域(如那些学习和推理区域),通用计算的“多指令多数据”(MIMD)架构是必需的。为使MIMD系统能进行高性能计算,我们还需要运用上面讲过的三维分子计算范式。

量子计算。量子计算是SIMD并行处理中更加激进的一种形式,但跟先前我们讨论的技术相比,它只是一个处在早期开发阶段的技术。量子计算机包含一连串的量子比特,这些比特在同时处在0和1的位置。量子比特基于量子力学中固有的模糊性。在量子计算机中,量子比特由粒子的量子属性来刻画,例如,每个电子的自旋状态。当量子比特处于激发态时,每一个量子比特都同时处于两种状态;在一个称为“量子脱散”的过程中,每个比特的模糊性得到解决,只留下明确的1和0序列。如果量子计算机以正确的方式建立起来,那么脱散后的序列就将代表问题的解决方案。从本质上讲,只有正确的序列才能从脱散过程中幸存下来。

就像前面描述的DNA计算机一样,量子计算机成功的关键也在于对问题认真细致地论述,包括精确检测可能答案的方式。量子计算机有效地检测每一个可能的量子比特组合。一个带有100个量子比特的量子计算机将可以同时检测21000种潜在的方案(这个数字相当于一个10300)。

一个千位量子计算机的性能将远远超越任何可以想象的DNA计算机,或者任何可以想象的非量子计算机。但是这个过程有两方面的局限,第一个问题是(就像上面讨论的DNA和光学计算机一样)量子计算机只适用于某一类问题。而事实上,我们需要用一种简单的方式来检测每个可能的答案。

对很大的数进行因式分解是量子计算实际应用的一个典型例子(即使是很小的一组数,在幂乘之后也会变得很大)。在普通的数字计算上对512位的数字进行因式分解是无法实现的,即使是一台并行机也不可能。32量子计算能够解决许多有趣的问题,例如破解密码(依靠因式分解大素数)。还有另一个问题是,量子计算机的计算能力取决于处于激发态的量子的数量,而以目前的技术水平大约只局限于10个比特。一个10比特的量子计算机并没有多大作用,因为210也仅仅是1024。在传统的计算机中,合并存储器位数和逻辑门是一个简单的过程;但是,我们不能仅仅通过合并两个10比特的量子计算机来创造一个20比特的量子计算机。所有的量子都要一起激发——这一点非常具有挑战性。

一个关键的问题是,每额外添加1个比特究竟有多难。每增加1个比特,量子计算机的计算能力就会成指数级增长,但是如果每额外增加1个比特,工程任务的困难度也成指数增长,毫无疑问我们将会得不偿失。(这就是说,量子计算机的计算能力与增加比特的难度成正比。)一般来说,目前提出的添加量子比特的方法明显会使系统变得更为微妙,而且容易过早脱散。

很多人建议大幅度地增加量子计算机的比特数,但是这个想法在现实中还没有成功过。例如,因斯布鲁克大学的Stephan Gulde和他的同事们已经用一个钙原子建立了一个量子计算机,通过应用原子内不同的量子属性,这个量子计算机能同时编码数十位甚至高达百位的量子比特。33然而,量子计算的最终作用仍然悬而未决,即使数百位量子计算机被证明是可行的,它仍然只是一个专用设备(虽然它有任何其他方式所不能效仿的功能)。

当我在《The Age of Spiritual Machines》一书中提到分子计算会成为第六个主要的计算范式时,引起了很多的争议。但在过去的5年里,这个领域已经有了很大的发展,专家们的态度也发生了巨大的变化,现在这个想法已经成为主流了。现在我们已经证实了所有三维分子计算结构的主要需求:单分子晶体管、基于原子的存储细胞、纳米线、自组装的方法和对万亿部件的自我诊断。

现代电子产品的生产过程是从芯片布局的详细设计到光刻,再到大型集中化的工厂生产。而纳米电路则更有可能从化学烧瓶里制造出来,这个发展会成为工厂非集中分布的重要一步,并在21世纪或22世纪遵循加速回归的定律。