量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。
基本原理
量子力学态叠加原理使得量子信息单元的状态可以处于多种可能性的叠加状态,从而导致量子信息处理从效率上相比于经典信息处理具有更大潜力。普通计算机中的2位寄存器在某一时间仅能存储4个二进制数(00、01、10、11)中的一个,而量子计算机中的2位量子位寄存器可同时存储这四种状态的叠加状态。随着量子比特数目的增加,对于n个量子比特而言,量子信息可以处于2种可能状态的叠加,配合量子力学演化的并行性,可以展现比传统计算机更快的处理速度。
叠加原理
把量子考虑成磁场中的电子。电子的旋转可能与磁场一致,称为上旋转状态,或者与磁场相反,称为下旋状态。如果我们能在消除外界影响的前提下,用一份能量脉冲能将下自旋态翻转为上自旋态;那么,我们用一半的能量脉冲,将会把下自旋状态制备到一种下自旋与上自旋叠加的状态上。对于n个量子比特而言,它可以承载2的n次方个状态的叠加状态。而量子计算机的操作过程被称为幺正演化,幺正演化将保证每种可能的状态都以并行的方式演化。这意味着量子计算机如果有500个量子比特,则量子计算的每一步会对2^500种可能性同时做出了操作。2^500是一个可怕的数,它比地球上已知的原子数还要多(这是真正的并行处理,当今的经典计算机,所谓的并行处理器仍然是一次只做一件事情)。
概念的提出
量子计算(quantum computation) 的概念.早由阿岗国家实验室的P. Benioff于80年代初期提出,他提出二能阶的量子系统可以用来仿真数字计算;稍后费曼也对这个问题产生兴趣而着手研究,并在1981年于麻省理工学院举行的First Conference on Physics of Computation中给了一场演讲,勾勒出以量子现象实现计算的愿景。1985年,牛津大学的D. Deutsch提出量子图灵机(quantum Turing machine)的概念,量子计算才开始具备了数学的基本型式。
中期发展
1994年,贝尔实验室的应用数学家P. Shor指出 [3],相对于传统电子计算器,利用量子计算可以在更短的时间内将一个很大的整数分解成质因子的乘积。这个结论开启量子计算的一个新阶段:有别于传统计算法则的量子算法确实有其实用性,绝非科学家口袋中的戏法。自此之后,新的量子算法陆续的被提出来,而物理学家接下来所面临的重要的课题之一,就是如何去建造一部真正的量子计算器,来执行这些量子算法。许多量子系统都曾被点名做为量子计算器的基础架构,例如光子的偏振、腔量子电动力学、离子阱以及核磁共振等等。截止到今天,考虑到系统的可扩展性和操控精度等因素,离子阱与超导系统走在了其它物理系统的前面。
量子计算将有可能使计算机的计算能力大大超过今天的计算机,但仍然存在很多障碍。大规模量子计算所存在重要的问题是,如何长时间地保持足够多的量子比特的量子相干性,同时又能够在这个时间段之内做出足够多的具有超高精度的量子逻辑操作。但是量子计算仍然有不可限量的前景。