Turing的论文发表不久,由John von Neumann成功设计了一个采用实际元件实现通用Turing机全部功能的理论模型,不久后便建成了世界上第一台电子计算机。直到1947年晶体管的发明以后,计算机的硬件得到了飞速的发展,以致于在1995年Intel公司的创始人之一Gordon Moore预言道:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。这便是著名的Moore定律,这一定律解释了信息技术进步的速度:约每隔18-24个月计算机的性能就会翻一番!在刚开始的几十年以内信息技术进步的速度都很好地符合了Moore定律,这在直观上也是非常易于理解的。因为电信号在介质中传播的速度受物理规律的限制,我们要想在单位时间内进行尽可能多的操作就需把元件做地小而密集,实现电路的高度集成。
然而,随着电子器件集成度越来越高,到一定程度的时候,Moore定律最终将会失效,原因有以下两点:第一 ,现代计算机每一个存储单元都是一个非线性原件,若要使其保持在一定的状态而不受热涨落的影响,就需要一定的能耗,随着元件集成度的提高,单位体积内能耗增加,单位体积产生的热量也增加。与此同时,热涨落也进一步加强,而为了对抗更大的热涨落,只有进一步提高元件状态间的能量差,那么能耗又进一步提高了。但是,任何材料的散热能力都是一定的,这也就限定了集成度的上限。这就是所谓的“热耗效应”。第二,当电子器件的尺度越来越小,接近原子的大小的时候,它就不再像经典计算机那样遵循经典电路规律,而是量子力学的规律,而这与平时我们所处的经典宏观世界的规律有着巨大的差异,似乎与经典直观有着本质区别,所以若仍以经典电路的规律来设计集成电路,那么它的功能就将受到量子效应的干扰。比如,在经典世界中,几乎所有的运动都可以根据足够的物理规律从而给出确定的运动,但是在量子力学的世界中,微观粒子是以某种概率分布在空间中,而无法确定其所处位置。
一方面,Moore定律失效。而在另一方面,在20世纪70年代中期,随机化算法的提出证实了存在某种有效可解的计算任务在经典的确定型的Turing机上是无法有效进行的。这让人们开始设想:是否能够找到一种保证能有效模拟其他任何计算模型的计算模型?
在这些问题的启发下,1985年David Deutsch试图寻找一种能够有效模拟任意物理系统的类似于经典Turing机的计算装置。由于量子力学是物理学的最终规律,Deutsch便开始思考在量子力学原理作用下的计算装置,仿照Turing机的定义,最终导出了量子计算机的抽象概念,也称为量子Turing机。同时提出了Deutsch-Jozsa算法,证实了量子计算机确实存在着经典计算机所不具有的优势。随后的几十年间,Shor算法和Grover算法等算法的相继提出,进一步证实了量子计算机的优越性。
量子信息学的基础知识 量子比特 单量子比特
经典比特会有一个状态:0或1。类似的,量子比特也有一个状态,它可以是├ |0〉,可以是├ |1〉,还可以是它们的线性组合,称为叠加态,例如
├ |ψ〉=α├ |0〉+β├ |1〉
其中α、β是复数,├ |0〉和├ |1〉是一组正交基。通过测量量子比特,我们能得到一些关于量子比特状态的信息,源^自(优尔:文,论)文]网[www.youerw.com。在测量处于上述叠加态的量子比特时,我们得到├ |0〉的概率为|α|^2,得到├ |1〉的概率为|β|^2,由于总概率一定为1,所以|α|^2+|β|^2=1,在几何意义上来看,量子比特的状态就是二维复向量空间中的某个单位向量。