标签:四种 div 行数据 脉冲 应用 sig 次方 baidu tar
好了,下面转入量子计算机的总结:
有趣的量子理论
用原子实现的量子计算机只有5个q-bit,放在一个试管中而且配备有庞大的外围设备,只能做1+1=2的简单运算,正如Bennett教授所说,“现在的量子计算机只是一个玩具,真正做到有实用价值的也许是5年,10年,甚至是50年以后”,我国量子信息专家中国科技大学的郭光灿教授则宣称,他领导的实验室将在5年之内研制出实用化的量子密码,来服务于社会!科学技术的发展过程充满了偶然和未知,就算是物理学泰斗爱因斯坦也决不会想到,为了批判量子力学而用他的聪明大脑假想出来的EPR态,在六十多年后不仅被证明是存在的,而且还被用来做量子计算机。在量子的状态下不需要任何计算过程,计算时间,量子进行空间跳跃。可以说量子芯片,是终极的芯片[1]
传统计算机好比两指弹琴
量子计算机就是千手观音弹琴
量子比特的基本原理:这一部分我们会阐述二进制,二进制序列和对二进制序列的操作。
我们首先来看计算机是怎么保存数据的。计算机中,用0和1二进制序列保存数据。抽象的来看,二进制0和1分别代表了系统的两种“状态”。也就是说,我们只要能够找到一个有两个可以区分的状态的系统,就可以抽象的实现计算机的二进制。因此我们首先讨论如何在系统中实现二进制。
在经典计算机中,01由不同的电压实现,0代表低电压信号,1代表高电压信号。
在量子力学中,我们有很多天然的双态系统来实现这种两个可区分的状态(不需要太纠结量子力学的态表示什么)。比如自旋1/2系统,这在量子力学中对应自旋向上/向下两种状态的系统;或者更经典的光子的极化,比如一束光具有不同的偏振状态(比如左旋/右旋偏振光)。总之,我们能够在量子力学中找到实现二进制的系统。
在实现二进制之后,我们的下一步是需要得到二进制序列。
在经典计算机中,二进制序列由一个高低电压交错的脉冲实现。比如001对应于一个低电压-低电压-高电压的信号。在量子力学中,我们通过纠缠态实现二进制序列。具体而言,比如某个光子处于态上, 我们可以把这个光子和其它光子纠缠起来得到一个N光子纠缠态 ,这样我们就实现了一个二进制的序列。
在这里,量子世界和经典世界出现了不同。在经典世界中,我们只能同时拥有一个状态。比如,如果我们拥有了001态,我们就不能同时拥有010态,这是因为两个态的电压会叠加,如果同时拥有这两个态的话我们只能够得到011态。但是在量子世界中,我们可以得到叠加态。具体来说,系统的状态可以同时处于态。其中叠加系数a,b的模方表示我们在测量中得到相应态的概率。比如,我们得到的概率是。当然概率归一化要求。
我们阐述的态叠加原理会导致什么后果呢?比如我们通过Hadamard门制备了一个态,并用这个态制备一个N光子纠缠态, 那么我们看到,这个态就同时处于 到的等概率叠加态。(最简单的例子,比如)
这个事实说明了什么呢?与经典算法不同,我们的操作可以同时对上面的所有态进行。因此,如果我们能够找到一种有效的算法来同时处理这些态,那么我们就能够进行并行计算,因此我们算法的速度比起经典就大大提高了。这个并行与经典的并行算法的区别在于,经典的并行是把任务分成小的部分(比如算一个加法12+34,我们可以同时加十位和加各位然后最后加上两个结果),量子并行是同时处理了很多不一样的状态(同时计算了12+34,23+45, ...)。
比如Grover 算法。
量子退火:我们先要看看经典退火算法是如何实现的。经典退火算法是一种加入概率的贪心算法。通常搜索极值的最简单的方法就是将某一点的值与附近的点的值比较,如果我们找到一点它的值比附近的点的值都大或者都小的话那么我们就找到了局部极值。但是这样搜索的话有可能不能得到整体的极值点。经典退火算法对上述过程进行了修正,它以一定的概率使得系统在处于局部极值时可以移动到附近一个不是局部极值的点。为了系统最后能够得到稳定解,随着时间推移,这个概率必须逐渐趋近于0。这个过程与物理中的玻尔兹曼分布类似。在玻尔兹曼分布中,,其中是两个不同状态的能量差,这里能量对应各点的函数值。如果我们渐渐降低温度,那么我们看到只要那么概率就会趋向于0。上述降低温度的过程在人类制造金属的历史上称为“退火”。
量子退火的核心思想也是这样。我们需要让系统具有一个远离局部极值点的概率(这样才能走向最值点),并让这个概率最终趋于0(才能稳定在最值点)。与经典退火不同的是,我们发现在物理的量子力学系统中具有隧穿效应,因此量子力学系统本身就具有一个自然的偏离局部极值点到达全局极值点的概率。不太严格的说,这个隧穿概率,其中x为两点的距离,为一个参数。因此我们看出系统的总能量越高,隧穿概率越大。因此,我们的退火算法对应着一开始系统具有一个很大的总能量,在给定初始位置的情况下就是系统的初动能很大,在这个情况下系统有比较大的概率从局部极值移动到不是局部极值的点。随着时间增加,我们把系统的动能减小,相应的总能量减小,隧穿概率减小,随后我们就能够达到一个稳定的极值点。
总结一下,两种算法都是简单的贪心算法加入了一个移动概率。量子退火算法的移动概率天然的是系统的隧穿概率。量子算法的好处是由于系统能够往全局最值隧穿因此不像经典算法那样我们在翻越势垒的时候有一定的概率接受当前的局部极值因此可能好一些。
根据上面的讨论,我们看出,优化函数对应量子力学中的势能,优化的过程是给系统加入一个衰减的初始很大的动能项。最后系统的态就处于势能的最值位置。
由于隧穿概率是正比于距离的,因此我们看出量子退火的有效性与局部极值和全局最值的距离很有关系。另一方面由于跃迁概率与能量差相关,所以经典退火的有效性和局部极值和全局最值中间的势垒高度很有关系。
有的物理文献是通过绝热定理来讨论的。这里略去。参考Science的文章。 doi: 10.1126/science.1057726 .
另外好像实际上因为一般没有(买不起)量子计算机(退火专用)我们实际上使用的是路径积分蒙特卡罗来做模拟的。
另外似乎没有量子算法优于经典算法的证明或者证据。在某些具体问题中经典退火更快。
数学问题转为伊辛模型:通常在这里说的伊辛模型是随机场伊辛模型(random field ising model)。待续。量子有一种很神奇的特性,也就是量子的叠加态。一个粒子,在我们观测之前,它处于又左旋又右旋的状态。但是我们观测以后,我们只能得到要么左旋,要么右旋的结果。换句话说,在观测的一瞬间,它「塌缩」了。
对于量子处于叠加态的证明,可以搜索一下托马斯·杨的「双缝干涉实验」中,观测手段影响光的波粒二象性的表现,以及「延迟决定实验」中,在一切结束后再对过程进行决定的实验。可以说,量子论打破了经典物理学中的决定论和定域性,实际上,不存在一个确定的「历史」,而取决于我们观察的方式。同时,不同的观测方式甚至可以导致不同的历史。
把它放到量子计算机上,这意味着几个好处。
第一,是指数级增长的计算能力。经典计算机中,一个经典比特只能存储一位信息,要么是 1 ,要么是 0 。但是在量子计算机中,这个比特可能是 0 ,也可以是 1 ,关键是它们同时参与了计算,而只在你观测时,才会塌缩成一个完全确定的解答。假如是 10 经典比特,那么相当于 10 位数据参与运算。而 10 量子比特,就是 2^10 ,也就是 1024 位数据参与了运算,这是多么巨大的差距。
第二,假设现在你的手放在键盘上,准备进行 Google 搜索。不可思议的地方在于,甚至在你想好要搜什么之前,量子计算机就可以完成计算!乍看起来这样非常不合常理,但是实际上,在你打字时,后台就可以开始进行计算。这个计算可能是各种搜索关键字的叠加态,而在你打好字按下回车时,这个叠加态一瞬间塌缩为你要的关键字,你的搜索早已运算完毕了。
第三,我们现在计算机的主要热量,来源于我们对存储器的不断读写和重置。假设我们的存储器内有 0 和 1 组成的杂乱无章的数据,现在我们全部清零。这一刻,我们的存储器显然变得更加「有序」,即无序程度「熵」的降低,而根据热力学定律,这些熵就以热量的形式散发出去。因为微观粒子的幺正性,量子的运算是一种完全可逆计算,信息不会丢失而得到重用,几乎不会有热量的散失。
所以说,届时在一块手表上实现超越一切经典计算机的算力,并且超低功耗和热量,的确不是不可能的。我们可以期待通用量子计算机普及的时候,人类文明会迎来多大的飞跃。量子有一种很神奇的特性,也就是量子的叠加态。一个粒子,在我们观测之前,它处于又左旋又右旋的状态。但是我们观测以后,我们只能得到要么左旋,要么右旋的结果。换句话说,在观测的一瞬间,它「塌缩」了。
对于量子处于叠加态的证明,可以搜索一下托马斯·杨的「双缝干涉实验」中,观测手段影响光的波粒二象性的表现,以及「延迟决定实验」中,在一切结束后再对过程进行决定的实验。可以说,量子论打破了经典物理学中的决定论和定域性,实际上,不存在一个确定的「历史」,而取决于我们观察的方式。同时,不同的观测方式甚至可以导致不同的历史。
把它放到量子计算机上,这意味着几个好处。
第一,是指数级增长的计算能力。经典计算机中,一个经典比特只能存储一位信息,要么是 1 ,要么是 0 。但是在量子计算机中,这个比特可能是 0 ,也可以是 1 ,关键是它们同时参与了计算,而只在你观测时,才会塌缩成一个完全确定的解答。假如是 10 经典比特,那么相当于 10 位数据参与运算。而 10 量子比特,就是 2^10 ,也就是 1024 位数据参与了运算,这是多么巨大的差距。
第二,假设现在你的手放在键盘上,准备进行 Google 搜索。不可思议的地方在于,甚至在你想好要搜什么之前,量子计算机就可以完成计算!乍看起来这样非常不合常理,但是实际上,在你打字时,后台就可以开始进行计算。这个计算可能是各种搜索关键字的叠加态,而在你打好字按下回车时,这个叠加态一瞬间塌缩为你要的关键字,你的搜索早已运算完毕了。
第三,我们现在计算机的主要热量,来源于我们对存储器的不断读写和重置。假设我们的存储器内有 0 和 1 组成的杂乱无章的数据,现在我们全部清零。这一刻,我们的存储器显然变得更加「有序」,即无序程度「熵」的降低,而根据热力学定律,这些熵就以热量的形式散发出去。因为微观粒子的幺正性,量子的运算是一种完全可逆计算,信息不会丢失而得到重用,几乎不会有热量的散失。
所以说,届时在一块手表上实现超越一切经典计算机的算力,并且超低功耗和热量,的确不是不可能的。我们可以期待通用量子计算机普及的时候,人类文明会迎来多大的飞跃。子计算机是用平行世界进行计算的。它的最大优势是可以输入叠加态。对0和1同时进行处理。
举个例子,一个经典的与门,输入有四种的话,00 01 10 11,那么如果我想知道所有的可能性,我们要把这几种情况分别进行计算,需要4次计算。而量子计算机却只要“同时”给这个与门的输入端加上叠加的01,一步就出结果了。
量子计算机可以用于密码破译,比如大家都知道的,加密了一些东西忘了密码,解密可能要穷举法。这类似于行李箱的密码,可以通过不断的转动齿轮试出来。但是我们用量子计算机,就可以直接把齿轮上的每一位,“同时”输入进去,然后立马就可以找出打开文件的那个密码。
量子计算机在计算量子现象的时候也是得心应手。大家知道微观世界是由量子力学统治的,而量子力学最大的特点就是叠加,你计算的时候要把所有可能的原子波函数组合(干涉项)全部都考虑进去。这样下来,计算量会随着原子数增加呈幂指数暴涨,导致现在最先进的计算机,通过量子力学来模拟材料的性能时,模型中最多也只能放500个原子…
500个原子,对于dna,对于蛋白质,对于高分子,简直是芝麻粒。所以人类至今无法从理论上模拟和预测蛋白质一类的功能,只能通过实验不停的观察,像植物学家那样纪录。
如果有了量子计算机,生物体系的计算将可行。物理再吃掉无机化学后,开始向高分子、生化领域进发,让人们仅仅通过模拟手段就可以预测蛋白质和细胞的功能。
量子计算机和普通计算机,一个是运算能力和晶体管数量成正比的,一个是运算能力和量子比特呈幂指数关系的。虽然量子计算机目前能力有限,但是如果量子比特继续变多,那运算能力就是2 4 8 16 32 64 128 256 512 1024 2048 4096 8192 这样几何级数的增长啊!最终,它的计算能力会远超现在的计算机。下面是一些关于量子计算的科普问答:
Q:量子做的计算机,量子是什么?在哪儿呢?
量子是一个能量的最小单位,所有的微观粒子包括分子、原子、电子、光子,它们都是量子的一种表现形态。
这个世界本身都是由微观粒子组成的。所以某种意义上讲,我们这个世界就是由量子组成的。
人类可都是24K纯量子产品。“噗”,大家呼一口气,那就是上万亿量子的进出。
到本世纪初,在人们的周围随处可见直接或间接运用量子理论的技术和装置:从常见的CD唱片机到庞大的现代光纤通信系统,从无水涂料到激光制动车闸,从医院的磁共振成像仪到隧道扫描显微镜……量子技术已经渗透到人们的生活中。
Q:中国这台量子计算机,是世界首台超越早期经典计算机的光量子计算机,它比前辈牛在哪里?
早期经典的计算机是二进制的。意思是说,它们只能用“0”和“1”,来记录所有的信息状态,每一步能做到的只有2的一次方——2次运算。
量子计算机,由量子状态来描述信息,它们拥有更快速的运算方式。
比如,2个量子态(也可以称作“2个比特”)的量子计算机,每一步可做到2的2次方——也就是4次运算。3个比特的量子计算机,每一步可以对信息做到2的3次方——8次计算。
中国科学家现在能把量子计算机做到什么水平呢?
中国的量子计算机有10个比特。也就是说,这台量子计算机,每一步可做2的10次方,也就是1024次运算。
举个例子,如果传统计算机,好比两个手指戳戳钢琴键,那么中国的这台量子计算机就相当于是千手观音弹钢琴,有1024个手指,在同时操作。
这样弹出来的乐曲是不是要丰富、流畅得多?
中国量子计算机的首次实验测试,也证明了它的速度优势——不仅比国际同行类似的实验加快至少2.4万倍。同时,通过和经典算法比较,也比人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍。
全世界都在攻关量子计算机
为什么这么难制造
Q:这台量子计算机已经成型了吗?
目前这台机器还处于原始状态,是一台只有元器件和光学仪器的原型机。大小大约占3平方米不到。
Q:3平方米也不小了,量子计算机以后可以出笔记本电脑吗?
如果做到更加实用化,比如将核心元件压缩成CPU,量子计算机体积也可以大幅缩小。
Q:对于量子计算机能够容纳多少个光量子,世界上的几个团队一直在暗暗较劲。
2015年,谷歌、NASA(美国航天航空局)和加州大学圣芭芭拉分校宣布实现了9个超导量子比特的高精度操纵。
今年上半年,谷歌也曾宣布要发布10比特的量子计算机,结果被中国科学家团队超车。
接下去,大家还要继续1个比特挨着1个比特地“咬”,以至于达到“量子霸权”。
为什么大家都在紧咬这个研究,“量子霸权”到底牛在哪里?
“量子霸权”是加州理工学院物理学家John Preskill发明的名词。
通俗来讲就是:目前的超级计算机系统,能完成5到20个量子比特的量子计算机所做的事情。但达到约50个量子比特之后,量子计算机的能力将一骑绝尘,超级计算机只能望“量子”兴叹。
50比特的量子计算机,一步就能进行2的50次方运算,等于1125899906842000,即一千万亿次计算,已经达到全球排名第五、中国天河一号超级计算机现在的计算能力。
如果真的到了那一天,现在的电子计算机就相当于以前的算盘,显得笨重又古老了。
Q:为什么光量子的量越多,量子计算机越难制造?
量子计算机中的量子,必须处于彼此纠缠的状态中才能工作。而光量子数量越多,纠缠状态的稳定性就越差。
Q:潘建伟团队是怎么把量子纠缠起来的?
在-220℃以下的降温超导环境中,作纠缠。纠缠速度很快的,“嗖”的一记,10个量子就纠缠在一起了。
量子计算机会带来哪些改变
至少天气预报会更准确
Q:潘建伟团队在2016年发射了世界首颗量子卫星“墨子号”。量子卫星的一项实验,就是验证量子保密通信。量子纠缠而成的密码,具有不可复制性和绝对安全性。一旦有人窃取密码,整个通信信息就会“自毁”并告知使用者。
那么量子计算机的发明,有一项重要的功能就是解密,那么潘教授的“矛”——量子计算机,会不会破解他发明的“盾”——量子密钥呢?
不能,量子密钥不可被破解。
但是量子计算机有能力高效破解其他方式形成的通讯方式。当然,量子计算机有更多别的用途。
比如,“知乎”上最热门的问题之一——天气预报为什么总是不准?
因为关乎天气变化的因素实在是太多了。海洋、云层、风……连地球另外一端的蝴蝶拍拍翅膀,都有可能影响这一头的天气。而目前的计算机系统,还搞不定那么多因素的计算。但是换成量子计算机,未来就可以突破这个难题,它的运算能力能让气象预报更争气。
如果您愿意花几块钱请我喝杯茶的话,可以用手机扫描下方的二维码,通过 支付宝 捐赠。我会努力写出更好的文章。
(捐赠不显示捐赠者的个人信息,如需要,请注明您的联系方式)
Thank you for your kindly donation!
标签:四种 div 行数据 脉冲 应用 sig 次方 baidu tar
原文地址:http://www.cnblogs.com/qiaoyanlin/p/6815271.html