当前基于量子位的量子计算机仍然太大,并且不能真正扩展,但是基于激光的新方法允许使用高度可扩展的模型,该模型最终可以通过将激光束分成“可压缩光”而最终实现量子至上。
如今,IBM和Google推出的量子计算机都使用了qubit模型,该模型在当前时间点显然还没有那么可扩展。尽管Google声称其53量子位计算机在二进制计算机上具有量子优势,但这仅适用于有限的一组应用程序。为了使量子计算机真正证明自己优于当前的二进制模型,其设计需要通用性,可扩展性和更高的容错能力。
尽管当前基于量子位的量子计算机的容错能力有所提高,但由于组件已经很大,其缩放潜力大大降低。10月18日,基于激光的量子计算机的发布揭示了一个更好的选择,该计算机已经开发了近10年。
基于激光的量子计算机背后的团队包括来自美国,澳大利亚和日本的科学家。代替量子比特,新方法使用了由激光束和定制晶体构成的聚集状态,该聚集状态将光束转换为一种特殊类型的光,称为“压缩光”。为了使聚集状态展现出量子计算的潜力,激光需要可以通过特定的方式进行测量,而这是通过反射镜,分束器和光纤的量子纠缠网络来实现的。
这种方法在较小的规模上得到了证明,它不能提供足够高的计算速度,但是科学家们声称该模型具有极强的可扩展性,并且更大的结构最终可以在量子位和二进制模型之上实现量子至上。
文章来源: https://www.toutiao.com/group/6751161350115836420/