首页 > 科技 > 正文

澳大利亚人为全尺寸硅量子计算机发明架构

导读 它看起来越来越像未来超级强大的量子计算机将由与今天的经典计算机相同的东西制成:硅。一项新的研究为硅量子计算机如何扩大规模并实现纠错

它看起来越来越像未来超级强大的量子计算机将由与今天的经典计算机相同的东西制成:硅。一项新的研究为硅量子计算机如何扩大规模并实现纠错奠定了基础架构-这是实现实用量子计算的关键步骤。

所有量子计算工作都依赖于“怪异”的量子物理学,它允许电子或原子核的自旋状态同时存在于多个状态。这意味着每个量子比特(量子比特)可以同时将信息表示为1和0。(经典计算位只能存在1或0,但不能同时存在。)此前,澳大利亚科学家展示了基于电子自旋和嵌入硅中的磷原子核自旋的单量子位。他们的最新工作建立了量子计算架构,为构建和控制数百或数千个量子位的阵列铺平了道路。

当你开始扩展量子比特架构时,你必须放弃运行单个量子比特,以显示如何制作一个允许你同时操作多个量子比特的处理器,”大学物理学家米歇尔西蒙斯说。澳大利亚新南威尔士州。

西蒙斯和她的同事们在10月30日的“科学进步”期刊的网络版上详细介绍了硅量子计算架构。新南威尔士大学的团队处理了实验方面,而墨尔本大学的另一个团队为该项目提供了理论基础。

硅量子计算的概念最早是由马里兰大学帕克分校的物理学家布鲁斯凯恩于1998年提出的。基于熟悉的硅的量子计算机理论上可以与当今计算机工业中的传统半导体技术一起制造。量子计算的硅方法还为量子位提供了强稳定性和高相干时间的优势。(高相干时间意味着量子比特可以继续保持信息足够长的时间来完成计算。)

从那时起,研究人员就凯恩的愿景取得了稳步进展。2012年,澳大利亚团队展示了基于电子自旋的单量子比特的掌握以及2013年核自旋量子比特的控制。这些结果表明原子量子比特具有记录相干时间和高保真度量子比特的优势。

但到目前为止,尚不清楚如何构建这种量子比特的大型阵列而不需要用于操纵量子比特和读取其信息的不可靠的大量控制电路线。此外,研究人员需要一种适用于称为表面代码的量子误差校正的可扩展架构。表面代码需要能够并行和同步地控制几乎所有量子位。

这项新研究为这个版本的硅量子计算提供了解决扩展问题的解决方案。研究人员详细介绍了一种在上下控制线层之间夹入二维核自旋量子位的架构。这种三层架构使得较少数量的控制线能够同时激活和控制许多量子位。

“我nstead派出一定数量的信号下控制线的量子位阵列的-大约等于量子比特的数量-在这种方法中,我们能够大大减少信号发送到量子比特,”说劳埃德Hollenberg,在物理学家墨尔本大学。“所以控制要简单得多。”

理论上,新架构可以在150微米×150微米的阵列中包装大约2500万个物理量子位。但是那些数百万的量子比特只需要10,000条控制线。相比之下,试图控制每个量子位的架构将需要超过1000倍的控制线。

理论上的2500万个物理量子比特阵列假设每个量子比特之间有30纳米的间隔。但该团队认为,设计类似的阵列可以实现更紧密的分离和更快的操作时间,Hollenberg说。

澳大利亚研究人员也开始了解硅量子计算架构如何与表面码纠错配合使用。在短期内,他们计划构建尺寸在100到1000量子位之间的非纠错阵列作为“量子模拟器”。但他们最终还是希望采取下一步措施来实现小规模表面码纠错,使其成为实用的量子计算方法。

“我们的目标是在五年内执行第一个纠错协议,”西蒙斯说。

最新的突破代表了这种硅量子计算方法的关键一步,但它并不是在硅片中构建量子计算机的唯一可行方法。新南威尔士大学的另一个团队最近在硅中建立了一个基于量子点中捕获的电子的双量子比特逻辑门。[更多信息,请参阅“硅会节省量子计算吗?“IEEESpectrum,2014年10月。”

构建量子计算机的竞赛还包括几种不一定使用硅的方法。一些研究实验室尝试使用电磁场捕获和隔离离子。其他人,包括谷歌的量子人工智能实验室,已经尝试过基于超导金属电路的量子比特。今年早些时候,谷歌的研究人员成为第一个在9个超导量子比特的线性阵列上展示表面码纠错的人。

加拿大公司D-WaveSystems通过专注于更专业的量子计算版本(称为量子退火),将超导量子电路推向了不同的方向,这种量子计算只能解决一组更为有限的所谓优化问题。D-Wave最近在谷歌的AI实验室安装了一个1000比特的量子退火机,用于持续测试。

免责声明:本文由用户上传,如有侵权请联系删除!

标签:

Copyright @ 2015 -2023 太行之窗 All Rights Reserved. 网站地图 | 百度地图 .