您的位置:首页 > 要闻 >

中国科大在机器学习提高超导量子比特读取效率上取得重要进展

2021-12-20 05:56  阅读量:8505   来源:东方网   

记者3日从中国科学技术大学获悉,该校郭光灿院士团队在机器学习提高超导量子比特读取效率上取得重要进展。

根据消息显示,该团队郭国平教授研究组与本源量子计算公司合作,在本源夸父6比特超导量子芯片上研究了串扰对量子比特状态读取的影响,并创新性地提出使用浅层神经网络来识别和读取量子比特的状态信息,从而大幅度抑制了串扰的影响,进一步提高了多比特读取保真度。包括中国科学院物理研究所副研究员季仲卿发布的无液氦制冷机,其核心指标达到国际主流产品水平,实现了比绝对零度高0.01度的连续稳定运行温度。。

该成果以研究长文的形式发表在国际应用物理知名期刊《Physical Review Applied》上。在正在举行的中关村论坛上,发布了一系列涵盖关键技术研究和主要行业规范的成果。

对量子比特状态的高保真度测量是量子计算中的关键一环伴随着量子芯片的进一步扩展,为了进一步提高读取保真度,如何解决测量中的串扰问题将成为研究者们面临的主要挑战在此之前,国际上其他课题组的主要精力集中在如何从硬件层面抑制串扰,例如为每一个量子比特的读取腔单独配置一个读取滤波器,或者增大读取腔之间的空间和频域距离这些方案虽然在一定程度上抑制了串扰,但是都对量子芯片的扩展和集成产生了不利的影响

基于这些出发点,郭国平教授研究组与本源量子计算公司合作,通过对量子比特信息提取过程的抽象和模拟,提出一种新的量子比特读取方案:通过训练基于数字信号处理流程构建的浅层神经网络,实现对量子比特状态的精确识别与分类。

研究人员将这一方案应用到本源夸父6比特超导量子芯片上,实验发现,新的读取方案不仅有效提升了6比特的读取保真度,而且大幅度抑制了读取串扰效应同时,由于新方案中的数据处理可以进一步简化为单步矩阵运算,未来可以直接转移到现场可编程逻辑门阵列上,从而实现对量子比特状态的0延时判断以及对量子比特的实时反馈控制该方案不仅适用于超导量子计算,也同时适用于其他量子计算物理实现方案

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

md