通信技术|中国科大在机器学习提高超导量子比特读取效率上取得重要进展

【通信技术|中国科大在机器学习提高超导量子比特读取效率上取得重要进展】采访人员3日从中国科学技术大学获悉,该校郭光灿院士团队在机器学习提高超导量子比特读取效率上取得重要进展 。据了解,该团队郭国平教授研究组与本源量子计算公司合作,在本源“夸父”6比特超导量子芯片上研究了串扰对量子比特状态读取的影响,并创新性地提出使用浅层神经网络来识别和读取量子比特的状态信息,从而大幅度抑制了串扰的影响,进一步提高了多比特读取保真度 。

通信技术|中国科大在机器学习提高超导量子比特读取效率上取得重要进展
文章图片

该成果以研究长文的形式发表在国际应用物理知名期刊《Physical Review Applied》上 。
对量子比特状态的高保真度测量是量子计算中的关键一环 。随着量子芯片的进一步扩展,为了进一步提高读取保真度,如何解决测量中的串扰问题将成为研究者们面临的主要挑战 。在此之前,国际上其他课题组的主要精力集中在如何从硬件层面抑制串扰,例如为每一个量子比特的读取腔单独配置一个读取滤波器,或者增大读取腔之间的空间和频域距离 。这些方案虽然在一定程度上抑制了串扰,但是都对量子芯片的扩展和集成产生了不利的影响 。
基于这些出发点,郭国平教授研究组与本源量子计算公司合作,通过对量子比特信息提取过程的抽象和模拟,提出一种新的量子比特读取方案:通过训练基于数字信号处理流程构建的浅层神经网络,实现对量子比特状态的精确识别与分类 。
研究人员将这一方案应用到本源“夸父”6比特超导量子芯片上,实验发现,新的读取方案不仅有效提升了6比特的读取保真度,而且大幅度抑制了读取串扰效应 。同时,由于新方案中的数据处理可以进一步简化为单步矩阵运算,未来可以直接转移到现场可编程逻辑门阵列上,从而实现对量子比特状态的0延时判断以及对量子比特的实时反馈控制 。该方案不仅适用于超导量子计算,也同时适用于其他量子计算物理实现方案 。
访问:
阿里云 - 最高1888元通用代金券立即可用

    推荐阅读