
除为更高效的量子计算应用铺路,因可降低AI对海量数据的依赖,该项技术在医疗、金融等领域将有较大应用潜力
随着量子计算从技术研发向应用落地迈进,在量子计算与人工智能技术(AI)结合的新领域,一项由中美两国多所高校联合进行的相关研究,于近日在中国香港特区正式公布相关成果。
按照香港科技大学工学院公布的此次新型量子计算方案,其主旨是让量子处理器及相关设备在极低温环境下运行,以此克服人工智能代理(AI Agents)与量子处理器之间的延迟问题。其相关含义及技术进路如下:
随着AI技术、尤其是支持AI的图形处理器(GPU)快速进步,如何将其与被认为是高效、快速计算未来的量子计算结合,正是当前全球科技研发的重要新路径之一。
所谓量子计算,作为一项范式变革技术,对其研究涵盖计算机科学、物理学和数学等方面。因利用专门计算机硬件及与量子力学相关效应的算法,例如叠加和量子干涉,其被认为可比传统计算机更快地解决某些类型的复杂问题。
量子计算的相关研究主要包括硬件和应用程序开发,硬件包含量子处理器或量子计算机等。前者在技术层面往往被称为量子处理单元,即QPU。而作为一种能与多个量子位进行谨慎交互的设备,这种交互通常通过电信号、微波、射频或激光脉冲等方法来实现。量子计算机则是一种能隔离并操控量子位的设备。
简言之,经典处理器使用比特来执行操作,量子计算机则使用量子比特(CUE 比特)来运行多维量子算法。量子计算旨在利用量子物理学原理解锁全新计算方式。
按照行业技术展望,随着量子计算机逐渐成熟,其将与现有的超级计算机集成,解决最难处理的一些计算问题。事实上,在汽车、制药、化工和金融服务等行业,目前已在较为积极探索布局量子计算,以及推动GPU与其“牵手”,实现让AI硬件调控量子处理器。
在行业发展前景方面,此前曾有相关报告指出:量子技术正在加速落地,并有望在2027年左右形成突破,届时全球市场规模有望快速增长至超过400亿美元。而待商业化应用进一步落地后,全球市场规模有望达千亿美元级别。
但在现实发展速度方面,量子计算目前仍被普遍视为犹如十余年前的人工智能技术,即处于“都知道方向重要、但无法有效实现或落地”的尴尬状态。2025年1月,以GPU产品闻名的英伟达首席执行官黄仁勋也曾就此表示,“非常有用”的量子计算机,可能要到几十年后才会问世。
尽管如此,英伟达、IBM等相关企业仍在积极对此进行布局。以建立量子计算和AI的协作关系为例:一方面,量子计算可加速运行 AI 应用,甚至有可能生成全新应用;另一方面,利用AI来改进量子计算(即通常所称的量子AI)也正逐渐成为现实。
一种可能的方式,是AI正用于帮助开发和运行量子计算机。此外,AI也可用于应对操作量子计算机研发在各个方面的挑战,包括实现更高效的纠错、校准、设备控制、任务调度和电路编译。
但在AI通过GPU实现量子计算加速时,一个基本的技术难题在于:GPU在室温下运作,量子处理器则因技术需要,须在绝对零度(摄氏零下273度)的超低温下运行。此时处理器中的某些材料表现出重要的量子力学效应,即电子可毫无阻力地穿过相关材料,使其成为“超导体”,后续一系列反应才得以实现。
在目前的技术路线中,为克服困难实现二者结合,GPU与量子处理器的安装通常会相隔数米,并通过线路连接。
但这往往会使指令传输显著延迟。比喻而言,两者只能靠“打电话”沟通而无法近距离“牵手”,因此在GPU发出指令后,量子处理器需花时间接收信息,实时交互效率因延误而大打折扣。在GPU架构中也存在一定程度类似的瓶颈,即显存带宽。作为衡量GPU内存性能的关键指标,其也将直接影响数据传输速度和相关计算的效率。
前述由香港科技大学方面新研究的意义由此产生,即通过将两者距离缩短,大幅削减运算延误的同时,使得效能提升。该项研究近日在行业学术期刊《自然材料》发表,其主题为“基于磁性拓扑绝缘体的低温存内计算”。
该项研究团队由该校电子及计算机工程学系助理教授邵启明带领,主旨是提出一种崭新的低温存内计算方案。这项研究由合作完成,除香港科技大学团队,参与研究的还包括中国科学院物理研究所、香港城市大学、南方科技大学,以及加州大学洛杉矶分校。
究其技术核心,是由磁性拓扑绝缘体制作的霍尔器件实现AI加速器在量子处理器数十厘米的范围内运行。为实现让GPU更适应超低温环境,该团队使用了“磁性拓扑绝缘体”这一特殊材料制作霍尔器件,其在极寒环境下也能稳定导电,相当于为GPU穿上“防寒服”。
简言之,这一材料的神奇之处在于,其既能支持量子计算的超低温环境,又能稳定运行AI加速器。
而在推动量子运算与人工智能的融合方面,该研究的主要核心突破则被认为主要包含在三方面,即应对极低温环境、缩短传输时间,以及实现存内计算。作为一类新兴的计算架构,存内计算指的是在存储器阵列内完成逻辑运算,避免存储器和处理器之间频繁的数据搬移操作,目的同样也是在提升算力的同时降低功耗。
在解释相关技术的背景时,邵启明则指出,“量子计算机的运算非常复杂,需要运用数千个量子比特。为进一步发掘其潜力,学术界近期开始借助机器学习技术提升量子计算能力,尤其是在纠错方面。”
在公布相关成果时,邵启明则表示:希望能通过整合人工智能代理与训练单元,致力进一步降低推理和在线训练的延迟,为更高效的量子计算应用铺路。
一位持续关注AI技术的科技人士对《财经》记者分析:通过“减少延迟”这一核心技术突破,相关方案或将被应用于辅助量子处理器直接参与AI模型的在线学习,加速AI模型的训练。
“与此同时,通过结合低延迟的量子-AI接口,其可在更大程度上降低AI对海量数据的依赖。因此,在医疗、金融等更依赖小数据集的数据敏感领域,这项方案或许也会具有比较大应用潜力。”这位人士分析称。