/ 中国存储网

中国双威海洋之光扩展神经网络进行量子化学模拟

2025-10-23 01:32:49 来源:中国存储网

中国存储网消息,当神经网络遇到百亿亿次级时会发生什么?一个新的 VAST Data 博客探讨了中国的研究人员如何使用双威 OceanLite 超级计算机将神经网络量子态 (NNQS) 推向前所未有的规模。

该团队在 3700 万个处理器内核上运行,具有 92% 的强扩展和 98% 的弱扩展,表明机器学习可以足够精确地对量子化学进行建模,足以对真实材料和分子产生影响——有可能在实用量子硬件到来之前很久就实现现实世界的材料发现。

如果我们能够对生命的化学、每个电子的运动和每个键的平衡进行建模,不是用未来的量子系统,而是用现有的超级计算资源,会怎样?

这基本上是一组中国研究人员开始使用中国最新的双威超级计算机在神经网络量子态 (NNQS) 方面的工作来证明的。

乍一看,它似乎是一个技术扩展里程碑,该机器在过去几年的 Gordon Bell 运行中已经证明了这一点。该项目在 3700 万个处理器内核上运行,实现了 92% 的强扩展和 98% 的弱扩展(这意味着无论他们为同一问题添加更多处理器还是随之增加问题大小,性能几乎保持不变)。

换句话说,这种效率水平表明算法和超级几乎完美地同步工作,这在如此大规模的规模下是罕见的,并且对于进行如此大规模的量子模拟是必要的。

研究人员表明,机器学习可用于对复杂的量子系统进行足够精确的建模,足以对真实材料和分子产生影响,并且可以在当今最大的经典超级计算机上完成。

要理解为什么这很重要,从机器本身开始会有所帮助。

“新双威”,有时被称为 OceanLite,是中国太湖之光超级计算机的继任者。它在 SW26010-Pro 芯片上运行,每个芯片都是由使用本地内存而不是缓存的小型计算核心集群构建的,从而可以对数据进行极其细粒度的控制。数以万计的这些芯片连接在一起,形成一个拥有超过 4000 万个内核的系统,能够实现百亿亿次级的性能,即每秒约 10 亿次计算。

问题是,这种架构非常擅长常规的、可预测的工作,例如现代人工智能中的深度学习训练循环。但量子化学更难适应。

为了模拟分子的量子态,研究人员经常使用 NNQS,这是一种相对较新的技术,用于训练神经网络,试图描述分子中电子排列和移动的每一种可能方式。

正如作者所描述的那样,要做好这一点需要从该波函数中生成大量随机样本,并为每个样本计算一种称为“局部能量”的东西。这两个步骤在计算上都是残酷的,并且随着问题的增长,两者都会变得不均匀,因为某些配置比其他配置更需要评估。

双威团队构建了一个新的数据并行 NNQS-Transformer,旨在适应机器的分层架构。管理核心处理通信,而轻量级计算核心则在其本地内存中进行繁重的数学运算。智能负载平衡系统让每个内核都忙得不可开交,代码是用 Julia 编写的,以提高灵活性,但经过调整以从硬件中榨取最大性能。

结果是一种算法,最终将量子化学扩展到与当今最大的人工智能模型相同的极端水平。

早期的 NNQS 模型只能处理微小的分子系统,但这个模型模拟了具有多达 120 个自旋轨道(描述电子如何在原子中占据能级的基本单位)的结构。

它表明,神经网络现在可以解决足够大的量子问题,对真正的化学很重要,并且双威可以管理曾经被认为无法承受的复杂、不规则的工作负载。

从更广泛的角度来看,这很重要,因为它暗示了经典计算和量子计算之间的桥梁。NNQS 使用经典硬件来学习量子系统的行为。

如果这些方法继续扩大规模,百亿亿次级超级可能会在有用的量子处理器出现之前很久就变得实用,以发现新材料或药物。

双威项目也让我们得以一窥中国在大规模计算方面的稳步进步。

虽然技术细节仍然很少,但每篇主要研究论文不仅展示了原始性能,还展示了日益强大的软件环境。使用像 Julia 这样的开放、可移植语言以及经过深度调整的原生代码表明,这个生态系统正在超越一次性基准,成为一个可持续的科学平台。

最后,这项工作具有所有令人兴奋的 HPC 内容,例如破纪录的速度,但更仔细地观察就会发现,训练语言模型的相同架构也可以学习物质本身的隐藏结构。

如果这种轨迹继续下去,像双威这样的机器可能会成为发现量子计算机有朝一日将直接利用的物理定律的实验室。

如果此类工作不断扩大,下一个重大挑战将是足够快地移动和管理数据。神经网络量子模拟在运行时会产生大量信息,数百万个处理器内核必须不断共享这些信息。

当然,所有这些都意味着未来的系统将需要 [甚至] 更快的存储和更智能的网络,这些网络几乎可以像计算数据一样快地交付数据。

数学可能会得到解决,但保持数据流动将决定这种方法真正能走多远。