神经网络的量子优势
2019年11月13日 由 TGS 发表
413124
0
前段时间,苏黎世瑞士联邦理工学院(ETH)物理学家Renato Renner的团队开发了一种新型的神经网络。他们进行了一项实验,用算法检测太阳和火星相对于地球的运动,最终,得出了太阳中心论。
也就是说,让机器自学哥白尼时代的基础物理知识和相关轨道运行信息,它能够自行得出“太阳中心说”的结论,甚至还自行推出了哥白尼提出的火星运动轨迹公式,堪称人工智能领域的“哥白尼”。
神经网络进化史
神经网络又称连接模型,是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。
1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。
50年代末,“感知机”问世 ,多层神经网络诞生。
60年代初期开始,非线性多层自适应网络发展。
80年代初期,数字计算机在若干领域的应用发展遇到困难,这昭示着向人工神经网络寻求出路的时机已经成熟。故而,一大批学者和研究人员投身于神经网络的研究,直至如今。
“哥白尼”团队的研究人员,利用迟钝型”神经网络,解决了传统神经网络的自我训练问题。他们的下一步计划是,通过得出大数据的普遍规律和模式,用于新的物理定律的发现,并重新制定量子力学。
神经网络的量子优势
重新制定量子力学,听起来似乎异想天开,但实际上,这对于实现量子系统模拟来说,并非完全没有可能。早在今年七月,就有研究人员利用基于神经网络的新算法,成功模拟了量子系统的“稳态”。
利用神经网络估计并模拟波函数和密度矩阵,能够大大降低计算复杂度和算力需求,为解决量子科学和信息领域的突出问题打下基础。
即使是在日常生活中,大自然也受到量子物理定律的支配。这些定律解释了生活中的常见现象,如光、声、热,甚至是台球桌上球的运动轨迹也不例外。这些日常都是符合大众视觉和想象的,人们大都已经习以为常。但是当涉及到大量相互作用的粒子时,量子物理定律所解释的现象,大部分都和我们的直觉相违背。
为了研究由大量粒子组成的量子系统,物理学家必须首先能够模拟这类系统。解释量子系统内部运行机制的方程可以由超级计算机解出,但是,虽然摩尔定律预测,计算机的处理能力每两年翻一番,可这仍与解决量子物理面临的挑战所需的计算能力相去甚远。
开放量子系统性质的模拟,是解决量子科学和信息领域的几个突出问题的前提。这个问题的难度在于系统的密度矩阵会随着系统规模的增大呈指数级增长。在开放量子系统中,研究人员的目标是找到“稳态”,即——不随时间变化的量子态。
当系统包含多个量子粒子时,计算上可能会出现困难。要描述整个自旋系统,必须确定2^N种可能的状态。仅仅存储20次旋转的这些信息需要大约8千兆字节的RAM,并且每增加一次旋转,所需算力就会翻倍。在开放系统中处理相同数量的旋转甚至更难,因为旋转必须用“密度矩阵”ρ来描述。这个矩阵规模极大,元素数量为2^N×2^N个,需要极为惊人的算力作为支撑。
神经网络的优势在于,它可以用很少的信息来近似模拟波函数或密度矩阵。它就像一个数学“盒子”,将一串数字(矢量或张量)作为输入,并输出另一个字符串。对于模拟N量子系统的特定任务,神经网络函数可以作为波函数的“猜测”,将N个对象的状态作为输入
然后,研究人员让网络从实际或模拟数据进行“学习”,或将波函数决定的物理量进行最小化,来优化函数参数。一旦获得了正确的猜测,就可用于计算其他物理属性,其参数数量远远少于2^N 。