当前位置: 华文问答 > 科学

量子深度学习会给我们带来哪些变化?

2022-11-16科学

在AlphaGo击败人类围棋玩家之后,深度学习大热,特别是过去几年来,深度学习在众多计算机视觉任务、nlp、语音识别上势如破竹,全面超越传统方法。比如目标识别、机器翻译和围棋游戏等。

实际上,深度学习在凝聚态物理学中也掀起了一番热烈讨论和尝试。它可以做实验数据的处理,可以进行机器学习势场模型的模拟和求解,也有工作研究了用AI进行分子和晶体结构的分类和预测,进行电子密度的学习等。

而关于量子深度学习会带来哪些变化,这里先从深度学习的 基本思想 谈起。

深度学习又称为表征学习。即大数据驱动层次化的机器学习模型,以自动获取对象的向量化的表达,从而为我们所处的现实世界和问题进行建模。

深度神经网络成功的一个关键因素在于:它的网络足够深。大量非线性网络层的复杂组合,能对原始数据在各种抽象层上提取特征。因此 更直观地来看,深度学习的基本思想就是模拟人脑的信息处理机制,希望能够对自然信息,尤其是声音、语言、文字、图像进行很好的处理 。而这些是传统的计算机方法难以做到的。

但是目前深度学习对于人脑的知识处理机制和推理机制了解的还不够,同时也实现的不够。实际上,网络的基本结构不仅包含神经元突触和突触的连接机制,相关的学习激励和准则(主要是Hebb学习规则),同时也包含神经元的种类个数,神经网络的层数、连接的结构,前向反馈等等。所有这些基本结构和机制对神经网络的性能起着非常重要的作用。

总而言之,由于深度学习模型网络过深、参数多、复杂度高等特性,模型做出的决策及中间过程让人类难以理解。而神经网络主要是通过学习和优化来实现对数据的计算处理,从而产生了 对海量大数据样本的训练问题、稀疏编码与表征问题、泛化问题、可解释性问题和鲁棒性问题

那么,这些问题如何去解决呢?

首先是 对数据的感知 。也就是说我们如何通过稀疏编码和表征解决这样的问题。第二,如何 表证更复杂的数据 ,而不仅仅是简单的数据,比如小样本、复杂的多媒体跨域数据等等。第三,我们要 学习和优化 模型来解译这些数据,对其蕴含的规律进行了解,并通过神经网络获得满意的解。第四,深度学习处理的是一 个物理问题 ,与场景有关。第五,现有的网络结构是否能够模拟 大脑信息和知识处理的生物机制 。第六,大脑的 知识处理机制和先验 是人脑信息处理的重要的组成部分,如何嵌入现有的深度学习结构、学习与优化中。第七,如何 实现对问题场景的感知、表征、学习与结构优化的高效应用 ,而不仅仅是对目标的简单检测、分类和识别。

事实上,深度学习不仅仅是计算与训练问题,而更重要是类脑感知与认知 ,包含编码、表征、学习、优化、推理、决策、行动。

所以,人工智能的下一个目标是从模仿认知学习,转向解决一直存在的大规模科学计算问题。

这时,量子的威力就显现出来了。

量子力学是物理学中非常重要的领域之一。从1900年的普朗克公式到爱因斯坦两获诺贝尔奖的广义相对论和狭义相对论,到杨振宁的杨.米尔斯理论,以及量子纠缠或者叫量子信息,所有这些量子力学的发展的过程都有力地推动和改变了这个世界的发展。

经典力学主要是研究运动与时空相对性的规律,而量子力学却认为,世界的运行并不确定,我们最多只能预测各种结果出现的概率;一个物体可以同时处于两个相互矛盾的状态中。简单的说,量子力学认为你可以一边封在小区里,一边封在公司里(这正是量子力学最魔幻的地方)。

量子力学态叠加原理使得量子信息单元的状态可以处于多种可能性的叠加状态,从而导致量子信息处理从效率上相比于经典信息处理具有更大潜力。以计算机为例,普通计算机中的2位寄存器在某一个时间仅能存储4个二进制数(00、01、10、11)中的一个,而量子计算机中的2位量子位(qubit)寄存器可同时存储这四种状态的叠加状态。随着量子比特数目的增加,对于n个量子比特而言,量子信息可以处于2中可能状态的叠加,配合量子力学演化的并行性,处理速度要比传统计算机更快。

关于量子计算工作原理的一个更通俗的解释是:量子比特可以制备在两个逻辑态0和1的相干叠加态,即它可以同时存储0和1。考虑一个N个物理比特的存储器,若它是经典存储器,则它只能存储2^N个可能数据当中的任一个,若它是量子存储器,则它可以同时存储2^N个数,而且随着N的增加,其存储信息的能力将指数上升。例如,一个250量子比特的存储器(由250个原子构成)可能存储的数达2^250,比现有已知的宇宙中全部原子数目还要多。

在计算机中,由于数学操作可以同时对存储器中全部的数据进行,因此,量子计算机在实施一次的运算中可以同时对2^N个输入数进行数学运算。其效果相当于经典计算机要重复实施2^N操作,或者采用2^N个不同处理器实行并行操作。由此,量子计算机可以节省大量的运算资源。

可见,量子计算是解决传统计算瓶颈问题的重要途径之一。目前主要有两个方面的应用:一是模拟量子系统,在材料科学、量子化学、药物发现等领域人们需要用大量的计算资源来模拟量子系统,量子计算机用来做这样的计算最自然最直接;二是用于帮助现在互联网公司都需要做的计算,比如机器学习的提速,基于量子硬件的机器学习算法,加速优化算法和提高优化效果等。

和量子计算的原理类似,量子力学的基本的原理和思想,用于神经网络构造神经网络的计算,或者人工智能中间的学习计算和优化问题,就是一种自然的结合。受量子的非线性,叠加,纠缠,高度的并行性和二值原理,以及它的非线性处理问题的方式启发了各种神经网络模型,包括量子神经计算、Group 算法、量子小波变换、量子遗传算法、量子点的神经网络模型、量子克隆原理、量子计算机、量子进化算法,以及超导的量子计算处理器和现在最新的在量子通讯、量子安全、量子密码等领域的应用的典型的成果。

其中,量子智能计算更是量子通信、量子传感、量子计算、量子密码等领域的核心之一。在量子态的表现上,是相干、纠缠、叠加和不可克隆,而它在希尔伯特空间的表征为复矢量的空间,具有内积,范数,完备性和张量的表达。量子机器学习的科学思想就是期望利用叠加、纠缠、相干、并行等量子特性。通过将机器学习算法量子化,或者构造量子的学习算法,使我们能够对数据先验进行表征、推理、学习和联想。用这四种性质来实现新的计算、新的学习、新的优化和新的推理。

量子深度学习不仅包含有量子神经计算、量子点的神经网络,更包含有量子的细胞网络,量子的感知器、量子的自组织网络、量子的卷积网络和量子的波尔兹曼机。量子的深度网络模型不仅有基于测量的、基于感知的,基于量子点的,同样也有基于量子电路的、量子比特的和量子随机游走的模型。所以各种机理都可以用来构造相应的模型。

量子机器学习近年来得到了业界比较大的关注。CNCC大会上有学者曾分享过一个研究,即考虑如何基于量子计算技术提升生成对抗网络(GAN)的性能。例如提出一个量子生成对抗网络模型(QGAN),该模型是一种经典-量子混合架构,其中以参数量子电路作为生成器,以经典神经网络作为区分器。这里所提出的QGAN具有的潜在优势有两个:一是具有内在的生成离散数据的能力,而经典GAN由于梯度消失问题并不擅长生成离散数据;二是避免了目前大多数量子机器学习算法所面临的输入/输出瓶颈问题。

说白了,深度学习只有从源头出发,从基础出发,才能实现创新和应用。而对于 源头我们就不能不提及生物机理,物化机理和数学的建模表征,算法的实现,以及在硬件上的部署能力 。这里面就包括了量子深度学习的探索和发展。