是否有任何与“经典”算法根本不同的新型量子机器学习算法?

人工智能 机器学习 量子计算
2021-11-01 16:41:33

一般来说,如果一个人用谷歌搜索“量子机器学习”或类似的东西,结果的一般要点是量子计算将大大加快我们“经典”机器学习算法的学习过程。然而,“加速”本身对我来说似乎不是很有吸引力,因为当前 AI/ML 的飞跃通常是由于新的架构或方法,而不是更快的训练。

开发中是否有任何与“经典”方法根本不同的量子机器学习方法?我的意思是这些方法(几乎*)不可能在“经典”计算机上执行。

*当然除了模拟量子计算机

1个回答

一般来说,如果一个人用谷歌搜索“量子机器学习”或类似的东西,结果的一般要点是量子计算将大大加快我们“经典”机器学习算法的学习过程。

这是对的。许多机器学习方法都涉及线性代数,并且在线性代数中做事所需的量子运算通常比所需的经典运算数量少得多。更具体地说,对于大小矩阵N×N,如果经典计算机需要f(N)进行一些线性代数运算的操作,例如可以采取的对角化f(N)=O(N3)在经典计算机上进行操作,量子计算机通常只需要log2f(N)运算,在计算复杂性理论的语言中(并且仅在)中,意味着指数加速“唯一”部分之所以存在,是因为我们在这里做了一个假设,即“更少的量子运算”意味着“加速”,目前我们只知道在“计算复杂性理论”的世界中这是正确的。

然而,“加速”本身对我来说似乎并不是很有吸引力,因为当前 AI/ML 的飞跃通常是由于新的架构或方法,而不是更快的训练。

我不同意。以普通深度学习为例(没有 GAN 或过去十年出现的任何其他东西)。Hinton 和 Bengio 几十年来一直致力于深度学习,那么在 1988-2010 年大致单调的曲线之后,为什么在 2011-2014 年对深度学习的兴趣突然开始增长如此之多?并不是说这种上升是在 GAN 和DenseNet等新进展出现之前开始的:

在此处输入图像描述



还要注意上图和这些图之间的相似之处:

在此处输入图像描述

如今,几乎每个从事深度学习的人都使用 GPU,如果他们可以访问 GPU,那么可能完成的工作一个团队拥有的计算能力密切相关。我不想削弱新方法和新算法的重要性,但 GPU 确实在机器学习的某些领域发挥了重要作用,例如深度学习。

开发中是否有任何与“经典”方法根本不同的量子机器学习方法?

我认为你的意思是:“大多数量子机器学习算法都只是基于经典机器学习算法,但是通过 QPU 而不是 GPU 加速了一些子程序——有没有不基于经典机器的量子算法?学习算法,完全不同”。

答案是肯定的,也许更多的专家可以在这里告诉你更多。

您可能会考虑查看的一件事是Quantum Boltzmann Machines

我要提到的另一件事是,一位名叫Ewin Tang的神童,他 14 岁开始上大学,在 17 岁左右发现了一些受量子算法启发而不是相反的经典算法,以及 Stack 上的评论交换问题Ewin Tang 之后的量子机器学习可能会让您对此有更多的了解。这与所谓的量子算法去量化有关。

我的意思是这些方法(几乎*)不可能在“经典”计算机上执行。*当然除了模拟量子计算机

不幸的是,量子计算机不能做经典计算机不可能做的任何事情,除了它们可能能够更快地做一些事情。经典计算是图灵完备的,这意味着任何可以计算的东西都可以在足够大的经典计算机上进行计算。