我习惯于使用 GPU 硬件进行大规模矩阵运算并在连续空间上对数学运算进行矢量化,该连续空间已被离散化以进行数值计算,但这是一个完全不同的问题,我想知道它是否适合 GPU。
假设我有一个X长度N字符串和一个长度字符串Y,M这样N < M。例如,我可以使用 Python 语句if( X in Y )来查找 ifX是Y. 现在,假设我有一个字符串X和 1000 万个字符串{Y_i}。是否有可能(值得)将这类问题放在 GPU 上?我们可以在 GPU 上一次操作完成,而不是让这成为 1000 万次操作,对吗?
我问的原因是,实际上,我可能有 100 亿个字符串{X_i},并且需要将每个字符串与其中的每个字符串进行比较,{Y_i}并且想知道我是否可以做到,以便X在任何一个中找到{Y_i}一个 GPU 内核当这些集合变得非常大时。