为什么深度风格图像的生成如此缓慢且资源匮乏?

人工智能 表现 神经涂鸦 做梦
2021-10-21 01:49:32

考虑这些产生一些艺术作品的神经风格算法:

为什么生成这样的图像这么慢,为什么要占用大量内存?没有任何优化算法的方法吗?

这背后的机制或技术限制是什么?为什么我们不能进行实时处理?

以下是一些用户评论(如何任何人都可以创建深度样式图像):

  • 任何高于 640x480 的东西,我们都在谈论沉重的嘎吱声和疯狂数量的 ram。

  • 我尝试制作一个 1024 像素的图像,但它仍然因 14gigs 内存和 26gigs 交换而崩溃。所以大部分虚拟机空间只是交换文件。另外,cpu 渲染它可能需要几个小时。

  • 我尝试了 1024x768 和 16gig ram 和 20+ gig swap 它仍然因内存不足而死亡。

  • 不过有内存问题。我正在使用“g2.8xlarge”实例类型。

2个回答

实时风格迁移和神经涂鸦非常有可能,并且是我看到用户正在努力改进的一个活跃话题。基本思想是仅在测试时进行前馈传播,并在训练时使用适当的损失函数进行训练。

实时风格迁移和超分辨率的感知损失是理解为此目的的方法的一个很好的起点。

这是一个劳动密集型的过程,但这听起来确实有些过分。如果您有 g2.8xlarge,请确保您使用 GPU 标志进行神经风格,这将减少渲染时间一个数量级。

话虽如此,它正在构建一个相当大的网络(取决于您的参数),并且 1024x768 图像需要大量输入。这需要时间,但在正确启用 GPU 标志的情况下不应超过几个小时。