所以,我刚刚开始学习神经网络如何识别模式和对输入进行分类,我已经看到了人工神经网络如何解析图像数据和对图像进行分类(使用 convnetjs 演示),以及那里的关键是对图像进行下采样,每个像素刺激一个输入神经元进入网络。
但是,如果这可以通过字符串输入来完成,我正试图绕开我的脑袋?我的用例是用户观看过的电影的“推荐引擎”。电影有很多字符串数据(标题、情节、标签),我可以想象将文本“下采样”为描述该电影的几个关键词,但即使我解析出描述这部电影的前五个词,我认为我需要每个英语单词的输入神经元才能比较一组电影?我可以将输入神经元限制为集合中使用的单词,但是它可以通过添加新电影来增长/学习(用户观看新电影,使用新单词)吗?我见过的大多数库都不允许在系统训练后添加新的神经元?
是否有标准方法将字符串/单词/字符数据映射到神经网络的输入?或者神经网络真的不适合解析这样的字符串数据(在字符串数据中进行模式匹配的更好工具是什么)?