我刚开始学习 NLP 技术,比如 GPT、Bert、XLnet、word2vec、Glove 等。我尽量阅读论文和检查源代码。但我仍然不能很好地理解。
当我们使用 word2vec 或 Glove 将一个词转换成一个向量时,它是这样的:
[0.1,0.1,0.2...]
所以,一份文件应该是这样的:
[0.1,0.1,0.2...]
[0.1,0.05,0.1...]
[0.1,0.1,0.3...]
[0.1,0.15,0.1...]
.......
因此,一个文档是一个矩阵。如果我想使用随机森林等传统方法对文档进行分类,如何使用这些数据?有人告诉我,Bert 或其他 NLP 模型可以做到这一点。但我真的很好奇词嵌入是如何应用在传统方法中的?