在潜在狄利克雷分配 (LDA) 中,使用 document-by-topic 和 topic-word 推断矩阵重构原始词袋是否合理?
我知道我不会通过重构原始矩阵来获得频率,但是重构后的非零值是否有效?
在潜在狄利克雷分配 (LDA) 中,使用 document-by-topic 和 topic-word 推断矩阵重构原始词袋是否合理?
我知道我不会通过重构原始矩阵来获得频率,但是重构后的非零值是否有效?
可以从学习到的 LDA 参数生成语料库(和) 根据 LDA 的生成模型,但期望您重新创建原始文档(以词袋形式)是不现实的。更具体地说,您有可能(但极不可能)生成与输入语料库相对应的词袋文档。