我刚刚使用 gensim 库构建了一个简单的 doc2vec 模型,几乎遵循了位于此处的教程。
提供的用于检查模型质量的方法非常手动,需要阅读类似的文档,有没有办法从模型中计算一些其他指标来尝试提高其性能?
我刚刚使用 gensim 库构建了一个简单的 doc2vec 模型,几乎遵循了位于此处的教程。
提供的用于检查模型质量的方法非常手动,需要阅读类似的文档,有没有办法从模型中计算一些其他指标来尝试提高其性能?
评估基于任务,而不是用于任务的模型类型。在您链接的教程中,任务将是简单的文档相似性。Afaik 一个更常见的变体是信息检索设置,其目标是根据文档与查询文档的相似性对文档进行排名。
该教程提到他们使用了一个测试集,该测试集提供了一篇论文的链接。本文解释了人工注释者对文档对之间的相似度进行评级。这将是获取注释数据的标准方式,但当然需要大量的人力。虽然教程中使用的测试集似乎没有提供基本事实信息,但我认为这就是为什么作者只建议对结果进行手动检查的原因。
一般来说,可能有许多基准数据集(带有基本事实注释)可公开用于类似的任务,但它们并不总是很容易找到,而且我对这些也不是很了解。我认为SemEval 系列竞赛是一个很好的起点,每年他们都会发布与此类任务相关的各种数据集。