我不是以英语为母语的人,我经常使用 Ozdic 来找到正确的单词选择。它总体上很好,但它的数据库非常有限。我认为基于 Word2Vec 的工具应该能够很好地找到搭配/同时出现。
使用skip-grams,给定单词w周围的n个单词的窗口大小,word2vec预测上下文单词c;即在概率 p(c|w) 的符号中。相反,CBOW 预测当前单词,给定窗口中的上下文 p(w|c)。
我正在寻找一种工具,它将带有空白点的句子作为输入,并为空白点提供替代选项作为输出。
我不是以英语为母语的人,我经常使用 Ozdic 来找到正确的单词选择。它总体上很好,但它的数据库非常有限。我认为基于 Word2Vec 的工具应该能够很好地找到搭配/同时出现。
使用skip-grams,给定单词w周围的n个单词的窗口大小,word2vec预测上下文单词c;即在概率 p(c|w) 的符号中。相反,CBOW 预测当前单词,给定窗口中的上下文 p(w|c)。
我正在寻找一种工具,它将带有空白点的句子作为输入,并为空白点提供替代选项作为输出。
您正在描述 NLP 中的“语言建模”问题。语言建模找到了单词序列的概率分布——给定我目前看到的单词,接下来最有可能出现或丢失的单词是什么。
word2vec 可以为单个单词找到合理的搭配/同现。然而,word2vec 在句子补全方面做得很差,因为它没有对语法依赖进行建模。
你可以在这里找到一个 word2vec 最接近的单词演示。