AWS 发布了一个有趣的功能,作为 SageMaker 服务的一部分,称为Object2Vec,它可以让您从几乎任何内容中进行搜索:文档、用户、产品、建议、时间序列数据、DNA 等。官方文档没有机器学习的详细解释,我想彻底理解,我可以直接在 Tensorflow 或 PyTorch 中实现 Object2Vec。
搜索“Object2Vec”只会让我回到相同的 AWS 文档,因为 AWS 似乎发明了这个术语。另一方面,当我搜索“Word2Vec”时,我会从不同的网站得到各种各样的解释。当我尝试了解有关此模型架构的更多信息时,我可以在搜索中使用 Object2Vec 的其他名称吗?
我也很高兴得到一个彻底解释 Object2Vec 的答案,这样我就可以完全跳过我的搜索,尽管我可能有太多问题无法在一篇文章中提出:
两个编码器和比较器是否在训练期间联合更新?比较器的错误是否通过编码器反向传播?
两个编码器的输出是否馈送到第三个共享嵌入层?如果我想实现自己的近似余弦相似度搜索,我将需要这种通用嵌入。
Object2Vec 与 Word2Vec 的关系有多密切?Doc2Vec?
我应该注意 Object2Vec 的哪些常见缺陷?