我正在阅读DT-LET: Deep transfer learning by explore where to transfer,它包含以下内容:
应该注意的是,在目标域的新场景上直接使用标记的源域数据会由于两个域之间的语义差距而导致性能不佳,即使它们表示相同的对象。
有人可以解释一下语义差距是什么吗?
我正在阅读DT-LET: Deep transfer learning by explore where to transfer,它包含以下内容:
应该注意的是,在目标域的新场景上直接使用标记的源域数据会由于两个域之间的语义差距而导致性能不佳,即使它们表示相同的对象。
有人可以解释一下语义差距是什么吗?
在迁移学习方面,语义差距意味着两个或多个领域之间相同语法背后的不同含义和目的。例如,假设我们有一个深度学习应用程序来检测和标记一系列动作/单词在视频/文本中作为社会 A 中的“问候”。但是,社会 A 中的这种知识不能转移到另一个社会 B,因为该社会中的相同行为序列意味着“批评”!尽管该示例非常抽象,但它显示了两个域之间的语义差距。您可以在两个领域中看到相同语法或动作序列背后的不同含义:社会 A 和 B。这种现象称为“语义鸿沟”。
维基有 Andreas Hein 的简明引用,其中的差距由“在不同表示系统中形成的构造之间的含义差异”定义。这意味着在非正式语言(通常是自然语言)和正式语言(编程语言或其他正式符号系统)之间翻译意义的核心问题。
非正式地,这个问题可以定义为“两种不同语境之间的意义差距”,我们可以通过一些简单的事情来观察这一点,比如在不同文化中具有不同意义的手势。在两个正式系统之间转换含义将不成问题。
在其核心,“语义鸿沟”似乎与在符号系统中形式化某些模糊概念的困难有关。