一般来说,我们可以说我们知道确定性和概率模型。判别式是确定性的,而生成式是概率性的。
但我一直在阅读关于判别模型和生成模型之间的差异,其中差异表示为:
对于 D. 模型
和对于 G. 模型
我的问题是:我们为什么要表示对于判别模型,因为这些模型是完全确定的,建立在没有随机过程的复合函数之上?这不是很混乱吗?
一般来说,我们可以说我们知道确定性和概率模型。判别式是确定性的,而生成式是概率性的。
但我一直在阅读关于判别模型和生成模型之间的差异,其中差异表示为:
对于 D. 模型
和对于 G. 模型
我的问题是:我们为什么要表示对于判别模型,因为这些模型是完全确定的,建立在没有随机过程的复合函数之上?这不是很混乱吗?
判别模型输出一些张量描述给定输入张量的标签描述一些输入数据。映射方法到可能是确定性的或不是确定性的 - 没有必要这样做(考虑采用确定性模型并向其添加少量随机噪声的示例,因此它可能是不太准确,更随机)。模型的准确度是验证/测试数据的平均准确度。该模型估计标签的概率给定输入数据是.
生成模型生成一个张量,该张量是从与某些训练数据的分布相似(作为学习的结果)的学习分布中提取的。对于序列生成,生成张量的概率 (,比如说)在时间 t 取决于张量在时间步生成的概率是正确的(,比如说)和新张量的概率()如果前一个被认为是给定的(概率给定, 或者)。最近生成的张量的概率是.
我真的不喜欢你正在阅读的文本中的符号,我同意你的观点,它令人困惑。但是,在回答您的问题“为什么我们表示对于判别模型”:模型输出始终是估计值,并且应该理想地反映输入数据不能完美预测类别的事实。也就是说,即使是确定性模型也应该用概率语言传达它们的估计值;例如,即使是确定性模型可能会给出一个可以解释为“当时,具有这些特征的输入数据意味着类是 C"