根据 Russell 和 Norvig 的说法,基于知识的智能体只有在逻辑上遵循其先前知道的内容或直接观察到的内容时,才会将句子添加到其知识库中。从逻辑上遵循本质上意味着如果前提为真,则结论保证为真。因此,只有在 100% 确定句子是正确的情况下,代理才会添加句子。
这种逻辑上的过度怀疑是否合理?如果 99% 确定它是真的,如果它添加一个句子,代理会不会更有效率?它可能会添加更多真实的句子,并且偶尔会添加错误的句子。需要有一种机制来取消学习句子,但只要添加的绝大多数句子都是真的,为什么不能这样做呢?
我基本上在这里问了这个问题,有人建议我在这里发布。