人工智能如何能够自我检查?

人工智能 机器学习 深度学习 不确定性量化 概率机器学习
2021-11-07 06:48:11

当我看到一些基于机器学习的人工智能案例时,我经常看到他们在面对缺乏经验的情况时会犯严重错误。

在我们的例子中,当我们遇到全新的问题时,我们承认我们没有足够的技能来完成这项任务并将其交给有能力完成这项任务的人。

人工智能是否能够客观地自我检查并确定它是否有能力完成任务?

如果是这样,它将如何实现?

4个回答

几个人工智能系统将对找到的解决方案提出一定程度的信心。例如,神经网络可以指示输入问题与训练它的问题的相关性。类似地,遗传算法与评估函数一起使用,用于选择最佳结果,但根据它们的构建方式(函数),它们可以指示算法与最佳解决方案的接近程度。

在这种情况下,何时可接受或不可接受的限制将取决于预先设置的阈值。50% 的置信度就足够了吗?也许对于 OCR 应用程序来说没问题(剧透:不是),但它适用于医疗应用程序吗?

所以,是的,人工智能系统目前确实有能力确定它们是否表现良好,但目前的可接受程度取决于问题的领域,目前它超出了人工智能的内置范围。

人工智能是否能够客观地自我检查并确定它是否有能力完成任务?

我们自我检查的能力完全来自对我们经历的记忆。事实上,由于这个原因,它不可能是客观的。以同样的方式,当且仅当它对先前的任务(例如语音识别)有某种记忆时,人工智能才能确定解决问题的启发式最优策略。

科学一直在努力提高我们对事物的理解。目前,试图模仿人脑似乎是一个难题;尽管我们能够复制几乎完全简单的生物体,如秀丽隐杆线虫,一种蛔虫。

我同意洛夫克拉夫特给你的答案。人工智能程序员的主要问题之一是他们总是试图推动计算机去做那些为“成熟”的智能生物设计的事情,这些生物有解决问题的经验和知识。- 好像这些东西可以在人工智能不必首先获得必要和重要的“通过试错学习”经验的情况下进行估算。例如:允许任务检查时;自我评估和风险评估。

您已经回答了自己的问题,因为这些东西只能通过“经验”获得。然而,克服这个问题的唯一方法是将原型 AI 暴露给主要问题;帮助它解决它们,然后获取它的记忆并将其用作其他 AI 的模板。

从技术上讲,已经学会解决先前问题的人工智能可以按需将他们的记忆提供给其他人,这样没有经验的人工智能就可以在没有获得所需技能的情况下解决问题。

但是,我想补充一点,模仿智能本身并不是“智能”。许多程序员陷入了这样的陷阱:认为模仿某物在质量上与真品表达方式相同。这是一个谬误,它推断我们只需要模拟智能而不了解创造它的真实机制。

这种感知的“复制”一直在进行,尽管过去几年我们在复制方面做得非常好,但每一种新算法都只是:没有真正感知或智能的模拟!

人工智能是否能够客观地自我检查并确定它是否有能力完成任务?

一种可能的方法可能是 J.Pitrat(法国最早的 AI 研究员之一,他的 AI 博士学位发表于 1960 年代初,现在是一名退休科学家)建议和研究的方法。阅读他的引导人工智能博客和他的人造存在:有意识的机器书的良心。

(我无法用几句话来概括他的想法,即使我知道 J.Pitrat——甚至偶尔会见到他——;粗略地说,他拥有强大的元知识方法和反身编程技术. 他在 CAIA 系统上独自工作了 30 多年,这很难理解,因为即使他确实将他的系统作为自由软件程序发布,CAIA 对用户并不友好,公共线路记录不充分用户界面;虽然我对他的工作充满热情,但我无法探索他的系统。)

但是,定义“良心”或“自我意识”对于某些人工智能系统究竟意味着什么本身就是一个难题AFAIU,即使对于人类智能,我们也不完全知道它的真正含义以及它究竟是如何工作的。恕我直言,对于“良心”、“自我意识”、“自我检查”(即使适用于人类)的某些定义还没有达成共识。

但是无论使用什么方法,对你的问题给出任何建设性的答案都需要很多页。J.Pitrat 的书籍和博客是比任何人都可以在这里回答的更好的尝试。所以你的问题是恕我直言太宽泛了。