这些天,人工智能的研究似乎越来越广泛(2016 年)。首先,“明显”的几个部门(没有顺序):
- 计算机科学(例如计算理论、算法):那里的人工智能研究人员假设智能是一种计算,具有各种形式(例如神经网络、逻辑系统)。
- 软件工程:假设我们找到了一个好的人工智能模型,你是怎么做到的?这是工程师想要弄清楚的。并且很难将数学模型映射到工程部件。
- 统计和概率(比数学更具体,它也接近计算机科学):这是关于数据科学的,特别是作为机器学习的基础,机器学习是人工智能中最活跃的分支——它“只是”涵盖了学习部分.
- 物理学:这现在与硬件特别相关(见下文)。
- 神经科学:了解大脑的工作原理,作为创造人造大脑的灵感,是连接主义者的家。最近,Google Deepmind 的 Hassabis 和他的团队在强化学习、记忆、注意力等方面取得了多项突破。
最近,电气工程以及物理学的相关分支受到了广泛关注。几个公共和私人实验室专注于“脑芯片”。仅举几例:IBM(已经在这方面工作了一段时间)、Nvidia 和 Facebook。大约在 2010 年,很明显,像深度学习这样的技术需要马力,因此越来越关注创造更强大、更小、更节能的芯片。最重要的是,还有量子计算的所有工作。
但问题是,似乎有更多领域正在参与人工智能研究。我们应该提到化学和生物学,它们既是制造新模型或硬件的灵感和工具(例如不使用硅的芯片,所以它们可以变得更小)。
至于 2016 年,上述领域最为活跃,并且有望在相当长的一段时间内保持非常活跃。根据您的兴趣、技能或直觉选择自己的!
最后,当我们回顾人工智能的起源时,我们可能会在几年后感到惊讶。我相信,如果我们设法建立一个 AGI,它无论如何都会利用所有这些领域。我想激动是成为故事的一部分。