Weizenbaum 告诉我们,他对将 ELIZA(也称为“博士”)发布给 MIT AI 实验室的非技术人员的经历感到震惊。秘书和非技术行政人员认为这台机器是一个“真正的”治疗师,并花了几个小时向程序透露他们的个人问题。当 Weizenbaum 告诉他的秘书他当然可以访问所有对话的日志时,她对这种侵犯她隐私的行为感到愤怒。Weizenbaum 对这一事件和类似事件感到震惊,他发现这样一个简单的程序可以如此轻易地欺骗一个天真的用户泄露个人信息。
维基百科关于“ELIZA 效应”的文章:
尽管严格设计为支持与计算机进行“自然语言对话”的机制,但 ELIZA 的 DOCTOR 脚本在引起用户的情感反应方面令人惊讶地成功,这些用户在与程序交互的过程中开始将理解和动机归因于程序的输出。正如魏岑鲍姆后来所写的那样,“我没有意识到……极短的时间接触一个相对简单的计算机程序可能会在相当正常的人中引发强大的妄想思维。” 事实上,ELIZA 的代码一开始就不是为了引起这种反应而设计的。经过观察,研究人员发现用户无意识地假设 ELIZA 的问题暗示了对所讨论主题的兴趣和情感投入,即使他们有意识地知道 ELIZA 不会模拟情感。
ELIZA 尽管简单,但在欺骗他人的任务上却取得了令人难以置信的成功。即使那些知道 ELIZA 是机器人的人仍然会和它交谈。显然,ELIZA 为其他各种更智能的聊天机器人提供了灵感,例如小冰。但我想知道究竟是什么导致了像 ELIZA 这样简单的程序如此成功。
这对程序员来说是非常有用的知识,因为一个简单的程序是一个易于维护的程序。