让我们以我们的标准回形针最大化器通用 AI 为例,尝试在一年的时间里精确地获得一百万个回形针,而不会在此过程中破坏宇宙。
大多数最大化指令使进程失控。尽可能廉价地破坏世界经济。尽可能好的剪辑将把宇宙变成超级合成器,组装原子完美的回形针。在这些最大化过程中添加截止日期可能会导致员工重新调整截止日期或发明时间旅行(在消耗太阳系来发明它之后)。最小化资源使用可能会导致全球所有行业的关闭。你知道,标准的恐怖场景。
在完成任务的同时最小化 AI 对世界的影响的指令呢?它是安全的,还是你能发现可能导致可怕后果的失控场景?