在Glass-Box 治理:为 AI 行为实施透明道德界限一文中,作者似乎提出了一种黑盒测试方法。这些想法真的很新颖吗?这些想法不是已经在将价值转化为设计要求(Ibo Van de Poel)中提出了吗?黑盒测试早就被提出了。
《Glass-Box 治理:为 AI 行为实施透明的道德界限》一文中的想法是否新颖?
人工智能
机器学习
文件
2021-10-25 07:28:36
1个回答
Poel 关于将价值转化为设计要求的论文阐述了一个框架,用于将抽象价值和规范映射到工程师可以使用的具体设计约束中。论文中使用的示例是将有关动物福利的信念映射到设计对鸡政变的限制。
Tubella 等人的较新论文。关于Glass-Box 的治理建立在 Poel 的想法之上(事实上,多次引用 Poel)。它基本上建议我们应该使用 Poel 的设计过程,但是在类似 AI 系统的东西中,我们还需要使用“观察阶段”来验证系统,因为与工程鸡的问题不同,AI 系统可能会出现满足设计约束,但在生产中经常违反它们。
所以,你是对的,Tubella 等人。论文本质上是提议将 Poel 将值转化为设计约束的框架与黑盒测试的旧思想相结合,但这种结合本身似乎是一个新的贡献,即使是适度的贡献。