“像护理机器人这样的技术应该有助于确保医院患者、老年人和其他需要健康监测或身体帮助的人的安全和舒适,”该论文的通讯作者、科学副教授VeljkoDubljević说,北卡罗来纳州立大学的技术与社会项目。“实际上,这意味着这些技术将被置于需要做出道德判断的情况下。”
“例如,假设护理机器人处于两个人需要医疗救助的环境中。一名患者失去知觉但需要紧急护理,而第二名患者的需求不那么紧急但要求护理机器人先治疗他。护理机器人决定首先帮助哪个患者?护理机器人是否应该治疗失去知觉并因此无法同意接受治疗的患者?
Dubljević说:“以前将道德决策纳入AI程序的努力范围有限,并侧重于功利主义推理,而忽略了人类道德决策的复杂性。”“我们的工作解决了这个问题,虽然我以护理机器人为例,但它适用于广泛的人机协作技术。”
功利主义决策侧重于结果和后果。但是,当人类做出道德判断时,他们还会考虑另外两个因素。
第一个因素是给定动作的意图和执行动作的代理的性格。换句话说,谁在执行一个给定的动作,他们想要完成什么?是善意的还是恶毒的?第二个因素是行动本身。例如,人们倾向于将某些行为(例如说谎)视为天生不好的行为。
所有这些因素都相互作用。例如,我们可能同意说谎是不好的,但如果护士向提出令人讨厌的要求的病人撒谎,以便优先治疗第二名更急需的病人,大多数人会认为这在道德上是可以接受的。
为了解决道德决策的复杂性,研究人员开发了一个数学公式和一系列相关的决策树,可以整合到人工智能程序中。这些工具利用了称为代理、行为和后果(ADC)模型的东西,该模型由Dubljević及其同事开发,以反映人们如何在现实世界中做出复杂的道德决策。
Dubljević说:“我们的目标是将ADC模型转化为一种可以融入AI编程的格式。”“我们不只是说这个伦理框架对人工智能很有效,我们用计算机科学环境中可以访问的语言来展示它。
“随着人工智能和机器人技术的兴起,社会需要伦理学家和工程师之间的这种合作努力。我们的未来取决于它。” 返回学习心得体会列表