近日,一篇论文手机版了一项全球道德偏好调查,调查内容涉及无人驾驶汽车在无法避免的事故中应决定拯救哪一方。研究结果结合了全球参与者贡献的4000万个决策,或为制定可被社会普遍接受的人工智能(AI)道德标准提供了借鉴信息。
无人驾驶汽车不仅要能导航路线,还要在不可避免的事故中自行应对道德困境。因此,需要制定一套道德准则指导AI系统处理这类场景。如果无人驾驶汽车必将投入大量使用,就必须先确定社会普遍接受的道德准则。
美国马萨诸塞州麻省理工学院的Iyad Rahwan及同事搭建了一个名为“道德机器”的大型在线调查平台,用来统计全球民众的道德偏好。实验将参与者置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择不变道,或急转到另一条道上。参与者必须选择救谁并决定汽车的前进路线。这项实验共记录了约4000万个此类决定。
研究人员识别出了许多共同的道德偏好,诸如救多数不救少数、救年纪小的不救年纪大的、救人不救动物。作者还发现了不同文化之间的道德偏好差异。例如,中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。相关论文在线发表于《自然》。
研究人员最后指出,放手让汽车进行道德抉择之前需要进行全球性的对话,将人们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。(来源:明升中国app报 唐一尘)
相关论文信息: