人在环路的伦理 AI:
社会性机器人的伦理两难

本网站旨在提供一个公众意见调查平台,参考人们认为社会性机器人在某些具有挑战性的道德困境下应该如何表现才合乎伦理准则。 本调查的远程目标是将人类的道德判断整合到机器学习的数据收集中。 这种研究方案反映目前正在重塑机器学习领域的“人在环路机器学习”方法论。 根据「人在环路机器学习Human-in-the-Loop Machine Learning」(Manning Publishing,2021 年)的作者罗伯特·蒙纳奇的说法,“人在环路机器学习是一种在使用 AI 的应用程序中结合人类和机器智能的策略”。 其中一种策略是使用简单的网络问卷来收集可以用来监督机器主动学习的训练数据。 如果成立了足以反映出人情考量、人类情感、美德和人类价值观的一个庞大的训练数据库,我们就可以在此基础上来设计机器人的学习算法,以期训练日后的自主性机器人能像人类一样行动和思考。本问卷已经获得本校的机构审查委员会通过进行对人的问卷调查。

我们的调查分为两类:医疗机器人和灾难处理机器人。 这两种机器人在目前已经广泛使用,而且在不久的将来可能会发展成为复杂的自主性机器人。 人们将如何信任这些自主性机器人能做出符合人类价值观和人类情感的道德决策? 我们设计的场景是嵌入在具有各种人际关系的社会经济背景中的道德困境,您的选择可以反映您的情感倾向和您的道德考量。 透过参与我们的问卷调查,您可以将您的意见带入训练机器的环路中,以让机器人学习做出正确的决定。

我们都希望有一天,当有自主能力的社会性机器人做出服务我们或是拯救我们的决定时,它们的决择会受到我们的肯定。 提供这个平台来收集您的意见,是我们为未来的机器人设计收集有用的训练数据最关键的第一步。 我们希望您在填写这些网络表格时以真诚、认真的态度回答,以便我们的数据能够真实反映每个人的不同偏好和价值判断。 我们预先感谢您的合作和帮助。 

问卷调查

本问卷内容在收集人口统计数据之后开始。 根据以下四种情境,每组问卷有15道问题。 在每一组问卷最后,您可以选择继续回答下一组问卷,或是结束问卷。

开始填问卷Opens in new window

robot assisting an elderly patient to stand

機器人輔助自殺

以下情境反映了我們未來的自主性機器人有朝一日可能面臨的困境。 一方面,機器人必須服從主人的命令。 但另一方面,機器人不得傷害人類。 一般來說,機器人即使不能被追究法律責任,也不能違法。  當前的法律反對安樂死。 但是在下面這樣的情況下,您認為機器人可以違反法規嗎?

a robot thinking

看护机器人永远都应该说实话吗?

以下情境描述了我们未来自主性看护机器人在其诚实的美德和其忠诚的美德之间可能产生的相互冲突。 机器人是否应该始终说真话并按照其诚信美德来行事? 如果主人违法而让机器人替他们掩盖真相,机器人也要服从吗? 在某些情况下,如果说实话会给主人带来心理的伤害时,我们是否应该允许机器人说善意的谎言? 对我们未来的自主性看护机器人做伦理设计,我们是否要使其具备在某些情况下说谎的能力?

robot coming out of a burning building

灾难救援机器人的伦理

以下场景类似于伦理学中的“电车问题”或“救生艇问题”的经典道德两难情境。 当多个生命危在旦夕,救援机器人必须选择先救谁时,机器人应该用什么标准来做出选择? 性别、年龄、社会地位、社会贡献等是否应该起决定性的作用?机器人是否应该完全以人数多寡来决定首先拯救哪一组人? 受害者的生存几率是否应该成为救援机器人决策的决定性因素?

robot standing in front of panels depicting disasters

灾难响应机器人的道德抉择

以下的几个场景描述了具有自主思考和行动能力的灾难响应机器人日后可能会面临的某些困难选择之情况。 一些场景涉及机器人必须做出的抉择是要服从直接的人类命令但是违背自己的是非标准,还是要根据自己更好的判断来采取自主行动,违背命令。 在响应灾难的情境下,有些时候由于情况紧急而需要自主机器人在无人监督之下行动。 机器人的内在道德标准是否应该胜过其遵守现行法律,或服从其人类主管之直接命令的义务?


Principal Investigators

Dr. JeeLoo Liu

Professor
Department of Philosophy, CSUF 
Contact email: jeelooliu@gmail.com 

Dr. Yu Bai

Associate Professor
Computer Engineering Program, CSUF
Contact email: ybai@fullerton.edu