人在環路的倫理 AI:
社會性機器人的倫理兩難

本網站旨在提供一個公眾意見調查平臺,參考人們認為社會性機器人在某些具有挑戰性的道德困境下應該如何表現才合乎倫理準則。 本調查的遠程目標是將人類的道德判斷整合到機器學習的數據收集中。 這種研究方案反映目前正在重塑機器學習領域的「人在環路機器學習」方法論。 根據「人在環路機器學習Human-in-the-Loop Machine Learning」(Manning Publishing,2021 年)的作者羅伯特·蒙納奇的說法,"人在環路機器學習是一種在使用 AI 的應用程式中結合人類和機器智慧的策略”。 其中一種策略是使用簡單的網路問卷來收集可以用來監督機器主動學習的訓練數據。 如果成立了足以反映出人情考量、人類情感、美德和人類價值觀的一個龐大的訓練數據庫,我們就可以在此基礎上來設計機器人的學習演算法,以期訓練日後的自主性機器人能像人類一樣行動和思考。本問卷已經獲得本校的機構審查委員會通過進行對人的問卷調查。

我們的調查分為兩類:醫療機器人和災難處理機器人。這兩種機器人在目前已經廣泛使用,而且在不久的將來可能會發展成為複雜的自主性機器人。 人們將如何信任這些自主性機器人能做出符合人類價值觀和人類情感的道德決策? 我們設計的情境是嵌入在具有各種人際關係的社會經濟背景中的道德困境,您的選擇可以反映您的情感傾向和您的道德考量。 透過參與我們的問卷調查,您可以將您的意見帶入訓練機器的環路中,以讓機器人學習做出正確的決定。 

我們都希望有一天,當有自主能力的社會性機器人做出服務我們或是拯救我們的決定時,它們的決擇會受到我們的肯定。 提供這個平臺來收集您的意見,是我們為未來的機器人設計收集有用的訓練數據最關鍵的第一步。 我們希望您在填寫這些網路表格時以真誠、認真的態度回答,以便我們的數據能夠真實反映每個人的不同偏好和價值判斷。 我們預先感謝您的合作和幫助。 

問卷調查

本問卷內容在收集人口統計數據之後開始。根據以下四種情境,每組問卷有15道問題。在每一組問卷最後,您可以選擇繼續回答下一組問卷,或是結束問卷。

開始填問卷Opens in new window

robot assisting an elderly patient to stand

機器人輔助自殺

以下情境反映了我們未來的自主性機器人有朝一日可能面臨的困境。 一方面,機器人必須服從主人的命令。 但另一方面,機器人不得傷害人類。 一般來說,機器人即使不能被追究法律責任,也不能違法。  當前的法律反對安樂死。 但是在下面這樣的情況下,您認為機器人可以違反法規嗎?

a robot thinking

看護機器人永遠都應該說實話嗎? 

以下情境描述了我們未來自主性看護機器人在其誠實的美德和其忠誠的美德之間可能產生的相互衝突。 機器人是否應該始終說真話並按照其誠信美德來行事?如果主人違法而讓機器人替他們掩蓋真相,機器人也要服從嗎? 在某些情況下,如果說實話會給主人帶來心理的傷害時,我們是否應該允許機器人說善意的謊言? 對我們未來的自主性看護機器人做倫理設計,我們是否要使其具備在某些情況下說謊的能力?

robot coming out of a burning building

救援機器人如何選擇先救誰

以下情境類似於倫理學中的「電車問題」或「救生艇問題」的經典道德兩難情況。 當多個生命危在旦夕,救援機器人必須選擇先救誰時,機器人應該用什麼標準來做出選擇? 性別、年齡、社會地位、社會貢獻等是否應該起決定性的作用?機器人是否應該完全以人數多寡來決定要先拯救哪一組人? 受害者的生存機率是否應該成為救援機器人決策的決定性因素? 

robot standing in front of panels depicting disasters

災難回應機器人的道德抉擇

以下的幾個情境描述了具有自主思考和行動能力的災難回應機器人日後可能會面臨的某些困難選擇之情況。 一些情境涉及機器人必須做出的抉擇是要服從直接的人類命令但是違背自己的是非標準,還是要根據自己更好的判斷來採取自主行動,違背命令。 在回應災難的情境下,有些時候由於情況緊急而需要自主機器人在無人監督之下行動。機器人的內在道德標準是否應該勝過其遵守現行法律,或服從其人類主管之直接命令的義務? 


Principal Investigators

Dr. JeeLoo Liu

Professor
Department of Philosophy, CSUF 
Contact email: jeelooliu@gmail.com 

Dr. Yu Bai

Associate Professor
Computer Engineering Program, CSUF
Contact email: ybai@fullerton.edu