You are now offline.

麻省理工推出一個道德測驗:如果你遇到煞車失靈,你是選擇救乘客還是救路人?

張庭瑜
張庭瑜 2016-10-03
麻省理工推出一個道德測驗:如果你遇到煞車失靈,你是選擇救乘客還是救路人?
分享
收藏
已完成
已取消

如果你能設定自動駕駛系統,當自動駕駛車煞車失靈時,會選擇撞上路人還是路障?又或者,你會選擇撞上小孩還是老人?麻省理工學院(MIT)Media Lab發布線上測驗「Moral Machine」,讓人選擇在不同情境下,煞車失靈的自動駕駛車應該撞上哪一側,希望當自動駕駛車面臨生死攸關的兩難抉擇時,能做出更具有人性的選擇。

MIT Moral Machine
你會選擇撞上一群小孩(左),還是撞上一群老人(右)? MIT Moral Machine

在測驗中,自動駕駛車可選擇直行或轉彎,不過不論選擇哪種都會造成死亡,可能是乘客、路人或動物。測驗中也將人細分為男女、小孩或老人、身材胖或瘦、動物或人類、罪犯或守法人士、社經地位高或低等,這些都會影響判斷,人數多寡也列入考慮。

MIT Moral Machine
你會選擇撞上闖紅燈的成人(左),還是撞上一名守法的兒童(右)? MIT Moral Machine
MIT Moral Machine
你會選擇撞上3名路人(左),還是選擇直行讓車內的動物死亡(右)? MIT Moral Machine

最後,測驗會將個人結果和其他人的平均結果比較,看你的道德觀是否和其他人相仿。結果顯示,比起男性,多數參與調查的人會傾向救女性;比起動物,更傾向救人類;比起老人,更傾向救年輕人;比起竊盜,更傾向救社經地位更高的人;不過當面臨該救乘客還是行人的問題時,結果顯示各半。

MIT Moral Machine
測驗結束可和其他人的測驗結果相比。 MIT Moral Machine

MIT在結果頁面下方提醒,這份測驗只是參考用,「我們的目標不是去評斷任何人,而是希望幫助反映出大眾對重要且困難的議題態度為何。」

多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。
MIT教授Iyad Rahwan

過去,Gizmodo曾報導,儘管多數人希望自動駕駛車應該預設為「盡可能減低傷亡人數」,不過,當詢問自己是否願意搭乘這種自動駕駛車時,多數人卻不願意。進行這份調查的MIT教授Iyad Rahwan表示:「多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。」

或許這項測驗現在看來像是個小遊戲,但在自動駕駛車普及的將來,自動駕駛系統的程式碼就是判斷行人或乘客的生命孰輕孰重的依據。道德議題對人類來說始終是難解的問題,尤其當生死攸關時更是如此,而這卻是自動駕駛系統開發者需要正視的問題。

本文授權載自:數位時代,資料來源:QuartzSlateMoral Machine

本文作者 張庭瑜 張庭瑜

《數位時代》採訪編輯

使用會員功能前,請先登入

  • 收藏文章
了解更多關於創業小聚的資訊,歡迎透過以下服務: