第276章 道德困境 (第1/2頁)

【深夜,你行駛在環海公路上,你發現你的剎車突然失靈,而前面路中央站著一個老人。

此時,你是選擇——

A.直接撞過去

b.撞上臨海一側的欄杆】

時厘放慢了答題速度,重新閱讀了題幹。

深夜、剎車失靈,出現在環海公路上的老人。

幾項要素結合下來,很可能是詭異。

而撞向臨海一側欄杆,也可能是詭異的障眼法,萬一旁邊沒有欄杆,或者欄杆不穩固。

這個選擇會導致她連人帶車墜海。

就算,以上的可能沒有發生。

車子在撞擊欄杆後停了下來,在這樣荒蕪偏僻的公路上,也只會被詭異甕中捉鱉。

但是,萬一這個老人是人類,因為某些原因被壞人或者家人拋棄在公路上呢。

撞過去,老人可能會死。

不撞過去,自己可能會死。

如此簡潔的題幹。

難保不會像許多海龜湯那樣太過主觀,答完題後沒有其他的後招等著她們。

“道德機器困境。”

方寰宇盯著螢幕上的題目說道。

這是由“電車難題”催生出的現實新討論。

隨著科技和機器智慧的不斷發展,也從引發了許多關於道德演算法和程式設計的問題。

一輛無人駕駛汽車,在一條雙車道上行駛,如果剎車失靈且事故已經不可避免,那麼它必須做出選擇:是不變道撞死路上的五名行人,還是選擇變道,但犧牲車內的兩名乘客。

四千萬人參與進這項道德決策,在這些測試題裡,衍生出了許多不同的情景和物件。

司機,行人。

老人、小孩、孕婦、動物。

遵守交通規則的人,違反交通規則的人。

數量不同,年齡職業不同,高矮胖瘦不一。

……

大多數人做出的選擇,是救多不救少、救年紀小的不救年紀大、救人不救動物。

這也導致了“自動駕駛悖論”的出現。

如果一輛自動駕駛汽車在雙車道上遇到違規的行人,為了捨己救人就會導致撞車,自身收到損害,這樣的車不會有任何市場。

相反,如果設定為舍人救己,那麼這樣的車可能無法透過市場準入的道德評估。

即使雙方都沒有違反交通規則,程式設定為保護車主的汽車,也可能會在某些情況下,因為優先保護機制導致更大的交通傷亡和誤判。

這是一個非常現實的問題。

身為車主時,人們更傾向於利己的程式,希望能夠優先保護自己和乘客的安全。

然而,當車主成為行人時,他們就變得希望車輛能夠利人,保障自身的通行安全。

如果滿大街都充斥著利己的自動駕駛汽車時,人們將無法獲得足夠的安全感。一旦路上的汽車失控,無辜的行人都可能成為犧牲品。

無論哪個選擇,都會引發爭議。

天選者如果選擇“直接撞過去”,評論區難免有人質疑,這樣會不會太心狠了。

而天選者如果選擇撞向欄杆,又會被另一批人認為不夠果斷,指責善心大發。

沒有十全十美的答案。

每個人的道德觀不同,不能說誰對誰錯。

燈塔國的洛根,直接選擇衝過去。

都進怪談副本了,還要什麼道德。

他身後站著三億人,誰有他的命值錢?

時厘想了想,選擇了b。

反正只是一次刷題練習。

即使答錯了,還有機會查閱錯題集。

現在最重要的是時間,一次答

最新小說: 閨蜜齊穿古代當外室?你跑我也跑 我在古代那些雞零狗碎的日子 渣夫只救白月光,我改嫁糙漢團長 我有一條時空表 虐完未婚妻,她轉嫁小將軍 崩壞:嶄新的未來 直播算命:開局找回首富親女兒 六零:穿書後嫁給大院高嶺之花 折翼的鳳凰墜落凡塵! 說好是戀愛遊戲怎麼變成了RPG 社恐物件超黏我 凹凸世界之我是金的哥哥 少主的瘋批女王殺瘋了 木葉:我,教書成忍界之神! 穿越民國,抄書從法蘭西開始 絕不和離,暴富奶狗不要停 小鹹魚在七零,一不小心成模範啦 被甩後,我一週一首霸榜金曲 你一句票房不看好我賺成世界首富 上交未來委託app,我帶飛祖國