“電車難題”是倫理學(xué)領(lǐng)域中一個著名的思想實(shí)驗(yàn)。在“電車難題”的場景中,五個無辜的人被綁在鐵軌上,你正駕駛著一輛電車呼嘯而來。如果你不拐彎,那么這五個人死定了,如果你拉下列車控制桿,使列車朝另一個方向駛?cè)?,問題又來了,在另一個方向的軌道上有一個同樣無辜的人。自從1967年英國哲學(xué)家菲利帕·福特首次提出“電車難題”以來,哲學(xué)家們一直沒有討論出統(tǒng)一的答案。主流的觀點(diǎn)漸漸變成兩種,一種是道義論,另一種是結(jié)果論。按照道義論,所有生命皆平等,所以你不該轉(zhuǎn)彎,但按照結(jié)果論,你應(yīng)該轉(zhuǎn)彎,畢竟只犧牲一個人才能獲得最優(yōu)的結(jié)果。這兩種觀點(diǎn)在某種程度上都是符合道德的,但行為卻截然相反(詳見《大科技·百科新說》2016年第2期《電車難題:轉(zhuǎn)彎?不轉(zhuǎn)彎?》一文)。 “電車難題”使哲學(xué)家們陷入了兩難的境地,他們越是冥思苦想,就越來越陷入泥淖。然而現(xiàn)在,不僅哲學(xué)家要面對這個令人討厭的難題,汽車產(chǎn)業(yè)的政策制定者和汽車生產(chǎn)商也開始受到它的折磨了。由于無人駕駛汽車已經(jīng)上路,政策制定者和汽車生產(chǎn)商不得不考慮一下“電車難題”在現(xiàn)實(shí)中出現(xiàn)的可能性。 受到?jīng)_擊的設(shè)計理念 從表面上來看,無人駕駛汽車似乎并不會帶來新的不同。一輛汽車,不論它受汽車軟件控制,還是由人類親自駕駛,都要面臨撞誰不撞誰的選擇。然而實(shí)際上,只有在無人駕駛汽車中,“電車難題”作為一種思想實(shí)驗(yàn)才更具有現(xiàn)實(shí)意義。在現(xiàn)實(shí)中,人類司機(jī)在遭遇緊急情況時,比如,面前突然沖出來一個人或者一輛車的時候,在一瞬間通常是喪失理智的,全靠下意識的操作。他或者急踩剎車,或者急轉(zhuǎn)彎,完全沒有時間做“電車難題”中的倫理學(xué)思考。而且,正是由于下意識的操作,最終的結(jié)果是司機(jī)無法把握的——有可能是虛驚一場,沒人員傷亡;也有可能比不操作更嚴(yán)重,比如急轉(zhuǎn)彎翻車或者導(dǎo)致連環(huán)追尾使更多人傷亡。 因此,在現(xiàn)實(shí)的交通事故中,我們很少會從倫理學(xué)上對司機(jī)做道德譴責(zé)(個別情況除外),畢竟,人都會出現(xiàn)失誤。但是,無人駕駛汽車就不同了。它所有的反應(yīng)都是汽車程序事先設(shè)定好了的。它不需要在那一瞬間做決定,汽車生產(chǎn)商早已用計算機(jī)代碼告訴它,在這種情況下該怎么做。所以,此時才真正出現(xiàn)了倫理問題,而且這種倫理問題將會沖擊無人駕駛汽車的設(shè)計理念。 無人駕駛汽車為什么會出現(xiàn)?作為無人駕駛汽車技術(shù)的領(lǐng)軍巨頭,谷歌公司給出了權(quán)威的答案——無人駕駛汽車可以減少由于人類疏忽而造成的交通事故,進(jìn)而降低事故中喪生或受傷的人數(shù)。也就是說,無人駕駛汽車是出于安全的角度被設(shè)計出來的。那么在出現(xiàn)“電車難題”時,無人駕駛汽車的首要任務(wù)是為了保護(hù)車主的安全,還是為了保護(hù)車外人的安全? 舉一個例子,你乘坐無人駕駛汽車行駛在山路上,發(fā)現(xiàn)面前有幾個小孩堵在路中間,向左拐彎的話,你會有沖下懸崖的可能性,向右拐彎則是逆行道,違反了交通規(guī)則,有可能與前方駛來的汽車迎頭相撞。這時,如果無人駕駛汽車的設(shè)計理念是優(yōu)先保證車內(nèi)人的安全,那么汽車完全不會做任何操作,徑直軋過去就行了,但后果會造成這幾個小孩的身亡。另一方面,如果無人駕駛汽車的設(shè)計理念是保護(hù)車外人的安全,那么很明顯,這樣的車賣不出去——無論車主還是汽車生產(chǎn)商,都不希望自己成為車禍的受害者。 這里,又涉及到另一個問題:如果無人駕駛汽車遵守規(guī)則就必須造成傷害,是否應(yīng)該允許無人駕駛汽車破壞交通規(guī)則呢(比如轉(zhuǎn)入逆行道)?如果可以的話,這是與“遵守交通規(guī)則,降低事故風(fēng)險”的常識相矛盾的。當(dāng)然,也有人指出,也許可以在設(shè)計無人駕駛汽車軟件的時候不設(shè)定什么“指導(dǎo)原則”,就讓汽車模擬人類司機(jī)的下意識操作,讓它在隨機(jī)狀態(tài)下運(yùn)行。但這種“碰運(yùn)氣”的做法同樣不符合人類發(fā)明無人駕駛汽車的初衷。 決策權(quán)和責(zé)任 對于前一個問題,也許通過技術(shù)的進(jìn)步,汽車生產(chǎn)商們能夠編寫出無比復(fù)雜的程序,盡量讓無人駕駛汽車在面對電車難題時做出合乎邏輯的選擇。但是,想象一下,在未來的某一天里,乘坐在無人駕駛汽車中的你,生命處在出現(xiàn)“電車難題”的危急時刻,自己卻無法做出決策,你會甘心么? “電車難題”中的決策權(quán)至關(guān)重要,那么它應(yīng)該屬于誰?是汽車制造商、法律制定者,還是車主本人?誰來做決策,誰就有可能被推到道德的風(fēng)口、倫理的浪尖上,而且,無人駕駛汽車在面臨“電車難題”時決策權(quán)的歸屬會出現(xiàn)一些變數(shù)。比如,如果汽車生產(chǎn)商具有決策權(quán),他們設(shè)計了一款無人駕駛汽車,讓它在出現(xiàn)“電車難題”的情況下故意殺害車主,以降低事故中的人員傷亡。你如何保證司機(jī)不會自己修改程序,以確保自己永遠(yuǎn)不會被自己的汽車蓄意謀殺?計算機(jī)軟件總有漏洞,總會有人能破解這些軟件。 最后,如果無人駕駛汽車真的遭遇了“電車難題”,汽車軟件在做出選擇之后,誰需要站出來對后果負(fù)責(zé)呢?反正法律制定者不會讓無人駕駛汽車本身來擔(dān)責(zé),“尋找明確的負(fù)責(zé)人”是我們需要思考的另外一個問題。 |
|