小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

要是人工智能殺了人,我們應該怪誰? | 腦洞

 昵稱71360118 2020-09-01

關于人工智能倫理問題,特別是涉及到開發(fā)機器人武器之類的問題,我們已經(jīng)討論過很多次了。實際上,之前我們更多的是把人工智能作為一種人類已知威脅來展開討論的。那些喜歡電影《終結(jié)者》的粉絲應該對它的情節(jié)還記憶猶新吧,片中人工智能“天網(wǎng)”希望終結(jié)人類,如果這一幕真的發(fā)生,那么我們現(xiàn)在討論什么監(jiān)管啊,責任啊,似乎都毫無意義。但所謂千里之堤毀于蟻穴,尤其在法律哲學家John Donaher的眼里,如果能夠仔細思考這些問題的話,說不定會有助于減少未來可能存在的風險。

人工智能的監(jiān)管與責任,其實和安全與公共福利一樣,都像是硬幣的正反面。監(jiān)管的目的,是為了確保人工智能系統(tǒng)盡可能的安全;而責任,其實就是為了當人工智能系統(tǒng)出錯時,我們可以找到可以追究問題的人,或者再說的準確一點兒,就是找誰可以獲得法律上的賠償。

應該向誰追責呢?

讓我們先來談談責任問題吧。首先,我們可以模擬一個侵權(民事)責任問題,想象下,在不遠的將來可能會發(fā)生這樣一個場景:一輛無人駕駛拖拉機原本應該按照指令在A農(nóng)民的田里播種,但是奇怪的是,它卻把種子播種到了B農(nóng)民家的田里。

讓我們先假設A農(nóng)民是完全按照操作手冊來使用那輛無人播種拖拉機的,同時,我們也假設A農(nóng)民無需再做其他額外的操作,比如在農(nóng)田交界處設置無線電信標,等等。那么現(xiàn)在,假設農(nóng)民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢?。

實際上,有很多問題需要被回答,這個事故是農(nóng)民A的責任嗎?可能不是;那么,是無人播種拖拉機廠商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問題相關的責任和標準呢?比如無人播種拖拉機的行業(yè)標準是什么,制造商的產(chǎn)品規(guī)格是否符合相關標準呢?不僅如此,如果自己的土地被他人種植上了其他農(nóng)作物,這是否算是財產(chǎn)損失,又是否能否追溯經(jīng)濟賠償呢?

在一連串問題之前,我們其實是先假定了無人播種拖拉機里面的系統(tǒng)軟件是由制造商開發(fā)的。那么接下來又有新的問題出現(xiàn)了,如果那套人工智能系統(tǒng)是由第三方開發(fā)公司完成開發(fā)的,該如何處理?還有,系統(tǒng)內(nèi)部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?

隨著時間的推移,人工智能系統(tǒng)將會越來越不依靠傳統(tǒng)的經(jīng)典算法和代碼,而且他們也會展示出更多我們無法預料到的行為,值得一提的是,這些行為沒有人可能預測得到,甚至包括人工智能系統(tǒng)的創(chuàng)造者也無法預料。但重要的是,可預見性,其實是處理責任過失問題中一個非常關鍵的組成部分。

為了能夠讓讀者更好地理解可預見性問題,我們才會假設了上面那個無人播種拖拉機的案例,或許十年、二十年之后,人工智能已經(jīng)不再是簡單的種錯莊稼這件事兒了,它可能會是某個意外讓人們受傷,更嚴重一些,人工智能可能會不小心殺人。所以,如果我們的法律無法適時作出改變,那么未來將會導致更多問題出現(xiàn)。就拿上面那個人工智能種錯莊稼的事情為例,當無法實現(xiàn)可預見性,最終的結(jié)果就是沒人承擔責任!

責怪人工智能機器人

為什么我們不干脆去責怪機器人呢?畢竟,關于人工智能人格也有過討論,而且人工智能系統(tǒng)本身也有擔負刑事責任的可能。

但是,這種方法在實際應用時又有什么不一樣呢?這里,還是借用別人曾經(jīng)說過的一句話吧?!叭斯ぶ悄芟到y(tǒng)真的會像著名小說家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”

我們姑且不去討論人工智能系統(tǒng)是否可以被起訴,但人工智能制造商和開發(fā)商們必須受到監(jiān)管。只有這樣,才有可能將一些無法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無過錯,都要承擔賠償責任。 常見的適用于無過錯責任原則的,有從事高壓、劇毒、高速、放射等作業(yè)造成他人損害的。工傷是典型的適用無過錯責任原則的,也就是說只要勞動者在工作期間因公受傷了,排除勞動者個人主觀故意的因素之外,雇用單位無論有無過錯都要承擔工傷賠償?shù)呢熑蔚?。)約束起來,

實際上,在我們的日常生活里,嚴格責任賠償已經(jīng)應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實也可以采用無過錯責任賠償和賠償方案池等方式。

規(guī)章制度

如果從監(jiān)管的角度來看人工智能,那么你會發(fā)現(xiàn),嚴格的安全標準,以及建立完善的安全認證流程也都是非常必要的。不過,如何設計一個合適的機構與流程框架,并且讓這個框架得以有效運行,依然是一個非常棘手的問題。

人工智能領域復雜難懂,而且外部世界對于人工智能研發(fā)圈子普遍缺乏認識,這也就是人工智能專家需要盡快創(chuàng)建行業(yè)框架的原因所在。實際上,這里所說的框架,就是規(guī)章制度,說通俗些也就是游戲規(guī)則。因此,這意味著人工智能顧問委員會需要和政府一起,盡快立法,建設行業(yè)標準。

我們不得不承認,人工智能行業(yè)存在巨大的潛在效益;但是標準和流程,需要不斷的創(chuàng)建、更新、并且執(zhí)行,這樣才能達到一種持續(xù)性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會扼殺創(chuàng)新,更不會出現(xiàn)不必要的法律負擔。

事實上,站在國家的角度上,建立任何一個法律框架或游戲規(guī)則,都必須要足夠靈活,監(jiān)管機構不僅需要考慮到本國利益,也要從全球角度出發(fā)。這意味著在某種程度上,你不僅要考慮本國的人工智能產(chǎn)量,以權衡進口其他各國人工智能技術,同時,你還要思考該如何任何不同國家之間的安全標準和認證,必要的時候,你是否還需要遵守未來可能出現(xiàn)的國際條約或公約,等等。所有這一切,遠比我們想象的要復雜得多。

因此,當我們沿著人工智能研發(fā)的道路上前行,圍繞人工智能構建規(guī)章制度是必須要去做的事情,不要當一切都來不及時再后悔莫及。

現(xiàn)在,我們已經(jīng)開始對無人駕駛汽車所涉及到的問題展開討論了,那么未來人工智能還需要受到哪些法律法規(guī)的約束呢?

- 熱門文章閱讀 -

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多