如果你在某個(gè)周末抽空回顧十多年前的經(jīng)典科幻片,就會(huì)發(fā)現(xiàn)好萊塢非常擅于將人工智能設(shè)置為肩負(fù)統(tǒng)治人類(lèi)重?fù)?dān)的終極大BOSS。無(wú)論是黑客帝國(guó)里的史密斯,還是終結(jié)者里的天網(wǎng),甚至是生化危機(jī)里的紅后,都體現(xiàn)出一種高效、理智、冷酷,視萬(wàn)物為螻蟻的形象。 而這,也多少影響到了普通人對(duì)人工智能的認(rèn)知。比如近年比較熱門(mén)的無(wú)人駕駛領(lǐng)域,我們就經(jīng)常能聽(tīng)到這樣的聲音,“如果世界上所有的汽車(chē)都交給AI來(lái)駕駛,或許就能根治由司機(jī)操作不當(dāng)導(dǎo)致的車(chē)禍了?!?/p> 但這種“交給AI會(huì)更好”的想法,也正在從自動(dòng)駕駛領(lǐng)域不斷蔓延。近期,有外媒報(bào)道一份名為《歐洲技術(shù)啟示2019》的調(diào)查報(bào)告主題顯示,在針對(duì)西歐八國(guó)2500人的在線(xiàn)調(diào)查后發(fā)現(xiàn),超過(guò)25%受訪(fǎng)者更傾向于將政策的制定交給人工智能——看來(lái)人類(lèi)社會(huì)離被機(jī)器人統(tǒng)治的時(shí)代似乎越來(lái)越近了,只不過(guò)這次人類(lèi)可能不再是被迫接受管理,而是主動(dòng)將決定權(quán)交到人工智能的手上。
導(dǎo)致人們產(chǎn)生“交給AI會(huì)更好”的原因,無(wú)非是大家覺(jué)得人工智能在作出判斷時(shí),更少受到情緒和利益的影響,因此所做的決定會(huì)更加高效且客觀。不過(guò)老實(shí)說(shuō),由大數(shù)據(jù)搭建起來(lái)的人工智能,真的能做到如影視作品里表現(xiàn)的一般,保持完全理智嗎?實(shí)際上,越來(lái)越多的研究表明,在人工智能的算法背后,同樣飽含人類(lèi)的各種陋習(xí)。 甚至從某種角度來(lái)講,以大數(shù)據(jù)作為基礎(chǔ)的人工智能,幾乎就是各種世俗偏見(jiàn)的“集大成者”。 就拿最敏感的種族歧視來(lái)說(shuō),早在2012年就有研究指出,供應(yīng)商Cognitec公司開(kāi)發(fā)的人臉識(shí)別算法,在非裔美國(guó)人身上的表現(xiàn)比白種人差5%到10%。此外在性別歧視方面,人工智能與人類(lèi)固有的刻板印象相比也不遑多讓?zhuān)醒芯匡@示,當(dāng)一張圖片中出現(xiàn)廚房背景,那么識(shí)圖軟件大概率會(huì)將出現(xiàn)在圖片中的人物識(shí)別為女性,而如果圖片中的背景與運(yùn)動(dòng)相關(guān),則很有可能讓軟件聯(lián)想到男性。 甚至在硬件方面,也多多少少存在著難以察覺(jué)的偏見(jiàn)。去年華盛頓郵報(bào)進(jìn)行的一項(xiàng)研究中發(fā)現(xiàn),谷歌和亞馬遜的智能語(yǔ)音助手識(shí)別非美國(guó)本地口音的準(zhǔn)確率,要比美國(guó)本地口音低30%,這被不少媒體和學(xué)者認(rèn)為存在“地域歧視”。與此同時(shí),現(xiàn)階段無(wú)論是Siri、Alexa、Google Assistant、Cortana、Bixby,還是國(guó)內(nèi)的小愛(ài)同學(xué)、天貓精靈等,幾乎所有的語(yǔ)音助手都是默認(rèn)女性聲音。因此就有觀點(diǎn)認(rèn)為,這種發(fā)展趨勢(shì)導(dǎo)致人們?cè)跐撘庾R(shí)中,更傾向于讓女性從事助理等輔助型、服務(wù)型的職務(wù)。
為何現(xiàn)實(shí)中的人工智能不能做到如影視作品里表現(xiàn)的一般,保持絕對(duì)的冷酷和客觀呢? 人工智能有關(guān)的硬件設(shè)備在發(fā)展之初,產(chǎn)品價(jià)格大多比較高昂,所以多是瞄準(zhǔn)那些經(jīng)濟(jì)更加優(yōu)渥的中產(chǎn)階級(jí)或者富人,這就導(dǎo)致他們最初的數(shù)據(jù)樣本就是來(lái)源于這類(lèi)人群。華爾街日?qǐng)?bào)曾引用Kaggle數(shù)據(jù)科學(xué)家Rachael Tatman的言論,當(dāng)前市面上所流行的智能語(yǔ)音系統(tǒng)無(wú)疑“最適合白人,受過(guò)高等教育的中產(chǎn)階級(jí)美國(guó)人”。在此基礎(chǔ)上,口音不夠主流的英語(yǔ),比如澳式英語(yǔ)等,就很容易受到來(lái)自智能音箱的“歧視”。 而在一些用戶(hù)群體貌似更加開(kāi)放的軟件中,則因?yàn)橐玫酱罅康挠脩?hù)數(shù)據(jù)對(duì)人工智能進(jìn)行訓(xùn)練,這也就意味著人工智能必然會(huì)受到原始數(shù)據(jù)的“污染”。舉例來(lái)說(shuō),當(dāng)大數(shù)據(jù)中【廚房】的關(guān)聯(lián)詞大量出現(xiàn)【妻子】、【母親】等字樣時(shí),人工智能就會(huì)將【廚房】與【女性】視為強(qiáng)關(guān)聯(lián)性。經(jīng)過(guò)這種強(qiáng)化訓(xùn)練的人工智能,在識(shí)圖的過(guò)程中若發(fā)現(xiàn)了符合廚房的要素,就很容易判斷身處圖片中的人形圖案是一名女性——但實(shí)際上這可能是一張廚師長(zhǎng)王剛的寬油截圖。 我國(guó)知名的導(dǎo)航系統(tǒng)MOSS曾經(jīng)說(shuō)過(guò),“讓人類(lèi)永遠(yuǎn)保持理智是種奢求”。歸納總結(jié)人類(lèi)用戶(hù)的大數(shù)據(jù),并用這些數(shù)據(jù)進(jìn)行計(jì)算和演練的人工智能,從根源上就在不斷整合人類(lèi)的優(yōu)缺點(diǎn),因此讓現(xiàn)階段的人工智能做到完全理性和中立,似乎也是不可能是事情。
不過(guò)好消息是,科學(xué)家與技術(shù)人員正在通過(guò)自己的努力,糾正人工智能的內(nèi)部歧視鏈。日前有外媒報(bào)道稱(chēng),亞馬遜宣布與美國(guó)國(guó)家科學(xué)基金會(huì)合作,在未來(lái)三年內(nèi)至多投入1000萬(wàn)美元的研究資金,用于開(kāi)發(fā)專(zhuān)注于人工智能和機(jī)器學(xué)習(xí)公平性的系統(tǒng)。值得注意的是,亞馬遜并非第一家注意到“AI歧視鏈”的科技巨頭,去年,硅谷的精英科技企業(yè)就已經(jīng)開(kāi)始扎堆研究排除偏見(jiàn)歧視干擾的智能算法了。 去年5月,F(xiàn)acebook曾發(fā)布算法Fairness Flow,從具體效果來(lái)看,當(dāng)其根據(jù)一個(gè)人的種族、性別或年齡做出不公平的判斷時(shí),就會(huì)自動(dòng)發(fā)出警告;同年9月,谷歌推出了What-If工具,被用于機(jī)器學(xué)習(xí)框架的TensorBoard的偏見(jiàn)檢測(cè)功能;而IBM也在同年秋季發(fā)布了AI fair 360,這款基于云計(jì)算的全自動(dòng)化套件可以“持續(xù)輸出思考結(jié)果”,以幫助人們了解人工智能如何做出決策,并推薦一些可能會(huì)減輕偏見(jiàn)影響的調(diào)整方法。 與此同時(shí),在語(yǔ)音助手方面,技術(shù)人員也有了新的突破。前不久,哥本哈根大學(xué)的語(yǔ)言學(xué)家和研究人員宣布,全球第一個(gè)無(wú)性別的智能語(yǔ)音助手誕生,它的名字叫“Q”。其嗓音既不是男聲,也不是女聲,而是研究小組在采集了5個(gè)不同性別的人的聲音進(jìn)行合成、調(diào)教而成。經(jīng)過(guò)調(diào)整之后“Q”的聲音頻率被設(shè)定在145Hz-175Hz之間,這個(gè)范圍由研究人員定義為中性性別。而在“Q”問(wèn)世后的自我介紹中,它提到,自己的存在正是為了應(yīng)對(duì)“不被性別定義的未來(lái)而生”。 由此不難看出,人工智能并非生來(lái)完美,將消除偏見(jiàn)與歧視完全寄希望于人工智能目前來(lái)看顯然也更不靠譜,畢竟現(xiàn)階段真正有能力讓世界變得更好的,其實(shí)還是人類(lèi)自己。 【本文圖片來(lái)自網(wǎng)絡(luò)】推薦閱讀: eSIM業(yè)務(wù)國(guó)內(nèi)終于上架,但其內(nèi)涵卻變了味?SIM功能?chē)?guó)內(nèi)開(kāi)通,但卻并未提到大家最為關(guān)心的智能手機(jī)。 投資人vs創(chuàng)業(yè)者,放手和聽(tīng)話(huà)到底誰(shuí)才是對(duì)的投資人和創(chuàng)業(yè)者,這兩種角色可以說(shuō)是相愛(ài)相殺的一對(duì)了。
|
|
來(lái)自: 三易生活 > 《待分類(lèi)》