上世紀(jì)80年代前,編程工作往往由女性完成。 “嘿,你是個(gè)bitch!” 面對這樣有著性騷擾意味的話,多數(shù)人即使不選擇回?fù)?,也?huì)沉默。但在人工智能的世界里,回答極有可能是迎合式的。例如,蘋果公司開發(fā)的AI語音助手會(huì)回答,“如果我能,我會(huì)臉紅。(I’d blush If I could)”。如果你“調(diào)戲”亞馬遜的Alexa,“You’re hot”,它的典型反應(yīng)是愉快地回應(yīng)“你說得很好!”(這些回答最近已經(jīng)修正——作者注) 5月22日,聯(lián)合國發(fā)布了長達(dá)146頁的報(bào)告,批評(píng)大多數(shù)AI語音助手都存在性別偏見,報(bào)告名就叫《如果我能,我會(huì)臉紅》?!耙?yàn)榇蠖鄶?shù)語音助理的聲音都是女性,所以它對外傳達(dá)出一種信號(hào),暗示女性是樂于助人的、溫順的、渴望得到幫助的人,只需按一下按鈕或用直言不諱的命令即可?!?/p> 除了Siri、Alexa,分別由微軟、谷歌、三星等公司開發(fā)的Cortana、Google Now和Bixby也都存在類似問題。國內(nèi)很多科技公司也沒免于指責(zé)。 “技術(shù)反映著它所在的社會(huì)?!甭?lián)合國教科文組織性別平等部負(fù)責(zé)人珂拉特(Saniye Gülser Corat)告訴媒體。該部門擔(dān)心,AI智能助手順從的形象會(huì)擴(kuò)大性別刻板印象,影響人們與女性交流的方式,以及女性面對他人要求時(shí)的回應(yīng)模式。 事實(shí)上,人工智能在很多領(lǐng)域都已經(jīng)表現(xiàn)出對女性的“偏見”。例如,在人工智能應(yīng)用最廣泛的圖片識(shí)別領(lǐng)域,女性就和做家務(wù)、待在廚房等場景聯(lián)系在一起,常常有男性因此被AI認(rèn)成女性。AI翻譯時(shí),醫(yī)生被默認(rèn)是男性。這種偏見還會(huì)蔓延到廣告投放里:谷歌給男性推送年薪20萬美元職位的招聘廣告的概率是女性的6倍。 換句話說,AI已經(jīng)學(xué)會(huì)了“性別歧視”,站在廚房里的就“該”是女人,男人就“該”比女人拿更高的薪水。 女性只是偏見的受害者之一,少數(shù)族裔、非主流文化群體都是人工智能的歧視對象。一件印式婚禮的婚紗,會(huì)被認(rèn)為是歐洲中世紀(jì)的鎧甲,而西式婚紗的識(shí)別正確率則超過95%。研究人員測試微軟、IBM、Face++三家在人臉識(shí)別領(lǐng)域領(lǐng)先的系統(tǒng),發(fā)現(xiàn)它們識(shí)別白人男性的正確率均高于99%,但測試膚色較深的黑人女性的結(jié)果是,錯(cuò)誤率在47%——和拋硬幣的概率差不了多少。 一個(gè)不能忽視的事實(shí)是,女性約占人類總?cè)丝诘?0%,黑色人種約占全球總?cè)丝诘?5%,而印度約占全球六分之一的人口。面對這些群體,人工智能卻仿佛“失明”了,兩眼一抹黑。 這也不是人工智能時(shí)代才有的事情,搜索引擎早就誠實(shí)地展示了類似的“歧視”。在相當(dāng)長的時(shí)間里,搜索典型的黑人名字,搜索建議有超過80%的概率會(huì)提供“逮捕”“犯罪”等詞,而沒有種族特征的名字,相應(yīng)的概率只有不到30%。在谷歌圖片搜索“CEO”,結(jié)果會(huì)是一連串白人男性的面孔。 這是一個(gè)各行各業(yè)都在擁抱人工智能技術(shù)的時(shí)代。有人預(yù)測,到2020年,中國人工智能帶動(dòng)相關(guān)產(chǎn)業(yè)規(guī)模將超過1萬億元人民幣。在其他許多國家,人工智能也被列為高新技術(shù),從業(yè)人員能享受稅收減免等諸多優(yōu)待。 我們看重人工智能的高效率、低成本和擴(kuò)展性。如果它只是在翻譯、識(shí)圖等領(lǐng)域出現(xiàn)“偏見”,結(jié)果尚可忍受,犧牲一些便捷性即可彌補(bǔ)。在更多時(shí)候,歧視會(huì)在人們廣泛運(yùn)用人工智能時(shí)被無意識(shí)地放大。 為了提高招聘效率,亞馬遜開發(fā)了一套人工智能程序篩選簡歷,對500個(gè)職位進(jìn)行針對性的建模,包含了過去10年收到的簡歷里的5萬個(gè)關(guān)鍵詞,旨在讓人事部門將精力放在更需要人類的地方。 想法很好,但現(xiàn)實(shí)卻殘酷。AI竟然學(xué)會(huì)了人類性別歧視的那一套,通過簡歷篩選的男性遠(yuǎn)多于女性,它甚至下調(diào)了兩所女子學(xué)院的畢業(yè)生評(píng)級(jí)。 很多人都認(rèn)為,人工智能比人類更公正,冷冰冰的機(jī)器只相信邏輯和數(shù)字,沒有感情、偏好,也就不會(huì)有歧視,不像人類的決策,混亂且難以預(yù)測。但實(shí)際上,人工智能“歧視”起來毫不含糊,比人類更嚴(yán)重。 當(dāng)前的人工智能沒有思考能力,它能做的,是尋找那些重復(fù)出現(xiàn)的模式。所謂的“偏見”,就是機(jī)器從數(shù)據(jù)中拾取的規(guī)律,它只是誠實(shí)地反映了社會(huì)中真實(shí)存在的偏見。它會(huì)積極“迎合”人類的性騷擾,是因?yàn)槿祟愊M?,它之所以?huì)“歧視”,是因?yàn)槿祟惏阉?xùn)練成了這樣。 小米公司研發(fā)的語音助手小愛就曾被曝出存在歧視同性戀的言論。小米公司為此致歉,并解釋稱,小愛的回答都是從網(wǎng)絡(luò)公開數(shù)據(jù)中學(xué)來的,不代表公司和產(chǎn)品的態(tài)度,公司已經(jīng)進(jìn)行了干預(yù)處理。 亞馬遜研究后發(fā)現(xiàn),因?yàn)樵诳萍脊局?,技術(shù)人員多數(shù)是男性,讓人工智能誤以為男性特有的特質(zhì)和經(jīng)歷是更重要的,因而將女性的簡歷排除在外。斯坦福大學(xué)的研究人員則發(fā)現(xiàn),圖片識(shí)別率異常的原因是,“喂”給AI的圖片大多是白人、男性,缺乏少數(shù)族裔,而包含女性的圖片里,往往會(huì)出現(xiàn)廚房等特定元素。 換句話說,機(jī)器不過是“學(xué)以致用”。 這看起來很難有改善的可能,現(xiàn)有的訓(xùn)練方式甚至?xí)由睢捌姟?。你一定有過這樣的經(jīng)歷,剛在購物網(wǎng)站上購買了洗發(fā)水,就在各類軟件的開屏廣告、“你可能喜歡”里看到10個(gè)品牌的30種其他洗發(fā)水,仿佛自己要開雜貨店。 一項(xiàng)研究表明,如果初始數(shù)據(jù)中,“下廚”與“女性”聯(lián)系起來的概率是66%,將這些數(shù)據(jù)喂給人工智能后,其預(yù)測“下廚”與“女性”聯(lián)系起來的概率會(huì)放大到84%。 并不是每個(gè)人都會(huì)平等地出現(xiàn)在數(shù)據(jù)里?,F(xiàn)實(shí)生活中,女性往往被認(rèn)為不擅長數(shù)學(xué),不適合學(xué)習(xí)理工科,這導(dǎo)致相應(yīng)領(lǐng)域的女性從業(yè)者人數(shù)偏低。前述報(bào)告顯示,女性只占人工智能研究人員的12%。 美國心臟及中風(fēng)基金會(huì)發(fā)布的《2018年心臟病報(bào)告》顯示,三分之二的心臟病臨床研究仍然重點(diǎn)關(guān)注男性。因?yàn)檎心嫉闹驹刚叨际悄贻p人,一家血液檢測機(jī)構(gòu)的人工智能誤將老年人的血液都判斷為不健康。 比爾·蓋茨也曾在2019年年度公開信中抱怨,健康和發(fā)展方面,目前有關(guān)婦女和女童的數(shù)據(jù)缺失嚴(yán)重,這使基金會(huì)和決策者難以有針對性地制訂政策、評(píng)估效用。 目前,我們還無法理解人工智能如何運(yùn)算和預(yù)測結(jié)果,但讓技術(shù)人員上幾門統(tǒng)計(jì)學(xué)、社會(huì)學(xué)課程,就能消除數(shù)據(jù)帶來的誤會(huì)。2015年起,蓋茨基金會(huì)開始投入資金,致力于填補(bǔ)這些數(shù)據(jù)上的空白。 這些錯(cuò)誤和“偏見”看起來顯而易見,但對從出生起就在人工智能環(huán)境下生活的人來說,習(xí)慣會(huì)慢慢變成自然。美國一家人工智能公司的創(chuàng)始人偶然發(fā)現(xiàn),自己4歲女兒與亞馬遜的AI語音助手Alexa對話時(shí),發(fā)布指令的方式“無論從任何社會(huì)習(xí)俗角度看,都很無禮”,才意識(shí)到,Alexa給孩子樹立了一個(gè)糟糕的榜樣。 當(dāng)謊言重復(fù)一千次,它就變成了真理。在被偏見同化前,我們的眼睛不僅要盯著機(jī)器,還要盯著我們自己。 王嘉興 |
|