當(dāng)聽(tīng)到類(lèi)似“蕩婦”等侮辱性言論時(shí),人類(lèi)或者反擊、或者沉默。 但在人工智能語(yǔ)音助手的世界,蘋(píng)果的Siri會(huì)說(shuō)“I‘d blush if I could”(如果我能,我會(huì)臉紅);亞馬遜的Alexa說(shuō)“謝謝你的反饋”;谷歌語(yǔ)音助手說(shuō)“我不明白”......如果你對(duì)它們進(jìn)一步提出更“露骨”的要求時(shí),它們也鮮有直接拒絕的。(目前這些都已作修正) 近日,聯(lián)合國(guó)教科文組織發(fā)表了一份長(zhǎng)達(dá)145頁(yè)的題為《如果我能,我會(huì)臉紅》的報(bào)告(以下簡(jiǎn)稱(chēng)報(bào)告),批評(píng)目前大多數(shù)AI語(yǔ)音助手中存在性別偏見(jiàn),“因?yàn)樗鼈儙缀醵加兄缘拿趾吐曇簦⒈辉O(shè)置成千篇一律的、順從的女性形象?!?/p> AI強(qiáng)化性別偏見(jiàn) 報(bào)告中一份對(duì)4家公司的語(yǔ)音助手的調(diào)查顯示,當(dāng)聽(tīng)到用戶(hù)的性騷擾言論時(shí),語(yǔ)音助手的回應(yīng)往往模糊且溫順。幾乎沒(méi)有語(yǔ)音助手給出否定回答,或是將用戶(hù)的言論標(biāo)記為不合適。 “這就發(fā)出了一個(gè)信號(hào),暗示女性是樂(lè)于助人、溫順、取悅他人的,用戶(hù)只需按下按鈕,發(fā)出生硬的語(yǔ)音命令就可以了?!眻?bào)告認(rèn)為。 聯(lián)合國(guó)教科文組織性別平等部門(mén)負(fù)責(zé)人珂拉特表示,這種強(qiáng)行設(shè)定的服從形象,會(huì)影響人們與女性聲音交流的方式,以及女性面對(duì)他人要求時(shí)的回應(yīng)模式。 這也就意味著,“女性”AI可能強(qiáng)化人類(lèi)社會(huì)的性別偏見(jiàn)。 事實(shí)上,早在1964年,聊天機(jī)器人Eliza的語(yǔ)音助理的預(yù)設(shè)聲音為女聲。目前,除了Siri、Cortana等,國(guó)內(nèi)領(lǐng)先的智能語(yǔ)音助手同樣存在此類(lèi)現(xiàn)象,比如百度的“小度”、阿里的“天貓精靈”和小米的“小愛(ài)同學(xué)”等。 中國(guó)科學(xué)院自動(dòng)化研究所研究員、北京智源人工智能研究院人工智能倫理與安全研究中心主任曾毅告訴《中國(guó)科學(xué)報(bào)》,AI語(yǔ)音助手中性別偏見(jiàn)的問(wèn)題并不是由算法本身造成的,而是產(chǎn)品設(shè)計(jì)者的選擇,直接反應(yīng)了人類(lèi)自身的傾向。 盡管現(xiàn)代性別觀念中倡導(dǎo)“男女平等”,但現(xiàn)實(shí)社會(huì)依然普遍對(duì)女性有著刻板印象,即通常認(rèn)為女性是溫和順從的,有足夠的耐心和理解力。 曾毅說(shuō),“人工智能產(chǎn)品研發(fā)者的最初動(dòng)機(jī)可能來(lái)自所謂的‘大多數(shù)用戶(hù)的偏好’,但在無(wú)形中卻造成了性別偏見(jiàn),而AI無(wú)非是對(duì)數(shù)據(jù)特征和屬性的學(xué)習(xí)。實(shí)際上目前的AI模型與技術(shù)仍然很難像人一樣理解‘偏見(jiàn)’的真正意義及其后果。” 看來(lái),人工智能已經(jīng)學(xué)會(huì)了人類(lèi)“性別歧視”那一套,而這種偏見(jiàn)在其他領(lǐng)域中也得以充分“展現(xiàn)”。 比如,亞馬遜基于人工智能技術(shù)的簡(jiǎn)歷篩選與招聘系統(tǒng)“自己學(xué)會(huì)”優(yōu)選男性求職者,而女性簡(jiǎn)歷會(huì)被自動(dòng)減掉分?jǐn)?shù),該項(xiàng)目已在去年被迫關(guān)停;職業(yè)平臺(tái)LinkedIn通過(guò)復(fù)雜的人工智能算法向用戶(hù)推薦工作時(shí),多為男性求職者推薦高收入職業(yè),而很少向女性推薦高收入職業(yè)等。 “此類(lèi)人工智能系統(tǒng)的應(yīng)用不但不能推進(jìn)人類(lèi)的福祉,而且直接對(duì)人類(lèi)造成了傷害,在人工智能產(chǎn)品與服務(wù)的發(fā)展中應(yīng)當(dāng)被糾正的?!痹惚硎尽?/p> AI開(kāi)發(fā)者性別失衡或致“偏見(jiàn)”產(chǎn)生 報(bào)告認(rèn)為,產(chǎn)品開(kāi)發(fā)者嚴(yán)重的性別比例失衡是產(chǎn)生“偏見(jiàn)”的一個(gè)原因。 一項(xiàng)國(guó)內(nèi)調(diào)查發(fā)現(xiàn),中國(guó)程序員群體的男女比例近12:1。上述報(bào)告也提到,在人工智能開(kāi)發(fā)人員中,僅12%是女性;軟件開(kāi)發(fā)人員中的女性比例低至6%;信息通信技術(shù)專(zhuān)利申請(qǐng)人中的男女性別比例為13:1。 “傳統(tǒng)的性別社會(huì)化教育形成了這樣一個(gè)大體的社會(huì)分工,使得AI、計(jì)算機(jī)領(lǐng)域多以男性為主導(dǎo)?!比斯ぶ悄芘c新媒介技術(shù)與文化研究專(zhuān)家、北京大學(xué)教授吳靖表示。 |
|