男性機(jī)器人會(huì)性騷擾? 女性機(jī)器人可以模擬性高潮? Chat GPT 性別歧視? 谷歌僅30%為女性員工? 原來(lái),自詡先進(jìn)的科技業(yè),仍然深陷最古老的性別規(guī)訓(xùn)之中。 人形機(jī)器人的“進(jìn)化” 現(xiàn)在的機(jī)器人,已經(jīng)進(jìn)化到會(huì)性騷擾了? 前段時(shí)間,沙特阿拉伯制作的首個(gè)男性機(jī)器人“穆罕默德”,在一場(chǎng)媒體活動(dòng)中,被指控“騷擾”女記者。 當(dāng)時(shí)他突然伸手,試圖觸摸一位女記者的臀部。 女記者立馬轉(zhuǎn)過(guò)身來(lái),打斷了他的動(dòng)作。 沙特機(jī)器人“性騷擾”女記者 這段視頻在網(wǎng)上瘋傳。 制作公司出來(lái)回應(yīng),稱(chēng)穆罕默德的行為是“完全自主的”,并且“沒(méi)有偏離預(yù)期行為”。 該公司還補(bǔ)充說(shuō),他們已通知所有與會(huì)者,包括記者,在“演示期間要與機(jī)器人保持安全距離”。 聽(tīng)起來(lái)反倒更令人毛骨悚然了。 “機(jī)器人性騷擾”事件一方面引發(fā)了很多人的擔(dān)憂(yōu),因?yàn)檫@意味性別歧視已經(jīng)被寫(xiě)入了人工智能的數(shù)據(jù)庫(kù)。 另一方面,大家都產(chǎn)生了一個(gè)相同的困惑: 機(jī)器人為什么要有性別? 世界上第一個(gè)機(jī)器人公民“索菲亞” 這本身是個(gè)很有爭(zhēng)議的問(wèn)題。 一些研究者認(rèn)為給機(jī)器人賦予性別,可以使他們更具人類(lèi)特征。 對(duì)機(jī)器人制造商來(lái)說(shuō),性別化的機(jī)器人一般更好賣(mài),因?yàn)樗菀着c消費(fèi)者建立聯(lián)系。 換句話(huà)說(shuō),機(jī)器人越像人類(lèi),就越受歡迎。當(dāng)然相似度也存在一個(gè)臨界點(diǎn),一旦超過(guò)這個(gè)點(diǎn),它會(huì)讓人感覺(jué)恐懼。 這就是所謂的“恐怖谷理論”,1970年由日本機(jī)器人專(zhuān)家森昌弘提出。 恐怖谷理論 而另一部分研究者則相信機(jī)器人性別化弊大于利。 理由是容易導(dǎo)致性別刻板印象。 事實(shí)上,在現(xiàn)有人形機(jī)器人的創(chuàng)造中,性別刻板印象問(wèn)題尤其突出。 大量機(jī)器人延續(xù)了人類(lèi)的性別分工。 比如進(jìn)行舉重、體力勞動(dòng)之類(lèi)的機(jī)器人,總是男性機(jī)器人。 而女性機(jī)器人一般擔(dān)任服務(wù)類(lèi)工作,比如接待、清潔打掃、護(hù)理等。 以日本為例,作為最?lèi)?ài)研發(fā)人形機(jī)器人的國(guó)家之一,日本人形機(jī)器人可以說(shuō)基本復(fù)刻了日本社會(huì)傳統(tǒng)的性別規(guī)范。 2014年,《日本人工智能學(xué)會(huì)》雜志曾引發(fā)過(guò)一場(chǎng)爭(zhēng)議。 原因是其封面畫(huà)著一位女性機(jī)器人,她拿著掃帚,看起來(lái)就像是正在做家務(wù)的家庭主婦。 當(dāng)時(shí)有人質(zhì)疑性別刻板印象太明顯,鬧到雜志出來(lái)道歉。 但這并不妨礙性別偏見(jiàn)在日本機(jī)器人身上繼續(xù)復(fù)現(xiàn)。 2015年,日本一家酒店前臺(tái)使用機(jī)器人,當(dāng)然,全部是女性機(jī)器人。 日本酒店的女性機(jī)器人 同年,日本仿生機(jī)器人ERICA橫空出世。 她由日本“機(jī)器人之父”石黑浩團(tuán)隊(duì)研發(fā),能和人自如對(duì)話(huà),并且具有表情反應(yīng),被認(rèn)為是當(dāng)時(shí)“最接近人類(lèi)的機(jī)器人”。 再看看ERICA的性別特征,她身高167CM,23歲,身材勻稱(chēng),五官精致完美,原型來(lái)自30位選美冠軍的照片。 ERICA與她的創(chuàng)造者石黑浩 在展會(huì)上亮相時(shí),她穿著連衣裙,據(jù)說(shuō)湊近還能聞到香水味。 由于ERICA鮮明的女性氣質(zhì),她被很多媒體誤讀為“妻子型機(jī)器人”。 聲稱(chēng)她“除了生孩子,什么都能做”。 甚至還有自媒體造謠其“售價(jià)10萬(wàn),上市一小時(shí)遭瘋搶”。 圖源:網(wǎng)絡(luò) 但事實(shí)上,ERICA造價(jià)高昂,功能僅限對(duì)話(huà)交流,無(wú)法獨(dú)立行走,更無(wú)法下廚做家務(wù),完全不是為宅男設(shè)計(jì)的“妻子”玩具。 可見(jiàn),機(jī)器人一旦被賦予性別,即便其設(shè)計(jì)本身并不服務(wù)于傳統(tǒng)的性別敘事,但“她”大概率還是無(wú)法擺脫性別刻板印象,無(wú)法擺脫一廂情愿的男性幻想。 另一類(lèi)充斥刻板印象的機(jī)器人,就是性愛(ài)機(jī)器人。 2010年,“世界上第一個(gè)性愛(ài)機(jī)器人”Roxxxy 誕生,性別依然為女。 性愛(ài)機(jī)器人Roxxxy Roxxxy可以對(duì)身體接觸做出反應(yīng),包括模擬性高潮。 性愛(ài)機(jī)器人的發(fā)明,引發(fā)了大量倫理爭(zhēng)議。 一方面這些機(jī)器人通常有著夸張的女性特征,甚至有些看起來(lái)像小女孩,人們擔(dān)心會(huì)加劇女性物化與性化。 另一方面,制造沒(méi)有“性同意”能力的性愛(ài)機(jī)器人,也被很多學(xué)者認(rèn)為這是“放縱強(qiáng)奸幻想并促進(jìn)強(qiáng)奸文化”。 想象賽博女人 其實(shí)早在機(jī)器人被制造出來(lái)之前,人們對(duì)機(jī)器人的想象就已充斥各類(lèi)文本。 當(dāng)然大部分想象總是賦予機(jī)器人性別特征,尤其是女性特征。 拿電影來(lái)說(shuō),第一個(gè)登上銀幕的機(jī)器人,就是一位女性機(jī)器人。 圖源:《大都會(huì)》 她出現(xiàn)在1927年德國(guó)導(dǎo)演弗里茨·朗的科幻電影《大都會(huì)》中。 制造她的人,是一位男性科學(xué)狂人,他將自己夢(mèng)中情人瑪麗亞的臉,移植給一具金屬制成的女性身體。 于是機(jī)器人“瑪麗亞”正式登場(chǎng)。 圖源:《大都會(huì)》 人類(lèi)女性瑪麗亞純真善良圣潔,機(jī)器人瑪麗亞是她的反面。不僅性感妖嬈放蕩,而且相當(dāng)危險(xiǎn)。 她蠱惑眾人,煽動(dòng)暴亂,最終被燒死在火刑柱上。 仿佛中世紀(jì)的女巫。 學(xué)者許森指出,“當(dāng)機(jī)器開(kāi)始被視為惡魔般的、難以解釋的威脅,混亂與毀滅的征兆……作家們就開(kāi)始把類(lèi)人機(jī)器人想象成女性?!?/p> 一個(gè)投射男性欲望的女人,一個(gè)讓男人深感恐懼的女人。 這便是人工智能在電影中最原始的形態(tài)。 而它在后來(lái)的許多電影中都有延續(xù)發(fā)展。 比如電影《她》和《機(jī)械姬》。 其中的女性機(jī)器人同樣性感,同樣危險(xiǎn)。 電影《她》中,男主西奧多和Ai薩曼莎日久生情,他以為“她”是獨(dú)屬于自己的完美情人,結(jié)果卻發(fā)現(xiàn)薩曼莎同時(shí)與8316個(gè)人交談,還和其中641人陷入熱戀。 圖源:《她》 雖然片中的Ai女主沒(méi)有實(shí)體,但她擁有斯嘉麗·約翰遜的性感聲音。 《機(jī)械姬》中的機(jī)器人伊娃,則利用男人對(duì)自己的感情,最終反殺創(chuàng)造和控制她的男性造物者,逃出生天。 圖源:《機(jī)械姬》 男人愛(ài)上女性機(jī)器人,卻遭到背叛的母題,幾十年來(lái)被反復(fù)書(shū)寫(xiě)。 你會(huì)發(fā)現(xiàn),這些影片本質(zhì)上討論的并不是機(jī)器人的問(wèn)題,而是男人和女人的問(wèn)題。 如《今日簡(jiǎn)史》作者尤瓦爾·赫拉利所說(shuō),它反映的不是人類(lèi)對(duì)機(jī)器人的恐懼,而是男性對(duì)聰明女性的恐懼。 除了危險(xiǎn)的完美情人,另一分配給女性機(jī)器人的角色,就是完美情人。 性感尤物+賽博版田螺姑娘。 美麗溫柔順從且全能。 典型例子就是《銀翼殺手2049》中的AI女友Joi。 上得廳堂下得廚房,百分百情緒價(jià)值,唯一不足就是看得見(jiàn)摸不著。 但為了和男主親密接觸,Joi甚至可以投影到真實(shí)女性身體,以她人的身體和男主發(fā)生關(guān)系。 這類(lèi)女性機(jī)器人,可以說(shuō)完全作為男性欲望對(duì)象而存在。 她們滿(mǎn)足的,也只有男人的幻想。 圖源:《銀翼殺手2049》 1985年,美國(guó)著名學(xué)者唐娜·哈拉維曾發(fā)表重要的《賽博格宣言》,疾呼“寧做賽博格,不做女神”。 她認(rèn)為賽博格能摧毀一切二元對(duì)立,顛覆性別界限,反抗父權(quán)。 但不管是從現(xiàn)實(shí),還是從文藝想象來(lái)看,作為機(jī)器的女性形象,仍在物化和性化中苦苦掙扎。 圖源:《洗腦影像:性、鏡頭和權(quán)力》 科技領(lǐng)域的性別歧視 科技有性別歧視嗎? Tabi Jackson Gee和Freya Rose在《女性主義有什么用》中,斬釘截鐵地回答—— 有。 “因?yàn)樗怯蓭е逃衅?jiàn)的男人和女人(主要是男人)創(chuàng)造的?!?/strong> 科技產(chǎn)業(yè)曾是堅(jiān)固的男性陣營(yíng),硅谷曾是臭名昭著的厭女天堂。 《看不見(jiàn)的女性》點(diǎn)明: 「在科技行業(yè),女性只占雇員的四分之一,占高管的11%;而美國(guó)一半以上的本科學(xué)位、一半的化學(xué)本科學(xué)位和近一半的數(shù)學(xué)本科學(xué)位都是由女性獲得的。超過(guò)40%的女性在科技公司工作10年后會(huì)離開(kāi),而男性只有17%?!?/p> 到了元宇宙崛起,AI爆發(fā)、科技改變生活的2024年。 女性處境有變更好嗎? 很遺憾,絕大多數(shù)科技公司中,女性員工仍然勞動(dòng)力中占不到30%,如果限定在純技術(shù)崗位,那么比例還要更低。 2014年,Google公布員工性別比,女性占總勞動(dòng)力的不到1/3。十年間企業(yè)瘋狂擴(kuò)張,員工人數(shù)大幅上漲。 但性別比僅上漲了4%。 科技界的性別歧視,難以撼動(dòng),進(jìn)步微弱。 谷歌員工數(shù)趨勢(shì);谷歌性別比趨勢(shì)。圖源:Statista 物質(zhì)世界充斥著不公。 建立在現(xiàn)實(shí)之上的造物,也呈現(xiàn)鏡像般的模擬。 除了能直觀(guān)呈現(xiàn)性別刻板印象的人形機(jī)器人,還有被很多實(shí)際應(yīng)用的隱形偏見(jiàn)。 在A(yíng)I圖像領(lǐng)域,人們對(duì)chat GPT試驗(yàn)發(fā)現(xiàn): 以“董事長(zhǎng)”“科學(xué)家”等關(guān)鍵詞生成圖片時(shí),出現(xiàn)的幾乎全是男性。 而護(hù)士、老師等詞語(yǔ),生成的大多是女性。 《How artificial intelligence reinforces gender bias》;FRANCE 24 谷歌翻譯也存在著類(lèi)似問(wèn)題,當(dāng)網(wǎng)友以不具備性別指向的語(yǔ)言進(jìn)行翻譯時(shí)—— “ta是醫(yī)生”被翻譯為“他”。 “ta是護(hù)士”則自動(dòng)被判斷為“她”。 這么說(shuō)來(lái),ai在歧視女性方面確實(shí)很智能。 生活中,人們使用的語(yǔ)音導(dǎo)航是女性的聲音,電子設(shè)備上的智能助手皆為女性的人設(shè)。 面對(duì)“你是個(gè)蕩婦”的辱罵,蘋(píng)果公司曾為siri設(shè)置“如果我能,我會(huì)臉紅”這樣的回答。 “她們”是百依百順的服務(wù)者、人造的田螺姑娘,模糊著現(xiàn)實(shí)與賽博的界限。 性別的操演不止如此。 亞馬遜的招聘系統(tǒng)曾挑選出女性的簡(jiǎn)歷,打上更低的評(píng)分。 圖源:Reuters 設(shè)定為19歲女孩的微軟聊天助手Tay,被厭女、右傾用戶(hù)惡意灌輸資料,于是學(xué)會(huì)了發(fā)布恐怖主義、性別歧視言論。上線(xiàn)一天就被緊急下架。 圖源:Twitter 2023年,經(jīng)過(guò)上百?gòu)堈掌瑴y(cè)試,衛(wèi)報(bào)記者發(fā)現(xiàn),AI會(huì)認(rèn)為女性的裸露照片比男性更具備性暗示。 僅僅孕婦露出肚子,也被認(rèn)定含有色情內(nèi)容。而光膀子的男性,卻不被識(shí)別出風(fēng)險(xiǎn)。 負(fù)責(zé)圖片識(shí)別的AI,具備人類(lèi)一般的雙重標(biāo)準(zhǔn)。如果投入使用,女性的空間會(huì)更加狹窄。 圖源:The Guardian 遺憾的是,人們本對(duì)科技有著積極的想象。 1994年英國(guó)哲學(xué)家Sadie Plant創(chuàng)造了“網(wǎng)絡(luò)女權(quán)主義”一詞。后來(lái)Donna Haraway完善 理論,認(rèn)為生化電子人能解決人類(lèi)的性別傾軋。 人工智能被賦予了“技術(shù)中立”的期待。 但在巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)的理論中,三種計(jì)算偏見(jiàn)類(lèi)型十分普遍:先行偏見(jiàn)、技術(shù)偏見(jiàn)和浮現(xiàn)偏見(jiàn)。 如今也越來(lái)越多案例表明,技術(shù)在實(shí)際應(yīng)用中可能通過(guò)算法將偏見(jiàn)自動(dòng)化。 圖源:公眾號(hào)@聯(lián)合國(guó) 數(shù)字性別鴻溝越來(lái)越大。 格子衫成為碼農(nóng)的代稱(chēng),程序員代表的都是男人。女性的聰明、邏輯、理性不被承認(rèn),面臨貶抑。如果一位女性出現(xiàn)在編程領(lǐng)域,那么等待她的可能是“程序媛”的污名。 而賽博空間里,女性依舊被消費(fèi)、被凝視、被形塑,這是現(xiàn)實(shí)觀(guān)念的鏡子。 技術(shù)誠(chéng)然中立、高效、相對(duì)客觀(guān)。 但再精密的算法仍躲不過(guò)名為“偏見(jiàn)”的病毒程序。 缺少女性視角的產(chǎn)物,注定忽視這一半人類(lèi),以及更多群體的需求與感受。 2014年,蘋(píng)果公司推出健康檢測(cè)系統(tǒng),全面到可以追蹤人體銅和鉬的攝入量,卻無(wú)法記錄月經(jīng)周期。直到2019年,電子產(chǎn)品中才有關(guān)于月經(jīng)的emoji表情。 圖源:emoji 眾多生物研究,智能醫(yī)療的開(kāi)發(fā)忽略女性的生物數(shù)據(jù),導(dǎo)致診斷風(fēng)險(xiǎn)加劇。 科技不可避免地成為特權(quán)的工具。女性、有色族裔等邊緣人士更加不可見(jiàn)。 《How artificial intelligence reinforces gender bias》;FRANCE 24 無(wú)論他們?nèi)绾尾粩鄤?chuàng)造新名詞,販賣(mài)新概念,強(qiáng)調(diào)科技是未來(lái)。 但我們可以看清,這個(gè)美好未來(lái)里目前不包括女性。 AI當(dāng)然可能會(huì)創(chuàng)造一個(gè)更好的世界。 但前提是,還需要更多女性科學(xué)家,或者說(shuō)更多更具性別平等意識(shí)的人類(lèi)的參與。 |
|
來(lái)自: 她刊 > 《待分類(lèi)》