哈嘍,大家好,我是穆寧。 今天想跟大家聊一個(gè)話題,叫做“算法”。 2019年12月20日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了第5號令《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,其中針對當(dāng)前網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺采用個(gè)性化算法推薦技術(shù)推送信息所帶來的問題,并給出了一套解決方案。 第5號令《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》 這是我國政府管理部門,首次對個(gè)性化推薦算法下達(dá)相關(guān)法律監(jiān)管,也拉開了對互聯(lián)網(wǎng)信息內(nèi)容服務(wù)實(shí)施重點(diǎn)管控的序幕。 2020年數(shù)據(jù)顯示,40%的用戶會根據(jù)電商網(wǎng)站的個(gè)性化推薦算法買東西,這是任何促銷廣告都不可能做到的成績。 媒體上播放的大眾化廣告對消費(fèi)者的影響已經(jīng)越來越低,個(gè)性化推薦技術(shù)即將成為廣告的終極形式。 梅爾·吉布森飾演的男主角在電影《誰知女人心》是一個(gè)典型的大男子主義者。一次浴室觸電的意外突然讓這個(gè)大男人獲得了神奇的本領(lǐng)——“讀心術(shù)”,可以輕而易舉地洞悉身邊女人們的心事,聽到她們內(nèi)心的獨(dú)白。盡管一開始被這個(gè)本領(lǐng)嚇得半死,可他卻漸漸沉迷,以此俘獲芳心。 “讀心術(shù)”聽起來匪夷所思,但仿佛一夜間,個(gè)性化推薦技術(shù)讓我們身邊突然出現(xiàn)了一位洞悉你喜好的“知音”,可以24小時(shí)提供全方位的貼心指引,不厭其煩地向你推薦那些“你可能感興趣的……”東西,從房子,到襪子。 不知不覺中侵占整個(gè)互聯(lián)網(wǎng)的“推薦算法”,不單直指你心底里哪些小秘密,更成為了每個(gè)網(wǎng)站拉攏用戶的核心機(jī)密。 但我們喜聞樂見的個(gè)性化推薦算法,可能會帶來哪些問題? 個(gè)性化內(nèi)容使得用戶只關(guān)心自己感興趣的內(nèi)容而陷入“信息繭房”,群體內(nèi)成員與外部世界交流就會大幅減少,群體內(nèi)同質(zhì)的特征越顯著,導(dǎo)致一種正反饋式的“自激”,使人產(chǎn)生盲目自信、心胸狹隘等不良心理,其思維方式將自己的偏見認(rèn)為是真理,從而拒斥其他合理性的觀點(diǎn)侵入。 簡單來說,就是大家所說的“杠精”。 其次,“信息繭房”將會導(dǎo)致社會粘性的喪失。在“信息繭房”的作用下,人們很容易沉浸在自我的話語場中,脫離整個(gè)社會的發(fā)展,這些都大大減少了經(jīng)驗(yàn)的分享。當(dāng)每個(gè)個(gè)體之間、群體之間缺乏粘性,人心渙散將會成為一種普遍的社會現(xiàn)象,人們之間、群體之間往往彼此漠不關(guān)心。 可以這樣說,中國互聯(lián)網(wǎng)的瘋狂,得益于人與人之間的冷漠。當(dāng)人們獲取資訊的方式從主動(dòng)訂閱、搜索,變?yōu)楸粍?dòng)的“下拉刷新”的時(shí)候,互聯(lián)網(wǎng)便不再是一扇通向世界的窗口,而只是一個(gè)善于美顏的鏡子。 如果一個(gè)人每天閱讀的文章都是10萬+,那他一定會認(rèn)為自己所閱讀的這些內(nèi)容就代表主流輿論的聲音。但事實(shí)上,機(jī)器只是將符合它胃口的文章推送給了它。而對于超過8億的中國網(wǎng)民來說,即便是一個(gè)篇篇10萬+的公號來說可能也只是找到了整個(gè)輿論場中很小的一個(gè)缺口,并不代表著主流觀點(diǎn)。 對于每個(gè)輿論場中的發(fā)聲者和受眾來說,都更加認(rèn)為“自己所寫的/看的代表了大多數(shù)人的看法”,最終導(dǎo)致我們距離真實(shí)的世界漸行漸遠(yuǎn)。 如果我們甚至無法認(rèn)識到真實(shí)的彼此,就更不要說我們能夠相互理解了。 互聯(lián)網(wǎng)企業(yè)最大的優(yōu)勢,就是能夠“快速響應(yīng)用戶的反饋”。而最大的弱點(diǎn)也是“習(xí)慣于快速響應(yīng)用戶的反饋”。 沉迷于迎合用戶當(dāng)下的需求,讓企業(yè)迷失了自己真正的目標(biāo),也讓用戶失去了“個(gè)性化”。 2018年6月頭條的估值從起步的1千萬美元已達(dá)到750億美元左右,已然超過了BAT里的B的市值了。此前,張一鳴表達(dá)過自己對頭條以及算法價(jià)值的觀點(diǎn): 他曾在2016年底接受媒體采訪時(shí)表示:“我本身并不認(rèn)為低俗有什么問題。你在機(jī)場看到的雜志是一回事,在火車站看到的又是另一回事”?!昂芏嗳耸且?yàn)樽C明自己高雅而指責(zé)它?!?/span> 但在現(xiàn)有監(jiān)管體系下,張一鳴曾經(jīng)信仰的“技術(shù)”,或者說“算法”,似乎已經(jīng)不能成為擋箭牌了。 正如媒體人張鳳安評論的那樣,今日頭條迅速接過了BAT發(fā)家時(shí)伴隨的電線桿式低谷生意,裹上了算法的外衣。但是意外的是,頭條做這么大了卻沒有高階內(nèi)容的貢獻(xiàn),沒有與平臺地位相稱的主流現(xiàn)象級內(nèi)容策劃。 在19年4月11日凌晨4點(diǎn)發(fā)布的聲明里,張一鳴換了口徑: “我們必須重新闡釋并切實(shí)踐行我們的社會責(zé)任:正直向善,科技創(chuàng)新,創(chuàng)造價(jià)值,擔(dān)當(dāng)責(zé)任,合作共贏?!薄拔覀儽仨氈匦率崂砦覀兊脑妇??!?/span> 互聯(lián)網(wǎng)企業(yè)追求商業(yè)利潤無可厚非,但網(wǎng)絡(luò)平臺以迎合受眾需求、追逐商業(yè)價(jià)值為出發(fā)點(diǎn),有可能會違背現(xiàn)有法律規(guī)定,或是利用法律制度的漏洞和缺陷,規(guī)避法律責(zé)任。 秩序是與無序、脫序、失序等相對的概念。無序、脫序、失序,意味著關(guān)系的穩(wěn)定性和結(jié)構(gòu)的一致性變得模糊以致消失了,行為的規(guī)則性和進(jìn)程的連續(xù)性被打破或斷裂了,社會生活遭到偶然的、不可預(yù)測因素的侵入,人們失去了合理預(yù)期和安全感。 為避免或制止無序、脫序、失序引發(fā)的各種社會危機(jī)和災(zāi)難,人類必須采取措施。而法律就是防范無序、制止脫序、補(bǔ)救失序的首要的、常規(guī)的手段。 法律是秩序的象征,又是建立和維護(hù)秩序的手段,用法律建構(gòu)和維護(hù)的社會秩序就是法律秩序。 作為風(fēng)險(xiǎn)制造者的一方(主要是企業(yè))具有強(qiáng)大的談判能力,作為主要的風(fēng)險(xiǎn)承受者的社會公眾,缺乏風(fēng)險(xiǎn)識別能力、談判能力和自我防控能力、救濟(jì)能力,對自己行為帶來的影響缺乏認(rèn)識。 “趕時(shí)間”而發(fā)生車禍的美團(tuán)騎手 “趕時(shí)間”是核心原因。一位騎手說,2018年前后平臺給他的每單送餐時(shí)間是40分鐘,但后來被壓縮到30分鐘?!坝袝r(shí)候從商家拿到外賣都過去20分鐘了,剩下的10分鐘我要騎行3公里、跑進(jìn)小區(qū)、等電梯上樓?!彼f。 平臺壓縮時(shí)間的主要依據(jù)是建立在大數(shù)據(jù)和人工智能基礎(chǔ)上的算法系統(tǒng)。與算法系統(tǒng)相配合的還有一整套嚴(yán)格的考核機(jī)制: 一方面,外賣平臺以“按單計(jì)價(jià)”激勵(lì)外賣騎手盡可能多接單送單;另一方面,平臺通過準(zhǔn)時(shí)率、差評率、配送原因取消單量等考核嚴(yán)格約束騎手。準(zhǔn)時(shí)率的降低,意味著外賣騎手在平臺的算法中失去了“接單優(yōu)勢”,也會在內(nèi)部排名中降低名次,無緣各類獎(jiǎng)勵(lì)。 明確網(wǎng)絡(luò)平臺對用戶個(gè)人敏感信息保護(hù)、信息內(nèi)容服務(wù)、算法治理的法律責(zé)任,以及增強(qiáng)法律對用戶權(quán)利的賦予和限制,有助于防范算法型分發(fā)帶來的隱私風(fēng)險(xiǎn),實(shí)現(xiàn)保護(hù)信息產(chǎn)業(yè)發(fā)展與個(gè)人權(quán)利保護(hù)的平衡。 高度的信息不對稱導(dǎo)致意識自治的基石被動(dòng)搖,算法在市場資源分配中的作用越來越明顯、影響越來越深刻,致使工業(yè)時(shí)代確立起來的市場經(jīng)濟(jì)的制度基石需要重新審視。 今天,算法更將超越邏輯的范疇,它已經(jīng)蔓延到經(jīng)濟(jì)和政治領(lǐng)域了。每一天,互聯(lián)網(wǎng)上的算法對大眾獲取信息、購物、工作和旅行等行為方式的影響都會越來越大。并且,算法還影響著我們的思維方式。 我們所知道的這場世界范圍內(nèi)的革命并不是算法的革命,而是掌握這些算法的人累積了力量,繼而引發(fā)的革命。 計(jì)算機(jī)的計(jì)算能力能夠集中處理來自互聯(lián)網(wǎng)的數(shù)十億條信息,這為一些行業(yè)企業(yè)提供了前所未有的強(qiáng)大手段, 使他們有能力來影響我們的選擇和行為。 人們認(rèn)為,點(diǎn)擊鼠標(biāo)收到的信息是中立、客觀、公正的。顯然,事實(shí)并非如此。在絕大多數(shù)情況下,兩個(gè)人都用谷歌等瀏覽器對相同進(jìn)行搜索,卻會得到不同的答案。我們發(fā)現(xiàn),算法會根據(jù)使用這是誰,而做出不同的反應(yīng)。 假如你已經(jīng)在網(wǎng)站上訂購了一本書,算法會根據(jù)你的訂單為你推薦類似主題的第二本書。假如你沒有續(xù)訂一本雜志,算法會詢問你這是否是一個(gè)疏忽。 就算你沒有要求任何東西,算法也會用“對你特別適用的廣告”來轟炸你。互聯(lián)網(wǎng)知道關(guān)于你的一切。 多年以來,人們每次點(diǎn)擊留下的痕跡被存于數(shù)據(jù)庫中,數(shù)量龐大到幾乎可以說是無限的,這些痕跡被稱為“大數(shù)據(jù)”。 從字面上看,數(shù)據(jù)意味著要有人“提供”,但至少就這一點(diǎn),可以說,這里是有矛盾的: 這些信息不是眾人“提供”的,而是從我們這里被拿走的。大數(shù)據(jù)知道我們的一切,但我們對大數(shù)據(jù)卻知之甚少。 大數(shù)據(jù)對于我們是“白盒”,而我們對大數(shù)據(jù)則是“黑盒”。 算法考慮了人類的這些認(rèn)知偏見,繼而對每個(gè)人的偏見進(jìn)行了解碼,并通過強(qiáng)化這種偏見來做出反應(yīng)。算法不過是朝著它認(rèn)為的風(fēng)向繼續(xù)吹氣。 幾年前,一個(gè)叫Kyle Behm的年輕人由于躁郁癥中途輟學(xué),離開他就讀的范德比爾特大學(xué),該學(xué)校位于田納西州納什維爾。一年半后,Kyle康復(fù)了,并回到另一所大學(xué)繼續(xù)他的學(xué)業(yè)。在那時(shí),他從一個(gè)朋友那兒了解到一份兼職工作:在Kroger超市打工,盡管工資相當(dāng)?shù)?,但Kyle愿意做。Kyle的朋友正好辭職,并愿意為他做擔(dān)保。對于像Kyle這樣學(xué)習(xí)優(yōu)異的學(xué)生來說,擔(dān)保就是走走形式。 AI性格測試題目 然而Kyle并沒有接到面試通知。他詢問他的朋友,他的朋友解釋說:Kyle的性格測試結(jié)果顯示,他被列入“紅燈區(qū)”。 Kyle做的測試是由總部位于波士頓的人力資源管理公司Kronos開發(fā),作為人力選拔員工的一部分。Kyle把這件事情告訴了他的律師父親,他的父親問他測試題問了些什么。Kyle說和他在醫(yī)院里做的題類似,就是“五因素模型”這類的問題。根據(jù)外向性,隨和性,謹(jǐn)慎性,情緒穩(wěn)定性以及開放性評分。 起初,由于測試題丟掉一份工資低廉的工作并不是什么大問題。Roland Behm鼓勵(lì)他的兒子繼續(xù)找。但Kyle被一次次拒絕。他應(yīng)聘的每一家公司用的是同一套測試題,到最后他也沒收到一個(gè)offer。 Roland Behm也不知所措。心理健康問題似乎嚴(yán)重影響他兒子的就業(yè)。研究之后他發(fā)現(xiàn):性格測試題在大型的招聘公司之間非常普遍,盡管在法律上并無實(shí)際意義。 他解釋說:很少有人找工作因?yàn)闇y試結(jié)果被列入紅燈區(qū)。即便他們被“紅燈”了,他們也不會想著去找律師。 Behm給包括Home Depot和Walgreens在內(nèi)的七家公司發(fā)了通知,倡議通過集體訴訟來抵制測試招人的違法行為。在我寫這篇文章的時(shí)候,起訴訟仍在跟進(jìn)。 此次爭議依據(jù)1990年頒布的美國殘疾人法案,該行為是違法的。如果訴訟成功,法院不得不就招聘公司或Knoros是否違反美國殘疾人法做出判決。 這是個(gè)非常極端的案例,但是把它聚焦到我們的日常生活中,其實(shí)非常常見。 大數(shù)據(jù)是沉默的。沒有人會像欣賞風(fēng)景一樣看待數(shù)字,觀察數(shù)據(jù)要根據(jù)預(yù)先建立的觀察角度、模型和分類方式來完成。 而當(dāng)算法承載著人的意識去做出相應(yīng)的有失偏頗的選擇時(shí),錯(cuò)誤究竟在人還是算法? 然而,你問問自己事情為什么會這么復(fù)雜嗎? 當(dāng)你了解到,互聯(lián)網(wǎng)巨頭的戰(zhàn)略就是讓用戶產(chǎn)生依賴性時(shí), 一切仿佛都有了答案。 |
|