小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

算法不可怕,用歪才可怕

 產(chǎn)品思維模型 2022-02-14

??產(chǎn)品思維模型 ·用產(chǎn)品思維,理解世界

哈嘍,大家好,我是穆寧。

今天想跟大家聊一個(gè)話題,叫做“算法”。

2019年12月20日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了第5號令《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,其中針對當(dāng)前網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺采用個(gè)性化算法推薦技術(shù)推送信息所帶來的問題,并給出了一套解決方案。

第5號令《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》

這是我國政府管理部門,首次對個(gè)性化推薦算法下達(dá)相關(guān)法律監(jiān)管,也拉開了對互聯(lián)網(wǎng)信息內(nèi)容服務(wù)實(shí)施重點(diǎn)管控的序幕。

2020年數(shù)據(jù)顯示,40%的用戶會根據(jù)電商網(wǎng)站的個(gè)性化推薦算法買東西,這是任何促銷廣告都不可能做到的成績。

媒體上播放的大眾化廣告對消費(fèi)者的影響已經(jīng)越來越低,個(gè)性化推薦技術(shù)即將成為廣告的終極形式。

梅爾·吉布森飾演的男主角在電影《誰知女人心》是一個(gè)典型的大男子主義者。一次浴室觸電的意外突然讓這個(gè)大男人獲得了神奇的本領(lǐng)——“讀心術(shù)”,可以輕而易舉地洞悉身邊女人們的心事,聽到她們內(nèi)心的獨(dú)白。盡管一開始被這個(gè)本領(lǐng)嚇得半死,可他卻漸漸沉迷,以此俘獲芳心。

 “讀心術(shù)”聽起來匪夷所思,但仿佛一夜間,個(gè)性化推薦技術(shù)讓我們身邊突然出現(xiàn)了一位洞悉你喜好的“知音”,可以24小時(shí)提供全方位的貼心指引,不厭其煩地向你推薦那些“你可能感興趣的……”東西,從房子,到襪子。

不知不覺中侵占整個(gè)互聯(lián)網(wǎng)的“推薦算法”,不單直指你心底里哪些小秘密,更成為了每個(gè)網(wǎng)站拉攏用戶的核心機(jī)密。

但我們喜聞樂見的個(gè)性化推薦算法,可能會帶來哪些問題?

1、個(gè)性化內(nèi)容推薦無法處理社會價(jià)值判斷
但目前,基于算法的個(gè)性化內(nèi)容推送本質(zhì)上只是弱人工智能的應(yīng)用,弱人工智能無法單獨(dú)承擔(dān)起“把關(guān)人”的角色。算法是自動(dòng)化、冷漠和無責(zé)任感的,無法處理復(fù)雜的人類式社會價(jià)值判斷,而且難以判斷推送給每個(gè)用戶的信息內(nèi)容的優(yōu)劣,以及背后可能涉及的價(jià)值取向。
2.個(gè)性化推薦內(nèi)容使國家安全風(fēng)險(xiǎn)因素增高
個(gè)性化內(nèi)容推送能夠影響政治進(jìn)程、加劇政治極化。在選舉過程中,通過算法能夠識別出潛在的投票人,通過個(gè)性化內(nèi)容推送,誘導(dǎo)投票人支持特定方案或個(gè)人,影響公眾意見。而且由于個(gè)性化內(nèi)容推送的篩選功能,會將投票人屏蔽于不同意見之外,持續(xù)性地強(qiáng)化立場,導(dǎo)致不同群體的意見極化,容易引發(fā)極端主義。
3.個(gè)性化推薦內(nèi)容使不良信息泛濫風(fēng)險(xiǎn)增加
個(gè)性化內(nèi)容推送依托于用戶瀏覽記錄等數(shù)據(jù),對用戶興趣愛好、行為習(xí)慣進(jìn)行分析與預(yù)測,根據(jù)用戶偏好推薦信息內(nèi)容。部分平臺不斷向用戶推薦其關(guān)注過的相似內(nèi)容,不管是否存在低俗媚俗、色情暴力等不良信息,意圖實(shí)現(xiàn)最大推送量和獲得最高點(diǎn)擊率,導(dǎo)致違法和不良信息充斥用戶界面。
4.個(gè)性化推薦內(nèi)容使用戶權(quán)益保護(hù)難度加大
個(gè)性化內(nèi)容推送讓用戶過濾掉自己不感興趣的信息內(nèi)容,沉迷于最初想看的信息內(nèi)容中,實(shí)現(xiàn)“看我想看,聽我想聽”的體驗(yàn)。這無形間強(qiáng)化了用戶的偏好,影響了用戶對于信息內(nèi)容的自主選擇,導(dǎo)致用戶對于信息內(nèi)容接觸面越來越狹隘、單一和固化,形成“信息繭房”效應(yīng)。


 2 
個(gè)性化算法,讓用戶喪失“個(gè)性化”

除卻社會價(jià)值、國家安全、不良信息等因素,個(gè)性化推薦算法最大的問題在于讓用戶喪失“個(gè)性化”。

個(gè)性化內(nèi)容使得用戶只關(guān)心自己感興趣的內(nèi)容而陷入“信息繭房”,群體內(nèi)成員與外部世界交流就會大幅減少,群體內(nèi)同質(zhì)的特征越顯著,導(dǎo)致一種正反饋式的“自激”,使人產(chǎn)生盲目自信、心胸狹隘等不良心理,其思維方式將自己的偏見認(rèn)為是真理,從而拒斥其他合理性的觀點(diǎn)侵入。

簡單來說,就是大家所說的“杠精”。

其次,“信息繭房”將會導(dǎo)致社會粘性的喪失。在“信息繭房”的作用下,人們很容易沉浸在自我的話語場中,脫離整個(gè)社會的發(fā)展,這些都大大減少了經(jīng)驗(yàn)的分享。當(dāng)每個(gè)個(gè)體之間、群體之間缺乏粘性,人心渙散將會成為一種普遍的社會現(xiàn)象,人們之間、群體之間往往彼此漠不關(guān)心。

可以這樣說,中國互聯(lián)網(wǎng)的瘋狂,得益于人與人之間的冷漠。

信息繭房”效應(yīng)讓用戶不自覺地失去社會行動(dòng)力,從積極地參與事件轉(zhuǎn)變?yōu)橄麡O地認(rèn)識事件,很難接受不同的觀點(diǎn),甚至在群體、代際間豎起阻礙溝通的高墻,造成個(gè)體與社會的隔離。如果用戶沉浸于單一類型的信息內(nèi)容中,會缺乏對于當(dāng)下和歷史事件的深刻認(rèn)識和判斷,拒絕認(rèn)真嚴(yán)肅地思考社會重大議題。
這也就是,就是目前比較火的逃避現(xiàn)實(shí),追求安逸的“喪”文化誕生的原因。
個(gè)性化推薦算法如何摧毀用戶的個(gè)性化,正如今年火爆全網(wǎng)的文章《互聯(lián)網(wǎng)是人類歷史的一段彎路嗎?》中提到的:

當(dāng)人們獲取資訊的方式從主動(dòng)訂閱、搜索,變?yōu)楸粍?dòng)的“下拉刷新”的時(shí)候,互聯(lián)網(wǎng)便不再是一扇通向世界的窗口,而只是一個(gè)善于美顏的鏡子。

如果一個(gè)人每天閱讀的文章都是10萬+,那他一定會認(rèn)為自己所閱讀的這些內(nèi)容就代表主流輿論的聲音。但事實(shí)上,機(jī)器只是將符合它胃口的文章推送給了它。而對于超過8億的中國網(wǎng)民來說,即便是一個(gè)篇篇10萬+的公號來說可能也只是找到了整個(gè)輿論場中很小的一個(gè)缺口,并不代表著主流觀點(diǎn)。

對于每個(gè)輿論場中的發(fā)聲者和受眾來說,都更加認(rèn)為“自己所寫的/看的代表了大多數(shù)人的看法”,最終導(dǎo)致我們距離真實(shí)的世界漸行漸遠(yuǎn)。

如果我們甚至無法認(rèn)識到真實(shí)的彼此,就更不要說我們能夠相互理解了。

互聯(lián)網(wǎng)企業(yè)最大的優(yōu)勢,就是能夠“快速響應(yīng)用戶的反饋”。而最大的弱點(diǎn)也是“習(xí)慣于快速響應(yīng)用戶的反饋”。

沉迷于迎合用戶當(dāng)下的需求,讓企業(yè)迷失了自己真正的目標(biāo),也讓用戶失去了“個(gè)性化”。

 3
追求效率的算法,應(yīng)先做到“守法”

面對算法的作用與價(jià)值,張一鳴的觀點(diǎn)曾有過一次重大轉(zhuǎn)折。

2018年6月頭條的估值從起步的1千萬美元已達(dá)到750億美元左右,已然超過了BAT里的B的市值了。此前,張一鳴表達(dá)過自己對頭條以及算法價(jià)值的觀點(diǎn):

“如果你非要問我頭條的價(jià)值觀是什么,我認(rèn)為是——提高分發(fā)效率、滿足用戶的信息需求,這是最重要的。”

他曾在2016年底接受媒體采訪時(shí)表示:“我本身并不認(rèn)為低俗有什么問題。你在機(jī)場看到的雜志是一回事,在火車站看到的又是另一回事”?!昂芏嗳耸且?yàn)樽C明自己高雅而指責(zé)它?!?/span>

火車站隨處可見的“低俗廣告

但在現(xiàn)有監(jiān)管體系下,張一鳴曾經(jīng)信仰的“技術(shù)”,或者說“算法”,似乎已經(jīng)不能成為擋箭牌了。

正如媒體人張鳳安評論的那樣,今日頭條迅速接過了BAT發(fā)家時(shí)伴隨的電線桿式低谷生意,裹上了算法的外衣。但是意外的是,頭條做這么大了卻沒有高階內(nèi)容的貢獻(xiàn),沒有與平臺地位相稱的主流現(xiàn)象級內(nèi)容策劃。

在19年4月11日凌晨4點(diǎn)發(fā)布的聲明里,張一鳴換了口徑:

“我們必須重新闡釋并切實(shí)踐行我們的社會責(zé)任:正直向善,科技創(chuàng)新,創(chuàng)造價(jià)值,擔(dān)當(dāng)責(zé)任,合作共贏?!薄拔覀儽仨氈匦率崂砦覀兊脑妇??!?/span>

互聯(lián)網(wǎng)企業(yè)追求商業(yè)利潤無可厚非,但網(wǎng)絡(luò)平臺以迎合受眾需求、追逐商業(yè)價(jià)值為出發(fā)點(diǎn),有可能會違背現(xiàn)有法律規(guī)定,或是利用法律制度的漏洞和缺陷,規(guī)避法律責(zé)任。

秩序是與無序、脫序、失序等相對的概念。無序、脫序、失序,意味著關(guān)系的穩(wěn)定性和結(jié)構(gòu)的一致性變得模糊以致消失了,行為的規(guī)則性和進(jìn)程的連續(xù)性被打破或斷裂了,社會生活遭到偶然的、不可預(yù)測因素的侵入,人們失去了合理預(yù)期和安全感。

為避免或制止無序、脫序、失序引發(fā)的各種社會危機(jī)和災(zāi)難,人類必須采取措施。而法律就是防范無序、制止脫序、補(bǔ)救失序的首要的、常規(guī)的手段。

法律是秩序的象征,又是建立和維護(hù)秩序的手段,用法律建構(gòu)和維護(hù)的社會秩序就是法律秩序。

作為風(fēng)險(xiǎn)制造者的一方(主要是企業(yè))具有強(qiáng)大的談判能力,作為主要的風(fēng)險(xiǎn)承受者的社會公眾,缺乏風(fēng)險(xiǎn)識別能力、談判能力和自我防控能力、救濟(jì)能力,對自己行為帶來的影響缺乏認(rèn)識。

今年8月,深圳全市就查處快遞、外賣送餐行業(yè)交通違法1.2萬宗,占非機(jī)動(dòng)車違法案例總數(shù)的10%以上。上海市醫(yī)療急救中心醫(yī)護(hù)人員說,8月的每周都會遇到與騎手相關(guān)的單子。

“趕時(shí)間”而發(fā)生車禍的美團(tuán)騎手

 “趕時(shí)間”是核心原因。一位騎手說,2018年前后平臺給他的每單送餐時(shí)間是40分鐘,但后來被壓縮到30分鐘?!坝袝r(shí)候從商家拿到外賣都過去20分鐘了,剩下的10分鐘我要騎行3公里、跑進(jìn)小區(qū)、等電梯上樓?!彼f。

平臺壓縮時(shí)間的主要依據(jù)是建立在大數(shù)據(jù)和人工智能基礎(chǔ)上的算法系統(tǒng)。與算法系統(tǒng)相配合的還有一整套嚴(yán)格的考核機(jī)制:

一方面,外賣平臺以“按單計(jì)價(jià)”激勵(lì)外賣騎手盡可能多接單送單;另一方面,平臺通過準(zhǔn)時(shí)率、差評率、配送原因取消單量等考核嚴(yán)格約束騎手。準(zhǔn)時(shí)率的降低,意味著外賣騎手在平臺的算法中失去了“接單優(yōu)勢”,也會在內(nèi)部排名中降低名次,無緣各類獎(jiǎng)勵(lì)。

明確網(wǎng)絡(luò)平臺對用戶個(gè)人敏感信息保護(hù)、信息內(nèi)容服務(wù)、算法治理的法律責(zé)任,以及增強(qiáng)法律對用戶權(quán)利的賦予和限制,有助于防范算法型分發(fā)帶來的隱私風(fēng)險(xiǎn),實(shí)現(xiàn)保護(hù)信息產(chǎn)業(yè)發(fā)展與個(gè)人權(quán)利保護(hù)的平衡。

高度的信息不對稱導(dǎo)致意識自治的基石被動(dòng)搖,算法在市場資源分配中的作用越來越明顯、影響越來越深刻,致使工業(yè)時(shí)代確立起來的市場經(jīng)濟(jì)的制度基石需要重新審視。

 4
算法不可怕,用歪才可怕

今天,算法更將超越邏輯的范疇,它已經(jīng)蔓延到經(jīng)濟(jì)和政治領(lǐng)域了。每一天,互聯(lián)網(wǎng)上的算法對大眾獲取信息、購物、工作和旅行等行為方式的影響都會越來越大。并且,算法還影響著我們的思維方式。

我們所知道的這場世界范圍內(nèi)的革命并不是算法的革命,而是掌握這些算法的人累積了力量,繼而引發(fā)的革命。

計(jì)算機(jī)的計(jì)算能力能夠集中處理來自互聯(lián)網(wǎng)的數(shù)十億條信息,這為一些行業(yè)企業(yè)提供了前所未有的強(qiáng)大手段, 使他們有能力來影響我們的選擇和行為。

人們認(rèn)為,點(diǎn)擊鼠標(biāo)收到的信息是中立、客觀、公正的。顯然,事實(shí)并非如此。在絕大多數(shù)情況下,兩個(gè)人都用谷歌等瀏覽器對相同進(jìn)行搜索,卻會得到不同的答案。我們發(fā)現(xiàn),算法會根據(jù)使用這是誰,而做出不同的反應(yīng)。

假如你已經(jīng)在網(wǎng)站上訂購了一本書,算法會根據(jù)你的訂單為你推薦類似主題的第二本書。假如你沒有續(xù)訂一本雜志,算法會詢問你這是否是一個(gè)疏忽。

就算你沒有要求任何東西,算法也會用“對你特別適用的廣告”來轟炸你。互聯(lián)網(wǎng)知道關(guān)于你的一切。

多年以來,人們每次點(diǎn)擊留下的痕跡被存于數(shù)據(jù)庫中,數(shù)量龐大到幾乎可以說是無限的,這些痕跡被稱為“大數(shù)據(jù)”。

從字面上看,數(shù)據(jù)意味著要有人“提供”,但至少就這一點(diǎn),可以說,這里是有矛盾的:

這些信息不是眾人“提供”的,而是從我們這里被拿走的。大數(shù)據(jù)知道我們的一切,但我們對大數(shù)據(jù)卻知之甚少。

大數(shù)據(jù)對于我們是“白盒”,而我們對大數(shù)據(jù)則是“黑盒”。

算法考慮了人類的這些認(rèn)知偏見,繼而對每個(gè)人的偏見進(jìn)行了解碼,并通過強(qiáng)化這種偏見來做出反應(yīng)。算法不過是朝著它認(rèn)為的風(fēng)向繼續(xù)吹氣。

幾年前,一個(gè)叫Kyle Behm的年輕人由于躁郁癥中途輟學(xué),離開他就讀的范德比爾特大學(xué),該學(xué)校位于田納西州納什維爾。一年半后,Kyle康復(fù)了,并回到另一所大學(xué)繼續(xù)他的學(xué)業(yè)。在那時(shí),他從一個(gè)朋友那兒了解到一份兼職工作:在Kroger超市打工,盡管工資相當(dāng)?shù)?,但Kyle愿意做。Kyle的朋友正好辭職,并愿意為他做擔(dān)保。對于像Kyle這樣學(xué)習(xí)優(yōu)異的學(xué)生來說,擔(dān)保就是走走形式。

AI性格測試題目

然而Kyle并沒有接到面試通知。他詢問他的朋友,他的朋友解釋說:Kyle的性格測試結(jié)果顯示,他被列入“紅燈區(qū)”。

Kyle做的測試是由總部位于波士頓的人力資源管理公司Kronos開發(fā),作為人力選拔員工的一部分。Kyle把這件事情告訴了他的律師父親,他的父親問他測試題問了些什么。Kyle說和他在醫(yī)院里做的題類似,就是“五因素模型”這類的問題。根據(jù)外向性,隨和性,謹(jǐn)慎性,情緒穩(wěn)定性以及開放性評分。

起初,由于測試題丟掉一份工資低廉的工作并不是什么大問題。Roland Behm鼓勵(lì)他的兒子繼續(xù)找。但Kyle被一次次拒絕。他應(yīng)聘的每一家公司用的是同一套測試題,到最后他也沒收到一個(gè)offer。

Roland Behm也不知所措。心理健康問題似乎嚴(yán)重影響他兒子的就業(yè)。研究之后他發(fā)現(xiàn):性格測試題在大型的招聘公司之間非常普遍,盡管在法律上并無實(shí)際意義。

他解釋說:很少有人找工作因?yàn)闇y試結(jié)果被列入紅燈區(qū)。即便他們被“紅燈”了,他們也不會想著去找律師。

Behm給包括Home Depot和Walgreens在內(nèi)的七家公司發(fā)了通知,倡議通過集體訴訟來抵制測試招人的違法行為。在我寫這篇文章的時(shí)候,起訴訟仍在跟進(jìn)。

此次爭議依據(jù)1990年頒布的美國殘疾人法案,該行為是違法的。如果訴訟成功,法院不得不就招聘公司或Knoros是否違反美國殘疾人法做出判決。

這是個(gè)非常極端的案例,但是把它聚焦到我們的日常生活中,其實(shí)非常常見。

大數(shù)據(jù)是沉默的。沒有人會像欣賞風(fēng)景一樣看待數(shù)字,觀察數(shù)據(jù)要根據(jù)預(yù)先建立的觀察角度、模型和分類方式來完成。

而當(dāng)算法承載著人的意識去做出相應(yīng)的有失偏頗的選擇時(shí),錯(cuò)誤究竟在人還是算法?

然而,你問問自己事情為什么會這么復(fù)雜嗎?

當(dāng)你了解到,互聯(lián)網(wǎng)巨頭的戰(zhàn)略就是讓用戶產(chǎn)生依賴性時(shí), 一切仿佛都有了答案。

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多