人與技術的交互作用是一個雙向互動的過程。人工智能技術的廣泛使用重塑了各行各業(yè)的發(fā)展生態(tài),也在不斷顛覆人們對于世界的固有認知。智能技術在給人們的生活帶來便利與福利的同時,也派生出了許多問題與挑戰(zhàn),倘若無法對其進行有效地引導與調(diào)控,其潛在成為異己力量的風險便會增大。馬克思從技術倫理的視角透析、審視和反思了技術異化的問題,這對應對智能技術異化的風險與挑戰(zhàn)具有重要指導價值。
一、馬克思對技術異化的多維闡釋
異化這一概念源自于拉丁文“Alienatio”和“Alienare”,在馬克思的著作中表示為德文“Entfremdung”,含有轉(zhuǎn)讓、疏遠、脫離、差異之意。技術異化,是指原本服務于人類勞動實踐的創(chuàng)造物——技術,在人類利用技術改造自然以滿足自己需要的過程中超出人類的控制,成為外在力量反過來奴役、控制、支配主體本身,對主體產(chǎn)生了負影響,主體活動的結果轉(zhuǎn)變成了與主體相異化的力量,并開始反過來控制和壓抑主體本身。馬克思的技術異化理論是圍繞“勞動異化”展開的,從工人的角度對資本主義制度下的勞動過程進行了考察,馬克思認為在資本主義生產(chǎn)條件下,生產(chǎn)資料由資本家私人占有,機器化大生產(chǎn)進一步加劇了資產(chǎn)階級與工人階級的貧富分化,最終導致了勞動異化的出現(xiàn)。人類創(chuàng)造出機器本來是為了使人的生產(chǎn)和生活變得更美好,但異化使得機器成為了異己的力量,人類被機器控制,受機器約束。
(一)技術異化的表征與特點
從生產(chǎn)實踐看,技術異化使人成為機器的簡單附屬品。現(xiàn)代工業(yè)發(fā)展進程中,生產(chǎn)方式的改變導致機器與工人成為直接競爭者,許多工人被生產(chǎn)效率高的機器所排擠,失去工作。隨著機器的應用推廣,勞動對體力要求降低,反而對手指靈活程度和看管機器細心程度的要求提升,成年男工的勞動也就愈發(fā)受女工勞動和童工勞動的排擠,“對工人階級來說,性別和年齡的差別再沒有什么社會意義了”[1]39。此外,分工程度的增加使工人的勞動毫無內(nèi)容。機器的使用簡化了作坊內(nèi)部工人的職能,生產(chǎn)過程中的智力同體力相分離,工人在生產(chǎn)過程中所承擔的只是一些極其簡單、單調(diào)和重復的操作,工人可以從一種機器調(diào)到另一種機器上去,人的作用變得越來越有限,無法發(fā)揮自己的體力和智力作用。隨著產(chǎn)業(yè)革命的不斷推進,工人之間的分工愈來愈細,各種不同的勞動逐漸趨于一致,每個工人的活動變成一種簡單老套、機械的操作,工人幾乎完全變成了簡單的機器,“終生變成局部機器的一部分”[2]321。此外,“把未成年人變成單純制造剩余價值的機器,就人為地造成了智力的荒廢”[3],人的視覺范圍越來越單向度,到最后完全把智力閑置起來,從而使工人完全依附于機器生存。
(二)技術異化的影響與沖擊
從社會影響看,技術異化使人的社會關系受到?jīng)_擊。一是個體的家庭關系被破壞。由于機器工作的特點,成年男工被女人和小孩替代。婦女成為社會生產(chǎn)的積極參與者并不是一件壞事,但是在資本主義生產(chǎn)條件下整個工人家庭是被監(jiān)禁在工廠中的,為資本家進行強制勞動,機器把工人家庭成員都拋到勞動市場上,不僅是兒童游戲的時間被剝奪、所要接受的應有教育變得可有可無,而且家庭本身通常所需要的、在家庭范圍內(nèi)從事的自由勞動的時間也被占有,“孕婦一直要工作到分娩,婦女不會料理家務,家庭和孩子無人照管,不關心甚至討厭家庭生活,道德敗壞”[4]486。技術和機器系統(tǒng)越是發(fā)達,在家庭勞動中越是暴露出機器和技術的對抗性。二是技術異化使人失去自主性,造成了人的片面發(fā)展。在《1844年經(jīng)濟學哲學手稿》中馬克思指出勞動作為人的類本質(zhì)是自由自覺的活動,但是隨著技術的發(fā)展,機器不斷進步,工人操作機器付出的勞動變得愈發(fā)被動,他們展現(xiàn)出對機器的適應性和從屬性,在勞動中無法確證自己而是否定自己。在工廠的整個生產(chǎn)過程中,工人只參與了其中的一小部分,結果是他既不能把握與整個生產(chǎn)過程的一致性,也不能與最后的產(chǎn)品發(fā)生同一關系,勞動對工人來說變成了外在的東西,勞動不屬于他的本質(zhì)存在,在其中工人喪失了自由的發(fā)言權和行動權,無法獲得肯定也失去了任何享受,“工人對自己勞動的最后的自我滿足消失了,在這里,由于這種勞動本身乏味而使人十分淡漠”[5],不幸代替了幸福,這時的勞動不再為實現(xiàn)人類的真正需要,而只是滿足于外在于他自己的某種需要的手段。三是技術異化誘發(fā)經(jīng)濟危機。在資本增殖的邏輯下,除了工人階級被機器工具所奴役,資產(chǎn)者也被其所占有的資本和利潤追求所奴役。資產(chǎn)階級為滿足增殖的欲望,不斷殘酷剝削勞動者,然而被雇傭的工人出賣勞動力之所得,并不能滿足自身基本支付能力的需求,資本增殖受到了消費能力的限制,但生產(chǎn)并沒有停止,且生產(chǎn)的規(guī)模越來越大,這樣便導致無論資本主義怎樣擴大它的領地,也不能為這些商品找到相應的市場銷路,從而使得資本主義的生產(chǎn)與消費之間產(chǎn)生了嚴重的脫節(jié)和矛盾,陷入生產(chǎn)過剩的社會瘟疫,最終導致周期性的經(jīng)濟危機。
(三)技術異化產(chǎn)生的根源
馬克思透過機器的應用、技術的發(fā)展,揭示物對人的奴役,揭露人對人的統(tǒng)治,批判為技術異化提供服務的資本主義制度本身?!拔覀兊囊磺邪l(fā)現(xiàn)和進步,似乎結果是使物質(zhì)力量具有理智生命,而人的生命則化為愚鈍的物質(zhì)力量”[6]。馬克思認為,機器技術本是中立的,其造成的善或惡的結果取決于人們?nèi)绾螒?,“一個毫無疑問的事實是:機器本身對于工人從生活資料中'游離’出來是沒有責任的”[7]508。
現(xiàn)代社會中技術和資本在邏輯關系上存在著共契與互構。在資本主義生產(chǎn)條件下,技術成為資本推動資本增殖的“助推器”,成為掠奪工人剩余價值的工具。資本對剩余勞動的需求是無止境的,而技術的更新發(fā)展,即機器的應用使勞動成本大幅降低、勞動生產(chǎn)率大幅提高,機器成了社會生產(chǎn)的支配原則,“一切資本主義生產(chǎn)既然不僅是勞動過程,而且同時是資本的增殖過程,就有一個共同點,即不是工人使用勞動條件,相反地,而是勞動條件使用工人,不過這種顛倒只是隨著機器的采用才取得了在技術上很明顯的現(xiàn)實性”[7]487。工人甚至拿著相同的工資,但完成了之前一倍的工作量,在生產(chǎn)過程中被悄無聲息地掠奪??v觀工廠手工業(yè)到機器大工業(yè)的發(fā)展進程,正是借助機器及機器系統(tǒng)的發(fā)展與應用,資本的擴大再生產(chǎn)大大加快。工業(yè)革命機器工廠的生產(chǎn)方式極大地解放了生產(chǎn)力,生產(chǎn)速度得到提升,生產(chǎn)的規(guī)模也在不斷擴大。隨著資本主義的發(fā)展,生產(chǎn)和貿(mào)易成為世界性的,世界市場迅速擴大,社會分工逐漸加深,經(jīng)濟聯(lián)系日益密切,生產(chǎn)的社會性就隨之增強,這就客觀上要求社會占有生產(chǎn)資料,依據(jù)社會的需求調(diào)節(jié)生產(chǎn)。但是在資本主義生產(chǎn)條件下,資產(chǎn)階級的剝削統(tǒng)治使得大量的勞動者失去生產(chǎn)資料,依靠生產(chǎn)資料的私有壟斷而壓迫勞動者,并在生產(chǎn)中不斷追求剩余價值,生產(chǎn)經(jīng)營也由資本家所決定,位于社會底層的工人階級并沒有隨著社會中物質(zhì)財富的增長而富裕,而是一無所有,為了生存只剩下勞動力可以出賣,使勞動在現(xiàn)實中走向異化。此外,在資本主義體系內(nèi)部,所有提高社會勞動生產(chǎn)力的方法都是靠犧牲工人個人來實現(xiàn)的,工人在生產(chǎn)過程中變成局部的人,受勞動折磨,工人的生活時間被壓榨為勞動時間。其家庭情感也在資本膨脹的過程中變得不堪一擊,“資產(chǎn)階級撕下了罩在家庭關系上的溫情脈脈的面紗,把這種關系變成了純粹的金錢關系”[1]34,其他情感關系更為如此,資本成為現(xiàn)代社會情感的黏合劑。“社會是由于構成社會物質(zhì)基礎的勞動群眾得不到發(fā)展而發(fā)展的,也就是在對立中發(fā)展的”[8],資本在這一過程中利用技術剝奪人自由發(fā)展的時間和空間,使人的生理心理畸形發(fā)展,反過來卻用工人勞動所創(chuàng)造的巨大物質(zhì)財富和價值推動整個社會的進步與發(fā)展。
(四)消解技術異化的路徑
馬克思強調(diào):“一方面,機器成了資本家階級用來實行專制和進行勒索的最有力的工具,另一方面,機器生產(chǎn)的發(fā)展為用真正社會的生產(chǎn)制度代替雇傭勞動制度創(chuàng)造必要的物質(zhì)條件?!盵2]357資本主義的生產(chǎn)方式是以雇傭勞動為基礎,生產(chǎn)資料與勞動者是相分離的,使得勞動者出賣勞動力,但無法得到勞動的產(chǎn)品,只能獲得勞動的少量工資,資本主義私有制從根本上無法適應社會化大生產(chǎn)的需要,資產(chǎn)階級的關系狹窄到無法容納其本身創(chuàng)造的財富,無法容納它所呼喚出的強大的生產(chǎn)力,自身無法解決其對抗性的矛盾,也就是說,生產(chǎn)力的迅速發(fā)展已經(jīng)發(fā)展到私有制不能駕馭的程度,使得資產(chǎn)階級的所有制失去了存在的基礎。對于資本主義的內(nèi)部矛盾即生產(chǎn)的社會化與生產(chǎn)資料私人占有之間的矛盾,就是要變革其生產(chǎn)關系,取代資產(chǎn)階級的私有制。只有實行公有制,勞動者共同占有生產(chǎn)資料,使原料、機器、工具等生產(chǎn)資料不再被壟斷起來作為統(tǒng)治和掠奪工人的工具,才能令自愿自覺進行的聯(lián)合勞動取代受壓迫的勞動,從而使勞動者獲得解放。所以真正要保障勞動者的個人權益,就必須實行公有制、集體所有制,保證勞動者共同享有集體勞動成果的權益,避免多數(shù)人的勞動變?yōu)樯贁?shù)人的財富,從而確保勞動成果為勞動者所有,消滅資產(chǎn)階級特權,讓所有的人都在同一起跑線上,真正實現(xiàn)自由聯(lián)合的勞動解放,“勞動一解放,每個人都變成工人,于是生產(chǎn)勞動就不再是一種階級屬性了”[9]。
二、智能技術異化的風險挑戰(zhàn)
當前,智能技術異化具有馬克思所論述的技術異化的一般特征,同時也呈現(xiàn)出了諸多新形態(tài),帶來了新的風險挑戰(zhàn)。
(一)個人:成本與效率的壓迫阻礙自我實現(xiàn)
1.智能技術對人的勞動擠占,加劇社會分工的對抗性,迫使人成為勞動的附屬品。
首先,人工智能技術的應用強化了社會分工體系,機器排擠工人呈現(xiàn)新樣態(tài)。人工智能面對龐雜的信息庫,其處理效率是人類個體難以企及的,其學習輸出的速度也是難以想象的,將其應用于生產(chǎn)領域可以實現(xiàn)部分生產(chǎn)自動化,從而大大節(jié)省人力和時間成本,卻進一步降低了生產(chǎn)對于勞動者數(shù)量及其技能的依賴程度,強化了分工體系。馬克思和恩格斯在《德意志意識形態(tài)》中指出:“只要分工還不是出于自愿,而是自然形成的,那么人本身的活動對人來說就成為一種異己的、同他對立的力量,這種力量壓迫著人,而不是人駕馭著這種力量?!盵10]165智能技術廣泛運用于社會生產(chǎn)、社會生活,極大縮短了社會橫向分工。人工智能對勞動者的替代性越來越強,勞動力在生產(chǎn)要素中的競爭力下降,普通勞動者的生存狀態(tài)并不會得到很大的改善,這是馬克思技術異化理論中機器排擠工人在智能社會中的新表現(xiàn)。其次,智能技術的異化加重了對核心技術的壟斷,縱向分工作差異擴大。高水平的復合型人才處于智能技術的最前沿,占據(jù)產(chǎn)業(yè)鏈價值量的較大比例,他們對尖端技術的壟斷使得縱向分工出現(xiàn)斷裂且差距不斷拉大?!懊總€人或一切人都應不受阻礙地發(fā)展”,但在這樣的分工體系中,只有少部分的行業(yè)領軍者或尖端企業(yè)能夠受益,社會中產(chǎn)階級被固定于狹窄的行業(yè)領域,底層勞動者面對被排擠出社會分工體系的生存風險,人的行業(yè)主體性被破壞。這也正如馬克思所言:“一些人靠另一些人來滿足自己的需要,因而一些人(少數(shù))得到了發(fā)展的壟斷權;而另一些人(多數(shù))經(jīng)常地為滿足最迫切的需要而進行斗爭,因而暫時(即在新的革命的生產(chǎn)力產(chǎn)生以前)失去了任何發(fā)展的可能性。”[11]其中這大多數(shù)人只能麻木地以簡單的形式互動,適配人工智能的運行體系以加快資本生產(chǎn)效率,與馬克思在《哲學的貧困》中所揭示的一樣“現(xiàn)代工廠主的最大目標,就是通過科學和資本的結合,將工人的作用降低到僅僅使用他們的注意力和靈敏性”[10]248。
2.智能技術對人的勞動壓迫,模糊勞動與休閑的界限,刺激人產(chǎn)生焦慮感。
人工智能等數(shù)字技術加速數(shù)字化生產(chǎn),加劇資本與技術對人的雙重壓迫。數(shù)字技術的革新讓人們對于高速、精確、完美的追求程度愈發(fā)苛刻,但這對效率與成果的強制追求正在摧毀那些富有生產(chǎn)力的人類存在與共在空間,工作和休閑時間不再有明確的界限,勞動強度和勞動時間不減反增,人們進行創(chuàng)造的豐富可能性變得單一、扁平。人們在有限的時間內(nèi)為了獲取更大競爭優(yōu)勢,會將本該用于休閑的時間用以生產(chǎn)勞動,在這個過程中,始終處于匆忙狀態(tài)下的勞動者衍生了對時間把握的失控感和匱乏感,從而陷入緊張與焦慮之中,產(chǎn)生自我懷疑與自我否定,勞動的幸福感與成就感被沖淡,人們無法在勞動中肯定自身的價值。
(二)社會:偏見與私欲的裹挾弱化公平治理
1.智能技術鴻溝延展了區(qū)域間的橫向發(fā)展差距,為國家治理帶來新挑戰(zhàn)。
人工智能的應用加強了世界之間的聯(lián)系,但由于信息化發(fā)展水平不同,不同國家、不同主體對于人工智能等數(shù)字技術的擁有、掌握與運用并非都是自如全面的,即并非所有人都能接觸并享受到技術發(fā)展帶來的福利,由此產(chǎn)生了大量的“數(shù)字貧困地區(qū)”和“數(shù)字窮人”,這也就是數(shù)字鴻溝所帶來的技術制約。數(shù)字弱勢者被動地適應著智能技術的發(fā)展趨勢,再加上處于數(shù)字邊緣化的群體的生活狀況、現(xiàn)實訴求、觀點想法又很難通過現(xiàn)代技術進入到?jīng)Q策者及管理者的視野,這也就導致出現(xiàn)了新的治理盲區(qū),“從資本邏輯的視角出發(fā),弱勢群體不能創(chuàng)造價值,或者說信息技術適用這部分人群所帶來的利潤空間較小,因此,科技企業(yè)及資本集團在普及信息技術的過程中,刻意回避了一部分弱勢人群”[12],這就更難實現(xiàn)合理的資源配置。同時,在智能社會的發(fā)展前期,人工智能的核心算法、數(shù)據(jù)等都掌握在少數(shù)人手中,正是由于這種技術隔閡,他們不僅具有技術先發(fā)、市場先占的優(yōu)勢,還形成技術與市場壟斷,通過數(shù)字技術的應用開拓更為廣闊的社會關系網(wǎng)絡,將數(shù)字化的社會資本轉(zhuǎn)化為新的經(jīng)濟資源、社會資源,形成強者愈強、弱者愈弱的效應。當技術和資本被別有用心的人所利用,轉(zhuǎn)化為社會治理的工具,如果研發(fā)成果是惡意的、自動的、并能夠通過經(jīng)驗學習成長的人工智能,它便會變得不可戰(zhàn)勝、無法阻止,引發(fā)社會治理問題。
2.智能技術偏見、技術的遮蔽導致社會治理中的公正缺失和責任主體的模糊。
技術偏見是技術異化的又一呈現(xiàn)形式?!捌娛侨藗冊谏鐣J知過程中形成的偏向于某一方面的、阻礙人們對社會心理信息進行正確表征和加工的一種負向態(tài)度”[13]261。這些偏見事先形成了人們對一事物的基本認知,從而影響著人類的決策與判斷?,F(xiàn)代人工智能技術這一看起來彰顯著公平與正義的技術常被人們用來參與甚至代替決策,但其實這些數(shù)據(jù)算法中不可避免地包含了主觀偏見:一是包含在輸入的數(shù)字系統(tǒng)中的人類長久存在的自身偏見;二是編程人員的初始價值觀偏見。當這些帶有偏見或不完善的智能技術投入到廣泛生產(chǎn)和應用中時,便會造成不公正的結果,帶來矛盾與沖突。相比于個體化的個人偏見,人工智能中所隱藏的偏見影響是系統(tǒng)化、長遠化的,因為在人類過去和當下的生活世界中,這樣或那樣的偏見一直在場。人工智能正是通過收集學習人類實踐的經(jīng)驗,產(chǎn)生新的結果。當人工智能不斷“深入學習”及被用以預測未來時,帶有歧視或偏見的結果也會不斷強化,算法依據(jù)過去的數(shù)據(jù)與模型進行計算,其固有局限與偏見歧視會進行交互作用,形成一個“自我實現(xiàn)的歧視性反饋循環(huán)”[13]262,算法會進一步延續(xù)和固化這些偏見和歧視,呈現(xiàn)出乘積式的“放大效應”[14]。
技術的遮蔽導致人工智能在社會治理中責任主體模糊。在行動哲學中,如果行為主體需要為行動后果承擔倫理責任,需要滿足可控性的原則。其一,能動性,因為行動是行動主體有意識的能動性活動,行為主體應該為某種行為后果承擔相應的倫理責任;其二,因果性,行動者的行為和結果具有因果關聯(lián)性。如果技術研發(fā)者的意愿及行動與最終的實踐結果在很大程度上無法保證一致,甚至有可能出現(xiàn)相悖的情況。也就是說,技術的復雜性及開發(fā)與應用中產(chǎn)生的不可控因素并不能滿足可控原則的要求,無法對主體的倫理責任進行追溯與定位。目前,關于人工智能的相關法律法規(guī)仍存在較大的空白。人工智能是一種計算形式,主要是分析處理大數(shù)據(jù)來進行學習、推理、判斷或決策等,被應用于多個生產(chǎn)生活領域,但是在這一過程中也伴生了泄露用戶個人隱私、危害公共安全等多種風險問題。比如人工智能代替人類行動后所引發(fā)的交通事故、醫(yī)療事故,以及生成式人工智能通過模仿他人知識成果融合生成的文化作品侵權問題等等,形成了技術倫理難題,即因為技術的不完善性與缺陷性所造成的不良后果該由誰來負責及如何負責。智能技術的核心算法被少數(shù)人掌控,倘若設計開發(fā)與應用者有其他不正當?shù)钠髨D,技術門檻使得非專業(yè)領域的人很難發(fā)現(xiàn)或?qū)ζ湄熑芜M行評判或劃定。
(三)國家:資本與技術的合謀威脅意識形態(tài)安全
智能技術的異化超越傳統(tǒng)技術異化的空間范疇、時間范疇,滲透進入意識形態(tài)領域,對個人價值觀的形成和社會主流價值體系的建構產(chǎn)生影響。
1.智能技術被資本操縱形成異化,威脅國家意識形態(tài)安全。
人工智能時代,資本依賴技術的發(fā)展“發(fā)生了全球化和虛擬化的雙重轉(zhuǎn)向,其中,空間生產(chǎn)的虛擬化進一步深化和提升了空間生產(chǎn)全球化的結構和水平”[15],技術也借助資本的力量追求更高的效益,資本的逐利性、擴張性與技術的高效率和精確化在很大程度上可以契合發(fā)展,正如馬克思所指出的:“科學獲得的使命是:成為生產(chǎn)財富的手段,成為致富的手段?!盵16]但是,當技術異化超越了技術的范疇進入意識形態(tài)領域,資本對意識形態(tài)的控制轉(zhuǎn)化為了資本控制下的技術對意識形態(tài)的牽引和控制。網(wǎng)絡空間便是資本空間生產(chǎn)的新形式和新產(chǎn)物。網(wǎng)絡空間作為一個相對開放的場域,紛繁錯綜的思想與價值在此碰撞交鋒,但是資本的增殖性驅(qū)使著某些信息資源與生產(chǎn)要素選擇性地向能產(chǎn)生高額利潤的方向流動,一定程度上左右著網(wǎng)絡空間的話語權力和輿論資源分配。同時,資本的全球化各領域擴張使得網(wǎng)絡文化發(fā)展的價值導向出現(xiàn)偏差。資本在國家、社會和個體意識領域中呈現(xiàn)出更加強大的控制力,嚴重威脅著國家的意識形態(tài)安全。
2.智能技術異化解構主流價值體系的社會引領力和價值塑造力。
一是技術被意識形態(tài)滲透,呈現(xiàn)技術異化的新形態(tài)。“實際上,機器就是機器,在批判中,機器卻有意志:機器不休息,工人也不能休息,所以工人是受外來意志支配的”[4]14。技術本身不具有意識形態(tài)屬性,技術的意識形態(tài)取向于使用技術的人。當技術被注入意識形態(tài)屬性,甚至成為意識形態(tài)傳播的工具,這就意味著技術的功能被異化,將其轉(zhuǎn)化為意識形態(tài)斗爭的工具。技術的廣泛使用和迅猛傳播使得技術的功能異化被更廣泛地擴大,技術成為了意識形態(tài)攻擊、滲透的重要手段和方式。技術功能被異化導致多元意識形態(tài)滲透能力增強,而主流意識形態(tài)的引導力與凝聚力將受到巨大沖擊,例如運用技術異化對馬克思主義進行曲解,對中國特色社會主義道路進行攻擊、對中國特色社會主義政治制度進行質(zhì)疑,對中國特色社會主義偉大建設成就進行抹黑,對中國特色社會主義外交政策進行棒殺,各種“反馬”的錯誤思潮充斥技術空間,使得馬克思主義在意識形態(tài)領域的指導地位面臨挑戰(zhàn)。二是經(jīng)濟結構的轉(zhuǎn)型帶來價值觀念的世俗化?!笆袌鼋?jīng)濟不僅是一種物質(zhì)力量,也是一種強大的精神力量,它不斷滲透到人們的精神生活中,不斷改變整個時代的精神風貌和思想肖像”[17]。在消費主義和市場雙向作用下,互聯(lián)網(wǎng)巨頭憑借數(shù)據(jù)資源與關鍵技術的加持,設置符合資本邏輯的算法規(guī)則與價值判斷,有針對性地推送用戶偏好的內(nèi)容與商品,網(wǎng)絡個體深陷其中而不自知,這使得享樂主義、拜金主義、消費主義在網(wǎng)絡空間蔓延,極大消解了社會公眾對主流意識形態(tài)的價值認同。
三、智能技術異化的應對策略
技術的發(fā)展使人類逐漸從繁重的體力勞動中解放出來,改善了人類的生活環(huán)境和生活質(zhì)量,重新塑造了人們的生活與思維方式。但是,實踐中,技術往往超越設計者的意圖、挑戰(zhàn)人的道德底線、價值觀念和社會倫理。智能社會,要充分發(fā)揮人的主觀能動性,積極預防化解技術異化帶來的挑戰(zhàn)和沖擊,對現(xiàn)代技術的應用作出相應的引導與規(guī)范。
(一)立足本我,構筑智能創(chuàng)新發(fā)展戰(zhàn)略和監(jiān)督管理機制
1.立足本我、自主創(chuàng)新,全面實施人工智能創(chuàng)新發(fā)展戰(zhàn)略。
技術是有意識形態(tài)屬性的,它的意識形態(tài)屬性取決于研發(fā)技術的人、使用技術的人的意識形態(tài)取向。削弱西方智能技術內(nèi)容設定和意識形態(tài)滲透的需要,我們必須立足自我,加強自主創(chuàng)新進程,把核心技術掌握在自己手中,從而掌握競爭和發(fā)展的主動權,從根本上保障國家網(wǎng)絡安全、意識形態(tài)安全和其他安全。一是啟動實施《人工智能驅(qū)動創(chuàng)新發(fā)展戰(zhàn)略》,做好我國人工智能發(fā)展的長遠規(guī)劃和戰(zhàn)略布局,明確人工智能發(fā)展的路線圖、時間表、發(fā)展路徑。二是政府統(tǒng)籌,發(fā)揮政府統(tǒng)籌協(xié)調(diào)作用,抓好人工智能前瞻性、源頭性技術方面的布局規(guī)劃和人才積累。以《人工智能驅(qū)動創(chuàng)新發(fā)展戰(zhàn)略》為抓手,發(fā)揮社會主義制度集中力量辦大事的政治優(yōu)勢,大力開展人工智能技術協(xié)同創(chuàng)新,集中全國優(yōu)勢科研力量,抓制約人工智能發(fā)展的卡脖子問題、抓人智能創(chuàng)新發(fā)展的尖端問題、抓計算機算法、基站等基礎研究和基礎設施建設,形成推進人工智能自主創(chuàng)新的強大合力。三是加強數(shù)學、物理、計算機算法等基礎性學科建設、增強原始性專業(yè)基礎理論突破,加強機器人、語言識別、圖像識別、自然語言處理等相關專業(yè)建設,加強人工智能科學基礎研究的深化,保證基礎性、系統(tǒng)性、前沿性技術研究和技術研發(fā)持續(xù)推進,強化人工智能自主創(chuàng)新成果的源頭供給。四是國家支持建設一批重大的人工智能科研基礎和協(xié)同創(chuàng)新平臺。政府牽頭匯聚優(yōu)勢企業(yè)、科研院所、高校等創(chuàng)新力量,協(xié)同推動人工智能基礎理論、模型方法、基礎軟硬件研究,建設若干服務和支撐人工智能前沿基礎理論和關鍵技術創(chuàng)新發(fā)展的協(xié)同創(chuàng)新平臺。
2.筑牢技術應用中的監(jiān)管安全防線,確立明確周密的法律規(guī)范與問責機制。
當人工智能等技術嵌入產(chǎn)品和服務中時,會給用戶帶來不同于傳統(tǒng)產(chǎn)品責任風險的新的安全風險。這些風險可能由智能技術本身的設計缺陷造成,或與數(shù)據(jù)可用性和數(shù)據(jù)質(zhì)量有關,也可能與研發(fā)者主觀意向引發(fā)的問題有關。一是形成嚴格的行業(yè)規(guī)范。在我國已先后頒布了《網(wǎng)絡安全法》《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等法律法規(guī),針對人工智能技術和算法技術濫用規(guī)定了詳細的法定義務和監(jiān)管體系,但仍要加強研究如何對人工智能的安全風險進行準確分類,構造具有對應性的分類體系,并制定好相應的應急管理機制,以此強化企業(yè)行業(yè)規(guī)范,對于技術濫用等行為加大處罰力度,形成切實可行的監(jiān)管措施。針對數(shù)據(jù)泄露等問題,要加強數(shù)據(jù)隱私保護、數(shù)據(jù)安全保障及規(guī)范的數(shù)據(jù)共享與使用機制。其中,由于技術的復雜性與專業(yè)性,普通用戶難以實現(xiàn)對數(shù)據(jù)泄露、算法偏見等技術應用中的問題準確察覺及有效監(jiān)督,這就要求科研單位或其他非營利性的組織機構進行第三方的審核,強化行業(yè)內(nèi)的規(guī)范引導。二是強化問責性原則。目前法學界主流觀點認為,因人工智能的被動性及價值中立性,尚不具備法律主體地位,人作為責任主體,要對人工智能技術誤用或濫用后果擔責。因此,要設置完善有效的問責機制以及風險溯源的可追溯機制,在人工智能產(chǎn)品投入市場之前進行安全風險評估,在運行過程中及時監(jiān)控,這一監(jiān)測審查過程是動態(tài)持續(xù)的,要貫穿人工智能的“全生命周期”,以確保風險可控。在人工智能運行或產(chǎn)出時出現(xiàn)偏向與風險時,要及時啟動應急管理以盡可能降低影響,嚴控技術風險,保障安全底線。
(二)貫徹以人為本的價值理念,推進自我調(diào)適與自我實現(xiàn)的智能導向
1.推動技術賦能,強化個人智能技術應用能力。
面對日益復雜、日趨強大的人工智能等技術,要始終堅持人在社會實踐中的主體地位,要培養(yǎng)公眾的信息素養(yǎng),客觀判斷、科學分析技術的價值、作用和功能,強化技術賦能人的全面發(fā)展、 服務人的全面發(fā)展的功能,跳出技術駕馭人、凌駕于人的技術發(fā)展誤區(qū),修正技術異化的現(xiàn)實境況。同時,強化人的技術素養(yǎng),在現(xiàn)代教育中強化人工智能、大數(shù)據(jù)等技術普及教育,提高社會公眾的數(shù)字能力素養(yǎng),注重對勞動者的數(shù)字勞動技能培訓和教育,推動技術資源實現(xiàn)跨層級與跨行業(yè)的流動與共享。一是完善智能技術迅速發(fā)展下的人才培養(yǎng)機制。人工智能愈發(fā)強大的信息檢索、數(shù)據(jù)分析、推理判斷等技術發(fā)展對現(xiàn)代教育提出新的要求,對人才培養(yǎng)能力提出新的目標,要加大有針對性的教育內(nèi)容與教育形式,擴大智能教育的受眾群體,提高其自身競爭力,使人民群眾在面對不同的崗位、職業(yè)時有更豐富的機會與選擇。加強統(tǒng)籌協(xié)調(diào),加快人工智能同社會發(fā)展深度融合的戰(zhàn)略布局,凝聚人才、科研、產(chǎn)業(yè)與資本的優(yōu)勢力量,形成“學研產(chǎn)用”的創(chuàng)新鏈條。同時,面對失業(yè)率增加的風險,人力資源和社會保障部門要建設信息服務平臺,督促企業(yè)定期組織勞動者的技能培訓,為勞動者提供更多的技能學習機會,對于“數(shù)字弱勢群體”給予稅收減免、財政補貼等相應的政策幫扶。二是推進人工智能技術運用的普惠化教育。面對不同的家庭背景、學歷背景及不同工作崗位的各類群體,要有針對性地開展更廣泛的人工智能等技術科普公益活動,以及利用新媒體平臺進行教育宣傳,提升全民受教育的程度,推進數(shù)字素養(yǎng)培育融入到社會教育中,將進入智能社會的焦慮及面對未知風險的恐懼轉(zhuǎn)化為提升公民理性批判思維的能力及信息素養(yǎng)的動力,提高人們面對先進技術的主體能動性和創(chuàng)造性,更好地享受智能社會所帶來的發(fā)展成果。
2.以人為本,形成公平的智能資源分配架構。
技術的發(fā)展進一步促進了人類交往共同體的壯大發(fā)展,個體所做的行為決定不能被單獨割裂地看作私人的選擇,而要在分配和實現(xiàn)公共利益的“公域”中加以考量。對于創(chuàng)新性技術的開發(fā)與應用應基于全面的社會調(diào)查,廣泛聽取社會聲音,客觀衡量利弊,預先進行風險評估,構建具有前瞻性的安全監(jiān)測體系,并規(guī)定人工智能風險治理責任的落實。堅持群體智慧優(yōu)先于個體智慧的原則,加強技術研究工作者與社會各主體的協(xié)商,減少“數(shù)字失聲”等情況。在設計研發(fā)過程中難免會出現(xiàn)分歧,“最好的辦法莫過于普遍參與,在自我表達與多方傾聽中理智權衡利弊,最終達成普遍接受和認可的共識并且認真地實踐這一共識,共同維護公共利益”[18]。其中,要積極推進智能技術資源及權益的公平分配。通過多元主體平等地協(xié)商與合作,對技術與社會發(fā)展可能沖突的各方面因素進行權衡,堅持公平正義原則,周密審慎地分析,加強自我約束,在“共善”目標下尋求公共利益,推進智能技術資源及權益的公平分配。
(三)聚焦技術創(chuàng)新的發(fā)展路徑,強化陣地建設與話語傳播的智能支撐
1.加快智能技術自主創(chuàng)新,加強主流輿論陣地建設和管理。
現(xiàn)代信息技術的運用使人與人之間形成了一個全球式、開放式的交往體系,對信息的獲取突破了時空限制。面對資本逐利驅(qū)使下的錯誤價值觀滲透等挑戰(zhàn),從根本上講要牢牢把握核心技術的主動權和所有權,提升技術創(chuàng)新的硬實力,爭取在信息技術領域的話語權,謹防錯誤價值觀的滲透。同時加快基礎研究及創(chuàng)新成果向現(xiàn)實生產(chǎn)力轉(zhuǎn)化,突破并扭轉(zhuǎn)核心技術受制于人的被動局面。在此基礎上強化陣地建設,這樣面對內(nèi)外意識形態(tài)領域的風險挑戰(zhàn)時才能措置裕如。一是強化技術支撐風險預警機制。通過大數(shù)據(jù)收集、網(wǎng)絡智能分析等途徑實時監(jiān)測意識形態(tài)領域的熱點信息,及時發(fā)現(xiàn)異常狀態(tài)并進行準確的分析和研判,確定其安全風險的等級及動向,及時將信息反饋于相關部門,從而能迅速采取有效措施,避免風險持續(xù)升級。同時,要在人工智能等深度學習中及時引入可理解的技術審核規(guī)則,使其能夠?qū)W(wǎng)絡信息平臺中的內(nèi)容進行初步審核與篩選。二是突出技術完善在資本規(guī)制中的作用。對于網(wǎng)絡空間中資本對流量的無底線追捧,不僅需要制度政策加以規(guī)范,也需要技術支撐進行控制。目前,解決互聯(lián)網(wǎng)中惡意炒作、網(wǎng)絡水軍等煽動不良輿論的難題,法制監(jiān)管因難以取證追責而開展受阻,可以利用技術溯源查證等對不法行為進行打擊治理。
2.搭建立體式、融合式的傳播矩陣,聚焦主流價值體系內(nèi)容生產(chǎn)和傳輸。
強化主流價值體系的社會引領力和價值塑造力,需要培養(yǎng)和建設社會公眾的正確認識與價值認同,要求加快傳統(tǒng)媒體與新興媒體的深度融合,滿足社會公眾的精神生活需要,“充分運用新技術新應用創(chuàng)新媒體傳播方式,占領信息傳播制高點”,擴大主流意識形態(tài)影響力。一是堅持以圍繞“中國主體”為內(nèi)核的意識形態(tài)話語生產(chǎn)。把握網(wǎng)絡意識形態(tài)的主導權,需要充分凝聚社會共識,這一過程中始終要堅持以馬克思主義為指導,以社會主義核心價值觀為引領。更為重要的是,要立足“中國實踐”豐富話語內(nèi)涵,面對網(wǎng)絡中暗流涌動的各種西方錯誤價值觀及各類社會思潮,要用堅實的事實基礎結合理論闡釋,揭露其虛假的本質(zhì),并善于將現(xiàn)實中的“中國問題”同人民大眾的“個人需求”相結合設置話語主題,增強話語、理論的現(xiàn)實力、吸引力,使馬克思主義意識形態(tài)在解決問題中深入人心、增進認同。二是堅持以講好“中國故事”為主線的意識形態(tài)話語傳播。講好中國故事,前提在于講清,這就需要加快構建自主知識體系作為學理支撐,理順其中的邏輯道理,將中國思想、中國理念概念化、體系化、系統(tǒng)化,再進行創(chuàng)新性話語表達,主流媒體與商業(yè)媒體有機配合,打破信息圈層隔閡,形成國內(nèi)領域全覆蓋的主流意識形態(tài)話語傳輸平臺。同時,拓展海外傳播平臺,積極營造有利的國際輿論環(huán)境,化被動為主動,打造更多代表中國立場、中國聲音的外宣媒體,提升中國在國際事務中的議題設置能力,擴大中國的影響力和號召力,以中國理念回答世界之問,從而提升社會主義意識形態(tài)的吸引力。
(四)遵循智能向善的倫理原則,推進全球人工智能治理
2022年11月,中國外交部向聯(lián)合國提交《中國關于加強人工智能倫理治理的立場文件》,其中強調(diào)要“鼓勵國際合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規(guī)范”。2023年10月18日,我國發(fā)布《全球人工智能治理倡議》,其中核心內(nèi)容也包括“堅持相互尊重、平等互利,反對以意識形態(tài)劃線或構建排他性集團,惡意阻撓他國人工智能發(fā)展”,因為技術的發(fā)展不平衡以及技術強國對技術弱國的壟斷,各國亟需通過在人工智能領域開展跨國家、跨領域、跨文化的技術及法律等不同層面的交流與協(xié)作,堅持各國權利平等、機會平等、規(guī)則平等,增強發(fā)展中國家在人工智能全球問題中的發(fā)言權,就人工智能等技術發(fā)展帶來的國際問題展開廣泛討論,制定更加包容的數(shù)字發(fā)展戰(zhàn)略,確保各國共享人工智能技術惠益,并開展面向發(fā)展中國家的國際合作與援助,圍繞“共商、共建、共享”原則,實現(xiàn)互聯(lián)互通,破除技術強權帶來的不平等以及安全威脅,減少區(qū)域間的橫向發(fā)展差距,不斷彌合數(shù)字鴻溝和治理能力差距,推動各國共同參與國際人工智能倫理重大議題探討和規(guī)則制定,以達成全球普遍共識,致力于平衡共贏的經(jīng)濟全球化。
(作者簡介:劉愛玲,法學博士,中國社會科學院馬克思主義研究院副研究員、思想政治教育研究室主任)
(基金:國家社科基金項目“馬克思關于人的精神世界理論及其當代價值研究”(23BKS015)的階段性成果)
網(wǎng)絡編輯:同心
來源:《貴州師范大學學報(社會科學版)》2024年第2期
|
|