近年來,以大模型為代表的AI技術發展迅猛,掀起一波席卷全球的AI發展熱潮。關注AI發展狀況的人不限于AI的研發者、推廣者和AI發展的評論者、人文社科研究者,更包括深感生活將被AI深刻影響的普通公眾。AI發展的問題不再是純粹技術問題,而是成為某種意義上的公共議題。在最近OpenAI發布Sora、馬斯克開源Grok等一系列相關事件中,這一點表現得非常清楚。在各種相關公共討論中,AI發展現狀尤其受到關注,其中的基本問題是:當前AI發展的大方向是否有問題,未來應該朝什么方向前進。為此,組織計算機、經濟學、馬克思主義理論和哲學等領域的八位學者,對AI發展現狀進行跨學科反思以期拋磚引玉,求教于方家。
本系列文章共8篇,轉載自《科學·經濟·社會》2024年第2期,本文《警惕AI熱潮中的娛樂化趨勢》為第1篇。在文中,劉永謀和王春麗分析“AI宣傳術”的得失,認為目前AI發展出現娛樂化趨勢,必須以有限主義發展進路對之進行校準。
自ChatGPT橫空出世后,以大模型為代表的生成式AI技術發展迅猛。一石激起千層浪,社會各界聞風而動,GPT-4、Gemini1.5、Sora等各類生成式AI產品層出不窮,AI寫詩、AI換臉、AI占卜等小程序風生水起,以“AI奇點降臨”“AI覺醒”“AI失業”等炸裂性詞匯為主題的報道遍地開花,更有不少商家借雞生蛋,通過售賣“注水”的AI課程獲取暴利。
這股“AI熱”席卷全球的勢頭,不禁令人聯想起消退不久的“元宇宙熱”。在此起彼伏的宣傳和炒作中,無論是昨日之元宇宙還是今日之AI,均不再是純粹的科技概念,而是負載著政治、文化、經濟、社會等諸多層面問題的復雜要素集合。當前,AI發展存在著泡沫化、娛樂化過度商業化等脫實向虛的傾向,亟須冷靜對待、理性審度。有限主義發展進路認為,AI發展的根本宗旨是造福于人,與其在“AI是否具備道德、情感、意志”“AI是否會失控”“超級AI如何”等帶有幻想性的問題中瞻前顧后、過度擔憂,倒不如站在有限主義立場上,努力控制AI發展方向,真正思考是否要“控制AI",如何把握“控制AI”的分寸,確保AI發展以人為本,增進社會福祉。
一、“AI宣傳術”的得失
所謂“AI宣傳術”,即AI傳播過程中面向社會和大眾所采取的技術推廣策略。自AI技術問世至今,AI宣傳術層出不窮,直接參與并影響著半個世紀以來AI發展的迭代起落。從傳播學視角看,AI宣傳術頗為成功,并且隨著AI技術的進步與社會發展的提速,其造勢水平越來越高、普及效度越來越廣、滲透力度越來越強。
大致來說,AI宣傳術主要包括如下三種策略:一是科幻文藝敘事。在小說、動漫、動畫、影視作品中植入大量AI主題故事,通過人機友好共處、人機終極大戰等情節,將AI“覺醒”“高效”“超能”“神秘”“難以控制”“威脅性強”等鮮明特征灌輸給社會公眾。二是營造“偶像光環”。由與AI相關的企業主、工程師、科學家親自代言,扮演“超級科技英雄”角色,“圈粉”無數。如被譽為“ChatGPT之父”的奧特曼(Sam Altman)、因橫跨七個高科技創業領域而被稱為“硅谷鋼鐵俠”的馬斯克(Elon Reeve Musk)、因在AI領域的杰出貢獻和深遠影響力而被譽為“中國最杰出的未來主義者”李彥宏等人,他們通常具有極大的話語主導權與公眾信服力,能夠引領AI發展和輿論風向。三是制造熱點話題。擅長從心理學角度抓住受眾的癢點、痛點和弱點造勢,以達到理想宣傳效果,如類似“谷歌工程師宣稱計算機聊天機器人已經產生意識”“某人運用ChatGPT賺取百萬”的炒作內容,既能挑起受眾的焦慮,又能刺激人們的賺錢欲望。
從積極層面看,AI宣傳術十分必要且有效。之所以必要,是因為AI巨大社會沖擊已經顯現,必將引發深刻社會變革,公眾有必要理解AI、運用AI、掌握AI控制的主動權。之所以有效,則表現為AI宣傳術在助推AI概念迅速普及,AI應用全面推廣和AI產業有效“吸睛”“吸金”等方面的巨大作用。如今,AI文化已經成為當今流行文化的重要組成部分和AI產業研發的參考指南。甚至很多人認為,AI發展過程中的許多理念突破、技術創新,來自AI科幻小說的靈感加持,比如,阿西莫夫(Isaac Asimov)在1950年代的科幻小說中提出的“機器人三定律”,已然成為當前科技倫理政策制定的重要參照。
從消極層面看,AI宣傳術也導致一些明顯的問題。從根本上說,宣傳是一種有目的、有計劃的引導說服與觀念滲透。為了謀求宣傳效果,AI宣傳術存在著大量虛假夸張、言過其實、胡編亂造的現象。事實上,這種現象并非最近才有,早在20世紀60年代,德雷福斯(Hubert Dreyfus)便將過度的AI吹捧比作煉金術,提醒社會警惕甚囂塵上的AI熱潮。1990年代,羅斯扎克(Theodore Roszak)還曾用“皇帝的新裝”來形容計算機宣傳術的華而不實,認為背后是包括計算機科學家在內的相關利益群體為吸引大量資金而進行的炒作。Sora大模型的出現,更是從技術層面助推AI宣傳術走向‘高光時刻’,能輕而易舉地生產出大量失真且無意義的夸張或虛假內容。
展開來看,AI宣傳術至少存在如下負面效應:一是泡沫化。傳播內容華而不實,想象猜測代替邏輯判斷,杜撰臆想多于求證反思。大多數話題上一秒沸沸揚揚,下一秒不了了之,缺乏持續關注度與現實影響力。二是雷同化。傳播內容千篇一律,隨波逐流,多為“新瓶裝舊酒”式的模板套用,唯流量是從,對于客觀事實不甚了了。長此以往,社會公眾逐漸“審美疲勞”,甚至心生反感。三是娛樂化。敘事內容多為AI覺醒、人機大戰、人機戀愛等,大眾娛樂氣質明顯。敘事方式則多用調侃、搞笑、戲謔、恐嚇等魅惑性、碎片化表達,迎合當代社會的泛娛樂化趨勢。四是焦慮化。AI宣傳術抓住AI恐懼大做文章,不斷販賣社會焦慮。AI恐懼是由來已久的技術恐懼的一種。與之前的技術恐懼相比,AI宣傳術突出AI恐懼的特殊之處在于AI遲早要覺醒,以及很快會導致大規模的失業。在中國,還有一種特殊的AI恐懼,即恐懼中國AI發展會落后。每次砫谷AI公司發布一個新產品,國內就有人發表“中美AI差距拉大”“中國AI沒有原始創新”等言論。
波茲曼(Neil Postman)說,我們終會毀于自己所愛。在AI宣傳術營造的虛擬烏托邦中,AI文化被異化,沉浸于其中眼花繚亂、流連忘返、樂此不疲,實則難有收獲。短期內,大眾以“看客”身份“湊熱鬧”“圖樂呵”,以偏概全地將被異化的AI形象視為AI全貌,又或將對AI的認知局限在單純意義上的娛樂服務產品范疇,對AI究竟因何、是何、為何全然不知。長此以往,人類極易在AI宣傳術營造的這種消遣文化、片面語境中喪失判斷精神和思辨意識,在現實世界與虛擬世界的模糊邊界中忘乎所以,淪為AI世界的“虛擬人”甚至AI附庸。
二、AI發展的娛樂化趨勢
AI傳播以現實內容為基本依據,反過來也會影響現實AI發展。AI宣傳術盛行,折射出整個AI產業存在著泛娛樂化的危險。發展AI的初衷是幫助人類追求更為高效、高品質的生活,然而在不斷發展的過程中可能出現各種問題誤導其發展,使之背離發展AI的最初目標。
AI發展娛樂化是泛娛樂主義思潮的典型。這種思潮將趣味性、消遣性、享樂性作為生而為人的第一旨歸,推崇萬物皆可娛樂理念。波茲曼認為,當代社會存在著“娛樂至死”的趨勢。技術賦權、資本驅動和需求變遷是造成AI發展娛樂化趨勢的主要原因)。其中,技術賦權是邏輯支撐,得益于AI大模型底座能力的日趨強大,自然語言處理能力的日趨便捷和算法技術的日趨完善。而資本驅動是第一動因,無限擴張的資本逐利使AI產業遵循利潤增殖的邏輯,擁抱商業化、娛樂化、功利化。需求變遷則是AI發展娛樂化的重要誘因,即為滿足人類對生活情趣、娛樂旨趣和行為樂趣的無限追求,AI產業不得不主動迎合大眾娛樂心理與消費理念。
除AI宣傳術娛樂化外,當前的AI發展娛樂化趨勢至少還體現在研究方向、企業組織和評論研究的娛樂化等三個方面。
第一,研究方向娛樂化。追根溯源,從某種意義上說,本輪AI熱潮發跡于人機對弈的娛樂活動及其所引發的“AI覺醒”討論。由此,AI研發企業、團隊敏銳地發現,營造AI產品人格化通俗化娛樂化色彩,是AI產業“走紅”“吸金”利器。在利益的驅使下,一些AI產業從業者不再將研發著力點放至社會治理、智慧交通、智能制造等成本高、戰線長、關注度低的領域,轉而聚焦于AI寫“小作文”、生成視頻、虛擬陪伴甚至AI“復活”逝者等文化創意與服務業領域的產品研發,倚靠娛樂化產品謀利。已有報道指出,激烈的AI產品競爭加劇了各大科技公司對AI研發的趨利性導向,但研發自由度明顯下降。
第二,企業組織娛樂化。當前,雇用大量公關人員,花大力氣搞宣傳工作已成為互聯網公司、AI公司的公關組織常態,并且宣傳力度不斷飆升。它們以品牌包裝、熱點炒作為己任,以吸引投資、股市基金作為職責,對AI實質性突破關注不夠。一方面,公關形式向娛而行,渠道不斷拓寬已在依托報刊、電視等傳統媒介的基礎上,大量拓展推特、微博、短視頻、公眾號等自媒體宣傳渠道,開展形式活潑、自主便捷、代入感強、無處不在的“病毒式”傳播,給受眾帶來更多新奇特的娛樂感。另一方面,公關內容因娛而生,手段不斷豐富。通過數字技術精準定位不同層級的用戶喜好,又或通過粉絲互動、在線服務等方式與受眾實時交流,再或運用夸張、引誘搞笑共情等內容包裝手段博人眼球,收獲理想公關效果。
第三,評論研究娛樂化。其一是言辭激烈,夸張至上。“AI元年”“人類完蛋”“世界炸裂”等詞匯令人眼花繚亂。有人評論道:在此波AI熱潮之前,人們甚至不知道有這么多形容爆炸性突破的詞語!其二是資本驅使,利益至上。成千上萬的社會機構、自媒體人倚靠AI熱潮“借雞生蛋“,靠評論AI,售賣AI知識謀利。最近“翻車”的“AI教父”李一舟便是其中的一員。就連一向講究與社會保持距離、反對跟風炒作的學術界,都迫不及待地將AIGC、ChatGPT尊捧為“學術熱詞”,趁機賺取“學術工分”。其三是內容浮夸,奇葩至上既無獨到建樹,又無新穎論斷,喜好討論“AI覺醒”相關的空泛問題,與評論研究“站崗放哨,提醒社會未雨綢繆,看護社會福祉”的職責大相徑庭。
阿瑪拉定律指出,人們總是高估一項科技所帶來的短期效益,卻又低估它的長期影響。AI發展的娛樂化趨勢對人類的長遠利益與整體益處不大,而過度娛樂化還可能造成諸多嚴重的負面問題,必須保持警惕。
從產業層面看,過度娛樂化趨勢導致AI發展“走偏”。AI造福人類的初衷無疑是美好的,但大多數AI企業都在為謀利而生產大量嘩眾取寵、實際意義不大的產品。照此發展,AI產業到底是變得越來越“親民有趣”,還是在逐漸與技術創新尤其是原始創新脫鉤?是增進了全人類的福祉,還是滿足了部分人的私心?利益與初心、價值與意義之間的關系張度如何把握?目前,社會上已不乏指責人工智能“不務正業”的聲音。類似“我期待人工智能可以幫我做飯、洗碗、料理家務,這樣我就可以琴棋書畫。結果現在的人工智能卻在代替我琴棋書畫,而我不得不去生產勞動”的聲音,最近在網上被四處轉發。
從認知層面上看,AI發展過度娛樂化帶來的是“溫水煮青蛙”式的消極認知后果,如果放任不管,最終可能反噬自身。短時間內,“走偏”的AI不斷以恐懼和恫嚇的夸張方式“吸睛”,看似成功,但卻在很大程度上傳遞著技術悲觀主義情緒,恐有將社會大眾和國家政府嚇壞、限制AI發展之嫌。長期來看,娛樂化趨勢催生出一種異化的AI文化,帶有濃厚的“去價值”色彩。實質為缺乏深度、內容膚淺、低級趣味的庸俗文化、泡沫文化,離散主流意識形態的聚合力,誘導大眾沉溺于享樂主義、虛無主義的陷阱中不自知而難自拔。
從現實層面看,過度娛樂化趨勢不僅放大了AI引發的包括圖文內容失實、知識真假爭議隱私風險泄露、失業危機、自主武器系統威脅等系列負面效應,而且還將走向浪費資源的錯誤路線上。據估計,生成式AI驅動的搜索所消耗的水電是傳統網絡搜索的四倍到五倍。按照“杰文斯悖論”,如果繼續在無節制的能源消耗道路上狂奔,“人類世”勢必會在全球范圍內加速毀滅。倘若未來AI的著力點在提高生產力、推動工業化、解放人類機械勞動等實體經濟方向,才可能有大的發展,可如果只為搞出一些虛擬的、只能在網上再循環的東西,則實屬虛有其表、百無一用,發展必然受到很大限制。
三、有限主義的發展進路
警惕AI熱潮中的娛樂化趨勢并非對AI發展的全盤否定,而是批評過度炒作AI,致使AI過熱、過頭、過火的現象產生。畢竟,AI非萬能,更不具備如科幻小說幻想的完全顛覆世界的力鼠。AI未來發展存在許多不同路徑、模式和選擇,也蘊含諸多風險與機遇。對于AI引發社會變革究竟是積極的還是消極的,本質上并不僅取決于AI技術發展,更取決于人類自身的選擇、布局與應對。
就中國國情而言,AI技術是培育新質生產力的重要引擎,是推進中國式現代化深入發展的有力抓手,其重要性不言而喻。AI發展的有限主義進路認為,我們應該努力控制AI的發展,盡力將之引導至有益于人民的方向上去,做到“有所為、有所不為”。有所為,即站在科技謙虛主義立場上,發展有益AI既要肯定、支持AI技術的探索,又要主動干預、控制AI技術的發展,對AI進行有效治理。有所不為,即樹立AI有限價值觀,妥善審度AI技術的社會影響尤其是負面效應,提前研究,預先布置,以規避相關風險。
這里從宏觀上提幾條適合當下中國語境的AI發展方向的建議。
第一,堅持AI以人為本。需謹記,人類發明AI的目的是利用它,不是給自己增加麻煩的。盡管AI發展具有極大的偶然性和不確定性,但到底能不能控制AI,仍取決于人類自己想不想為控制AI付諸努力。鑒于此,在AI研究設計、風險評估和實際應用的各個環節,必須將以人為本的“善”念貫穿始終,避免陷入“科林格里奇困境”。在實際的AI治理中,應當從“大設計轉向小設計”,對AI發展進行審時度勢的動態控制,把握洞控的局部性、漸進性和靈活性。同時,在多元共治原則的指引下,處理好局部利益與整體利益,短期利益與長遠利益的關系,尤其確保社會弱勢群體的利益,使AI朝向增進全人類福祉的方向發展。
第二,落實AI實用性原則需明晰,AI的評價標準不在于它的娛樂化水平和類人性程度有多高,而在于是否真正能夠為人類帶來更好的生活七,實用性追求意味著,在戰略選擇上將AI發展的著力點聚焦在醫療保健、農業民生、智慧城市、制造業等實體經濟領域,而非營造商業化、娛樂化、泡沫化的虛假狂歡。進一步而言,中國的AI發展必須讓技術落地,通過“人工智能+”賦能各行各業,在客觀性的基礎上追求傳播效果,在實用性的基礎上追求娛樂旨趣,不可為追求片面利益而一味研發脫實向虛、毫無意義的AI產品。已經有人指出,中美AI發展方向不盡相同,中國AI發展更注重技術應用,賦能實體經濟,而美國AI似乎更關注基礎創新,追求轟動效應。實際上,在無人碼頭、無人礦山等AI應用領域,中國AI產業處于領頭羊的位置。
第三,樹立AI發展的底線思維。需牢記,“科學第一,但不唯一”。無論AI多么強大便捷,總要為其設置限度。無法明確預測后果時不為,對技術黑箱持續無解時不為,不利于掌握AI控制的主動權時不為,無法保證對人類福祉有利時不為。特別是要堅持防意識化的技術設計和去道德化的倫理設計。前者要求將AI限制于安全、可控的工具層面,而非將其臆想為與人類意識平等存在的他者。后者則禁止AI具備自主道德,確保全部責任由人類承擔,規避責任空缺困境。其實,AI發展的底線思維不是限制AI發展,而是反對在缺乏有效控制方法的情況下隨意、任意地發展AI,以免其阻礙或威脅人族利益。控制AI發展以使其適應社會的行為,也許會或多或少減緩技術創新,但從根本上有利于社會進步。
第四,營造正向AI文化氛圍。需明確,AI技術社會影響力極強,營造健康、和諧、有序的AI文化至關重要。首先,要引導AI文化適應社會,而非社會適應AI文化。AI文化必須尊重人類文化傳統與倫理底線,傳播符合主流意識形態和時代發展規律的正向價值觀,維護社會和諧穩定。其次,要積極開展科技觀和AI方面的教育、科普活動,消除“AI崇拜”“AI恐慌”等AI認知偏見,營造人人懂AI、用AI、對AI負責的社會文化氛圍,預防AI成癮、AI依賴等AI行為偏差,緩沖AI引發的各項社會風險。再次,要加強對AI倫理建設的引導,在責任理念的指導下,把握AI的發展節奏和自主化程度,有效監管、治理已經出現的AI倫理問題,為AI行為的“非預見性”領域留下緩沖的余地。
第五,努力建設綠色低碳和節能環保的AI社會。需注意,AI發展與環境保護之間存在一種悖論。一方面,人類通過AI技術減少能源消耗,促進資源循環再生,提升環境治理能力。另一方面,任何一項AI技術的發展與創新都消耗大量能源,加重自然負擔。因此,鼓勵綠色AI研發與創新,開創節能環保的AI發展道路,降低AI發展中的能耗和污染風險迫在眉睫。在技術層面,需要加快研發低功耗、高算力的芯片技術與大模型底座,優化數據存儲和處理方式,減少數據冗余和不必要的存儲。在政策層面,批評AI娛樂化、向虛化,專注AI實際效用與為民的終極旨歸,支持設備回收再利用、推動循環經濟。在社會層面,開展相關領域合作,優化資源配置,實現技術、數據的開放共享等。