互聯(lián)網(wǎng)快速發(fā)展的同時,社交媒體信息繭房、群體極化等現(xiàn)象愈發(fā)受到關(guān)注。一種聲音認為算法是造成這些現(xiàn)象的罪魁禍首,事實或許并非如此。近日,世界權(quán)威學術(shù)期刊《Science》刊載文章《不要責怪算法:社交媒體可能天生就存在兩極分化》,介紹了來自阿姆斯特丹大學邏輯、語言與計算研究所的最新研究論文和成果。論文顯示,即便沒有算法,社交媒體也會存在極化現(xiàn)象,甚至算法能弱化極端聲音。

論文中,研究團隊搭建了一個沒有個性化算法推薦機制的極簡版的社交平臺,只保留發(fā)帖、轉(zhuǎn)帖和關(guān)注三種最基礎(chǔ)的功能,并投入了500個帶有“人格設定”的聊天機器人。這些機器人基于大語言模型和AI智能體運行,擁有固定的人口學屬性,比如年齡、政治立場等,可模擬社交媒體中的發(fā)布、轉(zhuǎn)發(fā)與關(guān)注等行為。
結(jié)果顯示,這些聊天機器人經(jīng)過5萬次自由互動后,迅速分成了陣營:立場接近的互相關(guān)注,不同立場幾乎沒有交集,中間派被孤立在邊緣;小部分“大V”賬號獲得了大部分粉絲和轉(zhuǎn)帖,注意力分布不均衡;與此同時,立場鮮明甚至偏極端的內(nèi)容傳播得更快更廣,越極端的觀點越容易擴散。
為了嘗試解決這些問題,研究團隊測試了六種簡單的干預措施,包括僅按時間順序展示帖子,而非基于參與度展示。他們還測試了所謂的反算法,即向用戶展示參與度最低而非最高的帖子,或者向用戶展示表達與他們自身相反政治觀點的帖子。這些方法都沒有完全奏效,有些實際上還加劇了極化程度。
這一實驗證明,社交媒體被詬病的三大亂象——信息繭房、影響力集中于少數(shù)、極端聲音被放大——并非算法推薦導致,而是根植于人們的網(wǎng)絡社交行為。“說實話,我有點失望,”該論文研究員之一托恩伯格坦言,“這原本應該是一篇樂觀的論文。”
實驗結(jié)果駁斥了近期國內(nèi)一些自媒體中流行的“算法離間”“傻子共振”等說法。所謂“算法離間”,指算法給不同群體推薦有偏見的觀點內(nèi)容,如男性用戶刷到“頂級家庭男人說了算”,女性用戶刷到“男人不交工資卡就是不愛家”,制造家庭成員之間的對立。“傻子共振”則形容一群人因為荒謬的觀點聚集在一起,在算法的推薦下彼此認同、相互強化這個觀點,逐漸形成了封閉的認知環(huán)境,共同傳播偏激言論。這些觀點,一致將算法認定為社交媒體極化現(xiàn)象的根源,與實驗結(jié)果相悖。
事實上,這一研究結(jié)果并非孤例。來自多所高校的學者,進行了一項針對23377名美國成年Facebook用戶的研究,該研究實驗通過算法干預,將實驗組用戶接觸的同質(zhì)立場內(nèi)容(與自身政治傾向一致的信息)暴露量降低約 1/3,發(fā)現(xiàn)實驗組與未干預的對照組在所有八項極化指標上均無統(tǒng)計學顯著差異,說明算法干預對極化沒有影響。
另一篇刊發(fā)于《Nature》的論文也顯示,社交媒體的極化程度與用戶使用時長無關(guān)。論文中,來自多倫多大學計算機系的研究團隊,分析了社交平臺Reddit 14年間共計51億條評論。研究發(fā)現(xiàn),2012-2015年,Reddit的政治極化程度穩(wěn)定,但在2016大選年,平臺政治極化程度驟升,且主要由當年新增用戶的極化帶動。這說明用戶極化程度與平臺使用時長無關(guān),極化受外部現(xiàn)實事件驅(qū)動,而非平臺內(nèi)行為累積。
為什么會存在社交媒體極化現(xiàn)象?中國傳播學學者劉海龍在為美國杜克大學社會學、政治學與公共政策教授克里斯·貝爾所著的《打破社交媒體棱鏡》一書所作的序言中表示,人們會回避相反的觀點和個體,這符合經(jīng)典的認知不協(xié)調(diào)理論所證明的人類本性。該書還通過實驗證明,即便讓測試者在社交媒體中接觸對立觀點,也并不會使其變得更為溫和和理性,反而會促使其證明自己是正確的,變得更加極端。
因此,社交媒體繭房、極化等問題并非算法造成,而是古已有之,根植于人性與人類社群。實驗證明,即便沒有算法,社交媒體同樣會存在極化現(xiàn)象,有時還會更加極端。正確看待算法,認清社交媒體極化現(xiàn)象的本質(zhì),能夠進行有效反思,才是減少社交媒體極化的關(guān)鍵。