?

智能算法視域下網絡短視頻運行邏輯、價值遮蔽及協同引導路徑研究

2023-05-25 08:35劉德群
關鍵詞:智能算法權力內容

劉德群

(池州學院 文學與傳媒學院,安徽 池州 274000)

進入大數據個人化時代,信息傳播越來越精準化、智能化,控制大數據智能算法程序的平臺公司實際上成為信息流的把關人。在數據壟斷下,甚至出現了“超級權力”[1]。正如Castells[2]在《傳播的權力》中指出,“權力即傳播力”。移動互聯網短視頻平臺依賴大數據算法在后臺操控,成為實質的當家人。短視頻平臺通過技術標準制定、議程設置、編輯決策、審核把關、所有權以及不同網絡之間的連接與轉換等向公眾推送信息視頻內容,影響用戶對事件的認知和對世界的理解??梢?,傳播權力愈加體現為智能算法權力。

一、算法權力的運行邏輯

隨著搜索、資訊、社交和消費等智能平臺的發展,智能算法日益深入人們生活的各個方面。在智能科技崇拜仍存、法律法規尚不健全的當下,社會和個人生活中權力關系(算法權力)的背后普遍存在操控痕跡。不論是信息推薦、內容審核,還是教育評估、公共安全,都在不同程度上受智能算法支配和控制的現象。

(一)短視頻智能算法的操控表征

1.“定制化”的信息分發

據統計,數字算法在互聯網推送的信息占網絡分發全部信息的80%以上,在移動短視頻內容推送中其發揮的作用也日益突出。無論是今日頭條客戶端,還是抖音、快手等短視頻平臺,從下載安裝客戶端開始,算法技術就在搜集用戶的手機、位置、場景、身份、頭像等相關信息。算法會依據用戶的點贊、點擊、轉發、評論、注冊和覽閱等行為數據,分析用戶喜好并推送相應內容?!澳汴P心的才是頭條”正是對算法主導的“私人訂制”信息分發邏輯的形象描述。

盧因[3]認為,“作為傳播者,不可避免地會站在一定的立場、視角、知識框架對信息進行篩選和過濾”。對信息的推薦排序、過濾和分類等決策行為構成了媒體的中介權力?;跀祿治龅淖詣踊惴ǔ绦虿粌H可以與受眾智能交流,還能提供消費指導和引導輿論。在西方有些國家政治競選時,就有智能機器人在社交平臺上利用算法的信息推薦,為用戶定制發送有政治傾向的信息和政黨新聞來影響、操控選民。

2.“精準化”的內容生產

隨著抖音、快手等短視頻逐漸成為主流媒體生產與傳播信息的主渠道,模糊化的大眾傳播模式向更為精準的網絡個體傳播模式轉變,內容生產更加“精準”“個性”?!熬珳识ㄖ啤背蔀樯缃幻襟w用戶社群的需要,傳統媒體時代“一條新聞輪番播”的傳播現象不再出現。在新媒介生態下,主流媒體也在不斷調整運行模式:在選題策劃中引入“熱點事件追蹤”技術;新聞短視頻創作中實施“千人千面”新觀念;面對不同地域、不同愛好、不同畫像的人群,采用多樣化的話語和情感模式等。

算法還可直接參與內容生產。如人工智能媒體平臺能夠在新聞、體育、影視、綜藝等方面開展短視頻的智能生產、采集分析、標注標簽、版權追蹤等工作。融合智能算法和視聽語言的機器人可以進行新聞寫作,完成智能查重、糾錯等工作,還可以在一定場景下實現“AI合成主播”。

3.“智能化”的內容審核

“用戶原創內容”的生產模式讓網絡社交平臺的內容更加豐富、繁雜、多量,傳統的人工審核越來越不能滿足用戶對時效性的要求。為了滿足用戶對“良好體驗”和“時效迅速”的需求,平臺紛紛引入智能算法進行內容審核。智能算法主要通過數據庫比對和智能審核系統對用戶發表或轉發的內容進行審核,包括對敏感詞(政治術語、法律禁止內容)的自動識別。智能審核可以完成90%以上的內容把關,極大地提升了效率。但算法程序在處理信息時的“機械”和“僵化”,也是智能審核相對于人工審核的不足之處。如算法程序對視頻或圖片的審查還不是很精確,疑似違規的內容常常只能標記或報警,有時還會誤判一些賬號信息??梢?,智能審核無法完全替代人工審核。

進入后真相時代,社交媒體為個體賦權。無論人工智能核查機制如何高明,也很難左右個體如何“解碼”接收到的信息。每個用戶都有特定的文化背景、價值觀、社會階層,這決定了他們在解碼信息時的思維方式[4]。

4.“全景化”的大數據跟蹤

隨著移動互聯網和智能設備的發展,個體和群體的生活軌跡和社會活動大都可以被跟蹤記錄。人們在網絡上產生的全部數據都會被搜集、分析、采用,這些數據還經常被運用于引導交易[5]。如一個不常用抖音的男生,在瀏覽完抖音推薦的11條短視頻后表示十分震驚:“兩條視頻是化妝品推薦,兩條是關于美食的內容,還推薦了自己村的人,都沒有在抖音看過;只有推薦的1條視頻,是大學里關注的老師……”(1)受訪者為筆者所在高校的大一男生。在智能監視和數據壟斷的語境下,網絡平臺公司成為信息傳播領域的實際當家人。大數據不再僅指一項技術,還將成為被大公司利用進行獲利的工具。平臺智能程序的運行和大數據權力的實現基本上在“暗箱”中進行?!氨O測什么對象”“忽略什么情況”“開展什么活動”“擔任什么角色”“具有什么價值”等,這些程序問題已被設定。智能手機的普及也為短視頻平臺的用戶畫像、大數據分析、算法推薦提供了便利,用戶隨時被記錄、跟蹤、檢測?!笆褂眉赐狻背蔀闈撛谝巹t,但是用戶并不清楚這些數據的使用是否合法合規。

隨著數字化生活的全面深入,個體和特定群體在智能監視設備面前越來越透明,數據處理卻一直處于“暗箱”中。在西方國家,數字化生活下的人們甚至懷疑法律保障的民主自由是否真的存在。

(二)短視頻算法推薦的內在邏輯

為了更好地防范和規避內容傳播風險,抖音、快手等短視頻平臺會公開其算法邏輯,還會依據不同地區的法規適時調整、更新算法。筆者在針對平臺推薦算法運行邏輯探析中,主要采用文獻分析法、現象學研究方法、定量研究方法、網絡民族志方法等。其中,基于網絡民族志方法的具體研究主要以影響力最大的抖音短視頻平臺為例,對流量高峰時段的視頻內容和平臺使用情況等進行參與式觀察。

推薦算法的運行邏輯主要從兩個方面分析:技術上的推薦機制和價值觀念上的把關標準。

1.技術邏輯——推薦內容的篩選機制

短視頻平臺的推薦主要基于內容、創作實踐、地理位置、用戶關系等。目前,多數平臺采用的是基于對用戶、內容的記憶以及模型的協同過濾推薦算法,主要依據相似度對用戶和內容進行分類推薦。當通過審核的短視頻上傳至平臺后,推薦機制會把短視頻分類匹配給相關人群,以便定位用戶的興趣和愛好。協同過濾算法理論認為,同一種類的內容受同一用戶的喜愛,同一類別的用戶對同一類內容感興趣。具體的算法流程為:首先,基于用戶畫像和反饋信息對人群進行分類并初步配發;然后,根據用戶痕跡(如網上閱讀、點贊評論、轉發收藏、檢索信息、通訊等)進行標識,并及時調整推薦對象和目標人群。以抖音算法為例,平臺首先根據內容將視頻推薦給初定群體(如200—500位具有興趣傾向的用戶);然后根據單位時間內的點贊、關注、轉發等數量和比重,將視頻推薦給更多潛在用戶;經過七八次推薦后,視頻瀏覽量可達5 000萬人次以上,成為熱門視頻。如果被過濾掉的視頻再次爆款,還會根據流量情況被重新推薦。具體如圖1所示。

由此,抖音、快手等平臺協同過濾推薦機制的根本還是“流量至上”?!盎橹黧w”的推薦算法與用戶的關系主要體現為兩個方面:一是利用算法分析用戶碎片化和無序化的數據,預測出其需求和規律,有針對性地進行內容推送;二是數據化的生活行為記錄也在推動算法的改進,并影響后續的視頻推送。二者的實踐關系處于動態中。

圖1 短視頻推薦算法流程

2.價值邏輯——內容把關的價值依據

從技術上來看,智能算法的內容推薦是一套計算程序,不涉及價值標準和主觀思維。實際上,智能算法的設計、演變等都離不開社會因素的影響。價值標準的選擇、數據提取、語用分析、結果解讀等體現了平臺設計者和管理者的價值邏輯。Devito[6]在研究中明確提出,Facebook具有用戶興趣、用戶之前的參與、用戶偏好、負面關系、負面表達、發布時間、平臺優先、用戶公開表達的興趣、內容質量等九個方面的價值要素。國內學者也提出,今日頭條平臺的推薦算法主要是場景、內容、用戶偏好和平臺優先級等四個價值觀維度匹配。抖音算法推薦的基礎來源于今日頭條算法,主要實現內容、用戶和環境三個維度變量的匹配,其變量匹配可簡化為函數y=F(Xi,Xu,Xc)[7]。其中,y、F、X分別代表內容特征、用戶特征和環境特征三個維度變量。也就是說,內容、用戶和環境的任何一個維度變化都會影響算法推薦程序和過程。參與式觀察抖音平臺推薦欄目中的短視頻(250條)(2)參與式觀察的內容主要包括短視頻內容類型、內容描述、條數和內容來源。時間為連續一周晚上的流量高峰段9點左右,觀察20分鐘。文中參與式觀察的時長和程序均符合網絡民族志方法實踐的要求。后發現,推薦算法行動者的價值觀受用戶、資本、制度等元素的影響,主要體現在用戶偏好、社交關系、公共議題、場景、差異化和平臺優先級六個維度。具體如圖2所示。

由圖2可知:用戶偏好的價值內涵是基于用戶喜好、興趣的相似性推薦,社交關系是基于用戶社交相關性的圈層化推薦,兩者的推薦數量占比較大(近80%);公共議題主要指主流媒體發布的新聞資訊,具有公共屬性;場景是根據用戶位置和情境的相關性推薦;差異化是用戶興趣邊界的差異化內容;平臺優先級是平臺為了商業利益優先推薦的內容或合作機構制作的視頻,是商業邏輯下的推薦策略??梢?,短視頻推薦算法的價值觀商業屬性濃厚,兼具公共性。除了公共議題外,用戶偏好、社交關系、場景、差異化、平臺優先級等都受用戶需求的影響,六大價值要素主要體現的是流量和商業利益。

圖2 抖音推薦算法價值觀六個維度

二、智能傳播的價值遮蔽

大數據驅動下的算法權力本質上是對人類歷史上的社會、政治、文化的隱喻,影射人類社會的不平等、暴力、霸權、不公正、歧視等現象。在流量、利益和政治認同的驅動下,算法并非絕對中立。在短視頻推薦的過程中,存在干預人類的文化決策、信息閉環和同類推送、算法推薦機制不完善以及對用戶畫像的不精準設定等問題。

(一)同類推薦的意外后果

目前,抖音、快手、微信等平臺的短視頻數量巨大。然而,這些視頻過于類型化、個性化和單一化,同類推送和信息窄化的現象十分明顯,由此將在信息傳播領域產生信息繭房效應、回音壁效應[8]。例如,參與式觀察抖音連續3天推送給某高校女教師的198條短視頻,這些視頻主要涉及親子、教育、泛娛樂、廣告等方面。其中,21條是“家長應該怎樣引導和教育孩子”的同類短視頻(占比11%),18條是“80歲的你”的同類特效視頻(占比9%),8條是介紹抖音的“doudream 創作者計劃”的同類推廣視頻。

事實上,以受眾偏好為主的內容推送就是一種相似性推薦。從“興趣”開始,到點擊“相似內容”,如此循環,使用戶接收的內容越來越相同或相似,獲取信息的渠道越來越窄,信息面越來越小,由此可能會導致思想和情緒的狹隘、偏激。從某種角度上來看,個性化推薦并沒有讓用戶看到多元的信息世界。用戶長期置身于過濾后的閉環信息中,個體之間的知識鴻溝也會越來越大。將具有共同興趣愛好和相似價值觀的人聚到一起,易造成用戶情緒極化以及社會分化,甚至會激發用戶的群體行動。這種相似性推薦在某些西方國家深度參與政治選舉,助推難以預測的政治結果。

因為后驗是以離散的質點近似的,在權重集中在一小部分質點時經過幾次迭代更新后,該方程組就會遭遇抽樣簡并。權重方差的減少可確定簡并度,可用近似(Arulampalamet al,2002):

(二)智能審核的遺漏誤差

在短視頻智能平臺中,傳統的人工審核逐漸被算法審核替代。由于后臺操作的不公開性,審核過程存在“以權謀私”的可能,權力尋租和腐敗的可能性與投入預期之間呈現正比的關系:當平臺的預期越大,權力尋租的想法就越強烈。在網絡媒體平臺上,稿件的撤稿權或管理權是權力尋租的具體方式,如部分平臺利用操控流量、有償刪帖等行為獲取不正當的利益。一些網絡媒體公司或者中介公司也參與其中,為不當利益的實現提供技術支持或牽線搭橋。目前,官方和媒體公司后臺審核的重心為“是否違反法律”或“有無違背道德倫理”,對信息內容的真實性和科學性審查力度不夠,為權力尋租提供了空間。

媒體平臺通過多種方式進行自查自糾把關,及時處理違反法規賬號。然而,根據官方監管通報,仍經常出現違法違規、把關不嚴、審核不及時的情況。視頻的內容審核是基于以秒或幀畫面進行。對于單幅畫面容易判定,但由于視頻情境的復雜性,具體審核還是很有挑戰性,如“視頻中復雜情境的真實性很難逐條核實”“審核標準的明確性與難以描述的模糊性之間存在沖突”“新聞真實性與后期制作傾向性之間存在沖突”等。

(三)算法歧視用戶的現象

算法歧視具體是指智能算法技術在收集、處理、解釋數據時生成與人類相同的偏見與歧視。智能技術對受眾顯性或隱性的歧視行為,常采用信息采集、特定推送和個性定價等手段,如滴滴、攜程在差異化定價中的價格歧視,以及今日頭條在個性化推薦中的身份歧視。短視頻推薦中同樣存在用戶身份歧視現象,如抖音推薦算法把某高校女教師的母親身份設定在親子、育兒生活范圍內,由此推斷其為“家庭主婦”身份。將母親與家庭婦女等同是對母親的形象和身份的隱形偏見和刻板化認識。

平臺通過提取和解析人們的瀏覽信息和社交行為,整合用戶畫像并據此進行相關推薦。然而,對用戶畫像理解不到位、描繪不精準會造成算法歧視。平臺使用社交手勢這種簡單維度來描述用戶豐富的情緒和行為,本身就是對人類豐富情感的漠視,也是對人的多樣化信息需求的忽略。這種基于虛擬需求的算法推薦只是對用戶畫像的淺層判斷,沒有深刻分析用戶的深層需要,他們的情感需求長期被忽略,用戶的被歧視感隨之增強。

(四)對文化決策的干預

隨著算法推薦技術的廣泛應用,視頻平臺實現了主動搜索、主動分析、主動推薦的功能,人工智能也由此開啟了機器主動傳播的階段。而之前,傳統的電視和視頻網站不具備主動尋找用戶的功能,只能被點播、觀看或評論。波斯曼[9]指出,“文化在技術壟斷背景下將淪為技術的奴仆”。智能技術的壟斷也推動了信息文化智能決策的現象出現。算法跟蹤人們的行動,洞察人們的心理,甚至替代人們思考,逐漸影響人類的文化生活,干預人類信息文化決策。

在后現代消費主義的影響下,智能社交媒體平臺借助技術賦權構建自己的消費文化和帝國。各壟斷平臺不僅是智能消費中生產力的新動力,還是社會文化、娛樂、消費新觀念的重要信源,推動著生產力和生產關系的再生產[10]。

(五)傳播權力的誤用

智能算法技術對媒介傳播的全面滲透,不僅推動了媒體生態和文化環境的變革,還改變了人們的觀念意識。在資本市場中,壟斷技術在一定程度上代表壟斷利潤,智能算法的效率會直接影響市場份額和利潤。當資本驅動的算法對人類生活滲透得越來越深,數學理性構建的模型算法逐漸成為經濟利益的工具,人的思想也將被利益和權力利用、支配。

三、協同治理角度的算法權力引導

在目前法律規范相對滯后的情況下,算法權力在道德價值正當性和管制正當性方面也具有明顯的滯后性。從企業生存和發展的角度來看,首先需要的是實用與效率正當性,然后才是價值正當性。視頻平臺、網絡巨頭等主要從規范性和績效正當性的角度維護算法正向性,而黨媒和社會媒體還要從價值正當性和法規正當性等方面消解算法的權威。要實現算法的系統性優化,不僅需要技術的推動,還需要系統性合力。算法的優化和引導需要政府、行業協會、媒體平臺、用戶等多方協同參與。

(一)加強政府與平臺的合作

1.推進后臺運行的前臺化

“暗箱操作”最好的治理方式就是陽光化,政府是推動算法透明重要的參與力量。在保護核心技術的前提下,政府、企業、協會、公眾等多方參與、監督、測評,可提高不同領域算法的透明度,推動算法進一步完善和優化,有效解決算法的工具理性凌駕于價值理性的問題。若用戶經常對平臺的審查處理結果不滿,政府可組織聽證會,把知情權還給用戶,讓用戶了解平臺對個人數據的使用和幕后的審查過程。用戶也可據此重視并調整個人的媒介行為。

2.政府公權力的協商管理

隨著大企業成為人工智能、算法技術等研發的主導力量,政府的公共治理離不開掌控核心技術的平臺,技術權力對公權力的影響日益加深。部分由政府單獨開展的監督管理權轉移或授權給技術公司,形成政府監管平臺、平臺(公司)監管賬號的協同監管。當平臺公司的智能過濾系統和審核機制參與網絡短視頻非法內容的監管時,數據審核的標準由平臺公司掌控,且政府后期的監管執法依照需要平臺的數據。在算法時代,政府不再是研發和治理的唯一主導,不僅平臺的技術治理需要掌控智能技術的公司支持,傳播內容的價值引導也離不開智能公司的參與。

(二)制約文化、經濟、技術等壟斷資本

1.對文化資本進行規訓

一是政府法令對文化資本的傳播內容具有硬性約束。在文化資本的生產、再生產和媒體傳播中,無論是個人的媒體賬號,還是網絡平臺賬號、社交軟件賬號,都需遵循其所在國家、地區的法律。二是行業協會的內容規范對文化資本的協調管理。具有較高威望和管理角色的行業組織,憑借評價、激勵等方式對文化資本進行制約。通過出臺行業自律條例和相關內容審核標準,中國網絡視聽節目服務協會對網絡視頻發揮評價、督促、引導、激勵的功能。三是社會制度內化為內部規制。用戶協議是平臺公司私權利的實施途徑之一,受制于法律框架。只有遵從法律,公司的私權利才有基石、有保障。在違法違規等風險防范上,短視頻平臺會采取黑名單管理、用戶投訴處理、版權管理等機制??焓?、抖音等平臺成立“社區自律委員會”,多途徑開展內容規范的治理。

2.對經濟資本進行防范

無論主流媒體還是商業平臺,短視頻輿論導向的標準都是相同的。一是適時推進特殊管理股制度改革,從現代公司治理結構層面確?;ヂ摼W傳媒公司的政治方向以及防范單方資本利益對傳媒內容的直接干預。二是借鑒國外傳媒資本的“15%規則”,防止大股東控制壟斷。為了防控媒介領域的經濟資本權力對言論自由、媒介傳播或社會輿論的直接干預,有些國家立法保護公民在媒體上的言論自由,出臺禁止媒介資本的壟斷性控制法規,比如澳大利亞的《媒體所有權管理法》。

3.對技術資本進行制約

一是引入算法倫理審查機制,遏制算法偏見、算法歧視等倫理風險。資訊類算法推薦中的算法審查要按照公共利益原則、情境理解原則、介入必要原則和介入無害原則開展,主要包括依托平臺資源和用戶資源等途徑。根據我國《互聯網信息服務算法推薦管理規定》,要定期審核、評估、驗證算法機制機理,加強用戶模型和用戶標簽管理。二是加強隱私數據的法律保護。抖音、快手等移動平臺存在過度搜集個人信息或未經授權情況下個人信息商業化問題[11]。當這些誤導性信息內容關聯決策時,就存在是否合法和正當的問題。三是主流傳統媒體也可實踐媒體算法。面對突發事件,平臺可通過調整算法推薦權重,將人民日報等主流媒體的信息置于優先級別,加大正能量新聞信息的推薦力度,加強價值觀正向引導。

(三)推進公眾參與權力監督

一是個體參與權力監督和社會治理的組織化、制度化。公眾參與社會治理可分為個體化公眾化參與和組織化公眾參與。個體化參與社會治理一般是通過信訪、網絡投訴、"內幕"曝光等形式實現,具有零散性和無序性。不同的社會群體成立代表自身利益的社會組織,參與社會治理,在提高社會治理透明度的同時,也會遏制智能算法的權力腐敗。

二是提高社會公眾參與權力監督和社會治理的意識和能力。社會組織參與權力監督和社會治理也是實現人民當家作主重要內涵之一。舍基[12]指出,“網絡時代公民社會通過各種社交平臺形成無組織的組織力量”。當個體命運或個體事件通過“共情”產生共鳴,形成網絡群體行為時,弱勢群體也可以借助網絡力量對抗強勢機構。近年來,民間信訪和社會參政議政渠道越來越順暢,公眾參與權力監督和社會治理的熱情不斷提高,監督意識和能力也在不斷增強,將更有力地推動"權力向陽"的目標實現。

四、結 語

智能算法不僅帶來互聯網信息傳播范式的變革,還直接參與智能化短視頻的內容生產、推薦和流動監視。算法推薦存在同類推送和信息窄化現象,引發信息繭房效應、回音壁效應帶來的負面影響。算法審核存在遺漏誤差,并不能完全杜絕違法違規短視頻的傳播,且存在權力尋租的可能性。算法設計者持有對于身份、種族、階層等的固化印象,以及對用戶畫像設定不精準;算法技術對人類行動和心理進行監測,代替人們思考、干預人類文化決策等現象讓人擔憂;智能算法在追求精準、高效的同時,還會忽略義務、美、規訓等價值思想。

要實現算法的系統性優化,需要多元協同共治。算法在倫理價值方面的風險防范需要政府、行業協會、媒體平臺、用戶協同參與:一要加強政府與平臺間的合作;二要制約文化、經濟、技術三種壟斷資本;三要公民參與算法權力運行的監督。只有讓算法的“黑箱”權力處于陽光下,充分發揮行政法規、第三方評價監督、傳播實體算法自律等方面的治理和引導作用,秉持權力向陽、算法向善的價值導向,才能使智能算法更好地服務于大眾。

猜你喜歡
智能算法權力內容
內容回顧溫故知新
神經網絡智能算法在發電機主絕緣狀態評估領域的應用
基于超像素的圖像智能算法在礦物顆粒分割中的應用
不如叫《權力的兒戲》
從雞群算法看群體智能算法的發展趨勢
改進的多目標快速群搜索算法的應用
主要內容
權力的網絡
與權力走得太近,終走向不歸路
喚醒沉睡的權力
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合