面對「大數據殺熟」等亂象,我們需要什麼樣的「演算法」?

2020-11-16 11:40:13 559 views
摘要

您是否有過類似經歷:在求職網站填寫一份有關工作喜好的調查,網站會自動推送匹配的崗位;打開購物軟體,發現頁面上多是近期搜索或瀏覽過的商品;通過App閱讀一條養生信息,隨後便會經常收到養生知識、養生產品的廣告推送……伴隨著信息技術迅猛發展、大數據廣泛應用,演算法推薦技術正在將人們帶入個

您是否有過類似經歷:在求職網站填寫一份有關工作喜好的調查,網站會自動推送匹配的崗位;打開購物軟體,發現頁面上多是近期搜索或瀏覽過的商品;通過App閱讀一條養生信息,隨後便會經常收到養生知識、養生產品的廣告推送……伴隨著信息技術迅猛發展、大數據廣泛應用,演算法推薦技術正在將人們帶入個性化、定製化、智能化更強的信息傳播時代。

因為演算法推薦,互聯網平台越來越能抓住用戶的心,幫助人們更加方便、精準地獲取信息,也牢牢吸引了用戶的注意力。據不完全統計,當前基於演算法的個性化內容推送已佔整個互聯網信息內容分發的70%左右。演算法推薦逐漸成為各平台「基本操作」的同時,諸如低俗劣質信息精準推送、「大數據殺熟」等亂象也凸顯出來。

作為數字經濟的重要推動力,演算法如何實現更高質量發展?移動互聯時代,我們究竟需要怎樣的「演算法」?

面對「大數據殺熟」等亂象,我們需要什麼樣的「演算法」?

新華社 圖

互聯網平台越來越「懂」用戶了嗎?

「看完一個短視頻後,平台會自動推薦很多相關視頻,很方便。」在北京一家企業工作的陳輝是某款網路對戰遊戲的「發燒友」,平時喜歡通過手機觀看相關短視頻來提高操作水平。他發現,隨著刷短視頻的頻率增加,平台推薦的相關視頻越來越多,「遊戲攻略、英雄介紹、對戰視頻都有,電商平台還會推薦滑鼠、鍵盤。」

這些平台的自動推薦功能,運用了一種叫演算法推薦的技術。這是一種通過人工智慧分析和過濾機制對海量數據進行深度分析、完成信息內容與用戶精準匹配的技術。

自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統,演算法推薦技術如今已深入到資訊、社交、電商、短視頻、搜索引擎等平台和互聯網應用中。

互聯網平台變得越來越「懂」用戶,在極大方便用戶獲取信息的同時,也容易引發一些用戶尤其是青少年不同程度的沉迷問題。

「說好只看5分鐘,結果一刷就是幾小時。」貴州省貴陽市的林忠信說,他12歲的兒子最近迷上刷一些惡搞的短視頻,不僅影響學習成績,與同伴一起進行戶外活動的時間也少了。

從去年5月底開始,全國主要網路短視頻平台中推廣青少年防沉迷系統。在「青少年模式」下,大多數平台主要推送教育類、知識類等有益內容。但是,在缺乏監護人照管監督的情況下,防沉迷系統效果容易打折扣。

有受訪者反映,一些新聞資訊、網路社交等平台的個性化推送存在「泛娛樂化信息多、低俗內容多、未經核實內容多」的「三多」現象;一些網路社交等平台防沉迷手段較少,容易導致青少年沉迷和盲目模仿。

北京大學中國社會與發展研究中心主任邱澤奇對記者表示,對自我的偏好是人類認知偏好的一部分,「偏好」閱讀可能加速形成「信息繭房」效應和「情緒傳染」效應,前者易導致視野局限,後者易使個人情緒受他人感染。

一些喜歡網購的人還可能因遭遇「大數據殺熟」而蒙受損失。一些平台利用演算法技術給不同類型消費者數據「畫像」,判斷其偏好、用戶黏合度、價格敏感度等,使不同用戶看到的價格或搜索的結果不同。通常是老用戶看到的價格比新用戶貴,或搜索到的結果比新用戶少。

今年「雙11」期間,北京消費者韓女士發現,她通過某App預訂一家酒店,「同一時間,不同手機」預訂,價格相差約1000元。

9月中旬,微博上發起的一個投票顯示,有1.5萬人認為自己遇到價格明顯差異的情況,占所有投票人員的近八成。

「演算法」是中性的,問題出在人身上

演算法技術的重要意義在於,將此前基於人力的「人找信息」轉變成基於電腦自動化運算的「信息找人」,既極大解放了人力,又更高效地完成了人和信息的匹配。

從2012年起,互聯網平台今日頭條在業內較早將演算法推薦系統應用到資訊領域的產品中,實現了系統的自動學習推薦。據今日頭條演算法架構師曹歡歡介紹,推薦系統綜合考量內容特徵、用戶特徵、環境特徵等因素進行決策。例如,環境特徵包括上班期間、上班路上、下班休息等不同場景下用戶的興趣偏好信息。

為幫助用戶發現更多興趣點,今日頭條不斷引入多領域的優質內容生產者,並運用演算法推薦給用戶;推出「靈犬」反低俗助手,剔除低俗信息。推薦系統還增加了消重和打散策略,前者旨在消除內容相似文章推薦,後者降低了同領域或主題文章的推薦頻率。

不過,在頭部互聯網平台切實嚴格自律的同時,仍有一些采編流程不規範、管理不嚴的網路社交媒體、新聞客戶端在業務導向上走偏了。主要表現在:

——向用戶推薦劣質信息。部分平台為留住用戶,不斷向用戶推薦其關注過的相似內容,其中摻雜低俗媚俗、色情暴力、真假難辨、缺乏深度、價值觀導向錯亂等信息。一些互聯網平台為增加點擊率和流量,還會進行人工推薦,主動推薦「博眼球」、打「擦邊球」信息,很多用戶直呼「辣眼睛」。這反映出一些平台社會責任感缺失,更忽視了價值觀建設。

——增加用戶權益保護難度。一些演算法推薦的內容過度強化用戶偏好,影響了用戶對於信息內容的自主選擇權,加劇「信息繭房」效應,極易造成個體與社會的隔離,缺乏對當下國情世情的深刻認識和判斷。由於依託於用戶瀏覽記錄等數據,演算法推薦若設計不當,還可能侵犯用戶個人隱私。

——進行「大數據殺熟」。中國傳媒大學大數據研究中心教授沈浩介紹,對於演算法而言,通過用戶數據量以及數據更新頻次,可輕易判斷出是「生客」還是「熟客」。結果是平台大賺,商家、消費者利益受損,還容易導致壟斷。

作為一項技術應用,演算法推薦是中性的,問題出在設計者、操作者身上。

一方面,奉行「流量至上」的單一價值導向。一些平台為應對競爭,將用戶停留時間作為重要考核指標,忽視了自身作為「把關人」的角色定位。而「把關人」必須用積極健康、符合公序良俗的價值觀,指引演算法推薦的設計和應用,方能確保推送內容價值導向正確。

另一方面,過度追求「利益至上」,利用其信息不對稱優勢侵犯消費者合法權益。這是一個需要引起足夠重視的法律問題。

「一些演算法的頂層設計思路存在問題。」中國社科院信息化研究中心主任姜奇平對記者表示,英國著名數學家、邏輯學家圖靈等學者在勾畫人工智慧圖景時提出,人和機器是對等、雙向互進的關係,但現在一些演算法設計呈現出人與機器的關係是單項的。比如在大數據方面,迷信相關分析,忽略因果分析。在定義演算法效率方面,只把專業化效率定義為效率,而實際上多樣化效率也是一種效率。

大數據、演算法推薦應更有「溫度」

有網友最近在一個問答平台發文稱,自己在某社交平台和朋友聊天時提到了一款掃地機,隨後該平台出現了掃地機器人的廣告。在跟帖中,很多網友疑問:「平台是否可能利用演算法等技術,抓取用戶聊天記錄進行廣告精準投放?」

App專項治理工作組專家何延哲今年9月表示,四部委App專項治理工作組在對App多批次檢測中尚未發現App有「竊聽」行為。但App「竊聽」在技術實現上是有一定可能性的,相關部門有必要出台規定,明確企業進行大數據「畫像」時能否使用個人語音信息,讓用戶更放心。

從另一角度看,社會輿論的疑問其實指向了大數據、演算法等技術應用的價值導向問題。如何規範使用大數據、演算法技術,讓其變得更有「溫度」、更讓人放心?需要建立起一套行之有效的監管體系、評價系統,確保演算法設計者、操作者以健康、正確、積極的價值觀,指引演算法推薦的設計和應用。

相關立法和監管亟待加強,特別是要強化對演算法推薦本身的法治監管。

例如,正在公開徵求意見的《個人信息保護法(草案)》規定,個人認為自動化決策對其權益造成重大影響的,有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

11月10日,國家市場監管總局發布的《關於平台經濟領域的反壟斷指南(徵求意見稿)》規定,基於大數據和演算法,根據交易相對人的支付能力、消費偏好、使用習慣等,實行差異性交易價格或者其他交易條件;對新老交易相對人實行差異性交易價格或者其他交易條件;實行差異性標準、規則、演算法;實行差異性付款條件和交易方式等,都可能被認定為「大數據殺熟」等不正當競爭行為而面臨更嚴格監管。

北京大學電子商務法研究中心主任薛軍對記者表示,應針對演算法運用的場景、對公民基本權益的影響,對演算法進行不同強度的監管。除了法律規定需更加明確外,可以建立某種社會化的評議機制,對平台運用演算法產生的後果進行評價,要求平台基於公共價值予以優化。

壓實平台的社會責任。曹歡歡表示,今日頭條已不完全依賴演算法推薦,而是一個綜合「演算法+熱點+搜索+關注」的通用信息平台,以幫助用戶拓展興趣。用戶還可以選擇關閉「個性化推薦」按鈕或「永久清除歷史行為」,自主選擇獲取信息的方式。

「應該在演算法技術內講價值倫理,把人之為人的一面當作技術本身來考慮,倡導企業在商業行為中履行社會責任。」姜奇平認為,對演算法推薦技術和平台的監管應確保公平和效率、個人信息開發與保護、個人信息與平台信息等方面的平衡,在促進數字經濟服務業態健康發展層面考慮,可按照個性化信息服務所得和付出的均衡原則進行政策調整。他建議,確保消費者對信息採集者的服務好壞有評判權,使消費者始終處於主動地位。

有專家認為,監管部門應督促企業調整業務邏輯,將正麵價值取向、用戶高品質追求作為關鍵標籤納入演算法頂層設計之中;政府、學校、家長、平台各方應責任共擔,不斷提升青少年網路素養。

(原題為《隨著信息技術發展、大數據廣泛應用,演算法推薦讓信息傳播更加個性化、定製化、智能化,但也出現了一些亂象——我們需要什麼樣的「演算法」?》)

【更多閱讀 】

讓「演算法」給文化生活帶來正能量

姜忠奇

隨手刷刷短視頻,「投其所好」的推送紛至沓來;無意間點開一個新聞鏈接,相關的資訊接踵而至……藉助演算法推薦,信息的傳播效率和精準度大幅提升,每個人都能擁有一份專屬的「個人日報」。信息獲取已經從「大海撈針」進入「私人定製」時代。

毋庸置疑,演算法推薦憑藉對用戶瀏覽數據的精準分析,滿足了個性化的閱讀需求,也降低了人們獲取信息的成本。但不可否認,這種推薦方式在「越用越懂你」的同時,也將一些人推向了固步自封的「舒適圈」。比如,一些演算法以興趣為導向,推薦用戶喜歡看的、願意讀的,卻屏蔽掉了其他信息。人們看似瀏覽了很多內容,實際只是在不斷重複中強化固有的喜好和對事物的看法。一旦沉浸其中,探索世界多樣性的動力和慾望難免降低,最終加劇了「信息繭房」效應,將自己的生活桎梏在「繭房」中。

每個人對信息都有各自需求,這是人之常情;通過技術手段滿足人們對某類信息的偏好,同樣無可厚非。但一些不負責任的演算法設計,已經不是單純地「量身定製」,而是刻意地逢迎和取悅用戶偏好,將泥沙俱下的網路信息一股腦、無休止地推薦出來,甚至縱容虛假信息、低俗內容肆意傳播,導致受眾尤其是一些鑒別力、自控力不強的青少年越來越「偏」。

凡此種種,表面看是以演算法推薦為核心的技術問題,但根源在技術設計、相關平台業務導向出了問題。一些互聯網平台認為,流量越多,收益預期越高,也更容易獲得資本的青睞和支持。然而,當唯流量馬首是瞻、演算法主導一切時,信息平台也就異化為純粹的利益平台。行業內有句話:「把用戶當成豬,別管喂什麼,養肥就行。」可見,在一些企業經營者眼中,演算法的價值取向也要給流量讓路,這就走偏了。

規範用好演算法推薦技術,打破「信息繭房」的桎梏,不僅需要一些企業「校正」價值取向,更離不開相關各方的共同發力。比如,能否讓消費者更方便自由地「關閉演算法」?針對演算法推薦存在的漏洞和盲區,監管部門如何進行更加精細的管理?為促使企業肩負起公共價值觀導向的責任,如何將價值評價作為關鍵指標納入產品設計中……總之,只有在內容的生產、分發、監管等環節同時下功夫,我們才有望駛離「信息孤島」,擁抱更為廣闊、理性的天地。

人類學家尼克·西弗曾指出,演算法是文化生活的一部分,不能僅從數學邏輯的角度去理解。這意味著,演算法在實踐中不應片面追求效率,還必須兼顧公共價值觀、社會道德等價值內容。而這部分內容產生的社會影響,並不是數字可以直接計算出的。

觀點

個性化內容推送本質上是解決大數據時代下海量信息內容分發的一種技術,應當客觀、公正地看待技術。演算法創新了信息傳播業的分發模式,順應了大數據的時代背景,我們應當充分發揮演算法的最大效用,同時也要適時適度規範演算法,做到善用演算法。

——中國信息通信研究院互聯網法律研究中心研究員 楊 婕

技術承載著價值,利用演算法處理和推薦信息,就要對信息內容的社會影響負責。涉及的用戶規模越大,就越要注重社會責任。演算法推薦使用者對自己推薦的信息內容應認真把關,不能以犧牲導向為代價片面追求經濟效益,也不能將把關程序全部交給機器。我們應充分利用演算法技術,大範圍、精準化把握受眾需求,特別是要準確洞察用戶的價值偏好,有的放矢做好精準傳播,從而實現主流價值的有效抵達。

——復旦大學新聞學院執行院長 張濤甫

演算法雖無罪,但是演算法不能只給用戶「易牙、豎刁、衛開方」,這些人都是想盡一切辦法來討好齊桓公。演算法也要給用戶他們理智時喜歡的「管仲」。齊桓公理智時喜歡管仲,但是大多數時間,他愛的是總會取悅於他的佞臣,演算法更應該主動地去了解用戶的高級目標,而不是追隨用戶本能的喜好。

——百度創始人 李彥宏

數據的快速匯聚對個人信息的保護提出嚴峻考驗。如何在促進數據產業創新發展的同時,強化個人信息保護;如何平衡好挖掘數據價值和用戶隱私保護的關係,是每個互聯網企業必須面對的問題。特別是進入5G時代,數字資產即將成為推動社會創新進步的重要力量,企業合規使用數據,把握好數據使用和個人信息保護的「度」至關重要。

——中國互聯網協會副理事長兼副秘書長 何桂立

演算法困境的出路在於演算法人性化。整個社會變遷過程中,人們最稀缺的是時間。因為人們沒有時間搜索,所以會選擇信任人給出來的信息,這樣的「信息繭房」效應是人在一個海量信息中形成的生存之道。這種「繭房」要突破其實很容易,只要選擇的生活變了,「繭房」馬上就會消失。

——北京大學新媒體研究院副院長 劉德寰

網路平台作為一種新經濟形態,其特點是「千人千面」「個性化服務」。

應防止互聯網平台利用其信息不對稱優勢侵犯消費者合法權益。如何準確界定「殺熟」而又不損害新業態的活躍性,對執法人員提出更高的要求。

——中國社會科學院法學所副所長 周漢華

來源:人民日報海外版

avatar