“兒童邪典視頻”背後:算法治理的多元路徑 - 今日頭條

“兒童邪典視頻”背後:算法治理的多元路徑

來源:搜狐科技 2018-02-12 17:34:00

在導致人們擔憂的社會和文化現象中,搞清算法所承擔的角色,問題所在的環節,才有可能製定有的放矢的治理方案。

劉曉春/文

近期“兒童邪典視頻”事件可能激起民眾對於算法推薦的憤怒,以致於媒體上出現“狠狠打了算法的臉”的標題。

“兒童邪典視頻”指以兒童熟悉的卡通人物形象為幌子,製作帶有凶殺、暴力、色情等具有危害性內容的影片或動漫。由於標題和內容中與兒童日常接觸的視頻內容存在高度相似性,導致算法將視頻推薦給孩子。

兒童本就是互聯網上不良內容的最易受害群體,無論是政策製定者還是父母,都在努力給孩子們提供更加清淨的上網空間,此時有算法將不良內容主動精準推薦給孩子,“邪典”兩字也不足以描述人們激動的情緒。

針對算法的討論和批評近年時常見諸報端,但仔細觀察這些算法相關的輿論批評,其實是不同層麵的問題。

內容的算法推薦造成的低俗化和“信息繭房”效應,是對算法本身建模方式及其取向的批評。而“兒童邪典視頻”,並非算法設計者預見的範圍,實際是在算法篩選中沒有考慮足夠的變量,從而導致其“出錯”。

因此在對其批評和辯護前,需要搞清,算法在這些糟糕的結果產生過程中,究竟扮演什麽角色。

徒“算法”不足以自行

“算法”,一個存在已久的技術術語,隨著人工智能和大數據以迅猛的態勢深入互聯網和人們的生活,“算法”被附著眾多意義和評價,遠超其原初單純技術屬性。

最為犀利的批評是桑斯坦在其著作《網絡共和國》中描述的“信息繭房”,此概念被2017年“人民網”批判算法推薦模式的係列文章所援引。文章擔心,在內容個性化推薦的模式中,算法包含的內容過濾篩選和優化推薦的策略,會使人們局限於過於狹隘的內容和觀點,強化固有偏見和喜好,走向自我封閉和重複。桑斯坦擔心的,是窄化而非多元的信息,可能使社會分裂,並對民主製度產生破壞。

算法在實現信息過濾、篩選和定製功能時,需在輸入和輸出端都進行以數據為基礎的學習。輸入端是基於導入的海量內容進行深度樣本學習後,根據建模原理實現標簽化分類機製,比如把包含卡通人物的貼上“兒童”標簽,把包含明星內容的貼上“八卦”標簽。

在輸出端,同樣根據建模的設定,通過對用戶過往閱讀和欣賞興趣的數據處理,形成“用戶畫像”,並根據其中提煉的標簽,將有相同屬性的內容進行推送。在過程中,會添加排序的其他權重,比如,點擊量高的排序靠前,其他同類用戶經常觀看的也更可能被推送。在實踐中的算法會有更複雜的參數、變量、標簽設定和推送策略。

不過算法推送必然要受可得數據(輸入端)和受眾選擇(輸出端)的約束。而商業算法建模中對不同參數的不同權重考量,也會影響選擇和篩選的標準,從而實現特定的商業模式和目的。

要實現“低俗化”趨勢的內容推薦,在輸入端需有大量低俗內容的供應,輸出端需有對應的用戶選擇為基礎,細究算法承擔的功能,與其說是算法的推送造成低俗內容的蔓延,不如說是算法使得閱讀低俗的需求更易得到滿足。

當然,商業上的流量偏好策略有可能導致低俗內容的過度推送,所以有時候會有人抱怨“隻點擊過一次,就一直被推送”,但這種推送實際上很可能不具有商業價值,過度推送恰恰可能對用戶體驗造成負麵影響。因此,徒“算法”不足以自行。

要改變“低俗化”的內容傳播,首先要有良性的市場機製來激勵非低俗內容的生產和分發。低俗內容在互聯網上的傳播,很有可能是劣幣驅逐良幣的結果。如果希望人們更多關注社會公平、經濟發展等公共議題,那首先需要考慮如何鼓勵嚴肅、高質量的相關內容和素材的高效生產和傳播。

在用戶端,與其說“算法決定內容”,不如說是幫助人們找到想看的內容。如果算法推薦的不是用戶真正想看的,那麽用戶“用腳投票”的市場機製會迫使企業改善算法。而熱衷閱讀膚淺內容的用戶,即使沒有算法推薦,依然可能通過主動搜索等方式而獲取。算法推薦隻是打開了方便之門。

由此看,對“算法決定內容”的擔憂,主要集中在被推送什麽就看什麽、“低俗”和“劣質”的信息推送使其沉迷的人群上,而如果改為高質量的內容,他們也可能由此提升認知能力和道德水準,抱有開放的心態並積極參與到公共討論。因此,“算法”除商業外,被賦予了教育和引導的社會職能。

問題是,此類人群所占多少比重,內容推送對其能產生多大的影響,改變算法又能帶來多大好處,這是需要經過實證調查解決的問題。“信息繭房”的理論假設的確充滿智識上的衝擊力和啟發性,但建設性的治理方案卻需建立在對本國問題的充分理解和剖析基礎上。

算法治理的可能路徑

在導致人們擔憂的社會和文化現象中,搞清算法所承擔的角色,問題所在的環節,才有可能製定有的放矢的治理方案。推送“邪典視頻”的問題,不在算法本身建模取向合理性的問題,而更多是算法參數設計的不完備。“邪典視頻”躲過算法的篩查,有可能是發布者針對算法“漏洞”的規避行為,在此意義上,解決方案較直接,一方麵將不良內容嚴格審核下架,另一方麵有針對性地堵上算法漏洞,預防未來的規避風險。

不過,這並不是一個簡單和單一的過程。算法的治理需要與算法之外的其他配套製度相互支撐與配合。

比如在內容審核上,需設定合理而有效的平台責任,同時要在平台不可預見的情況下設置責任的邊界,過於嚴格的責任有可能變成平台不可承受之重。

“兒童邪典視頻”固然令人憤怒,但要理性評估其發布是否在平台合理可以預見的範圍內。與此同時,對於主觀惡性較為明顯的主動發布者和傳播者,則應當明典重刑,通過落實法律責任和社會聲譽機製,對其形成有效的遏製。

法律機製之外,還應積極發揮市場機製和技術措施。針對兒童這樣的易感人群,要鼓勵開發和製定特殊針對性措施,父母的監護也應起到首要的責任,政府和媒體可以針對此類特殊事件建立預警和迅速傳播機製,以將風險和損害控製在最小範圍。

針對算法推薦內容模式本身的評價,問題則更複雜。首先,如前言,需明確界定治理算法的出發點。對於商業算法來說,對其承擔更多教育和引導功能的期待,是否必要和可行,需審慎論證。自上而下基於理論假設的推斷,應當讓位於自下而上的問題調查和謹慎求證。

其次,算法治理需離開單純的內容推送,放在更廣闊的圖景下觀察,比如政府使用算法進行政策製定,算法被用作競爭手段等。特別是,互聯網企業遭受不正當競爭指控時,時常會援引算法作為正當性的抗辯理由。

比如今日頭條近日指控百度操縱自然搜索結果,百度的回應之一即為“排序與用戶需求、相關性、時效性、用戶的點擊行為等係列因素相關”,大意是算法的運算結果而非企業有意為之。此爭議在以前奇虎360對百度的指控,以及歐盟對穀歌操縱比價網站搜索結果的反壟斷審查中,亦有反映。

在企業涉嫌損害競爭對手、消費者利益、造成歧視性後果等場景,以及政府利用算法進行決策的領域,算法可能會被推到前台,麵臨合法性的質疑。首先麵臨的困難就是搞清算法的內容。討論算法透明度時,算法作為企業核心競爭優勢和商業機密的特點,與法院和公眾了解算法合法性的需求產生了矛盾。算法的過度披露,甚至可能起到反作用。正如搜索引擎公司經常強調的,一旦算法邏輯被完整披露,隨之而來的是大量規避規則的“作弊”行為。

在算法治理領域,出現“有意義的算法透明度”這樣的提法,並不要求算法徹底公開,算法持有者需披露有意義的、可觀測的指標證明其合法性,包括算法公平性、性能和效果、解釋輸出結果的邏輯過程等,並圍繞這一目標構建評估指標體係。

重要的是,與人類社會的其他領域一樣,算法的優勝劣汰,主要應依靠市場和多元化來實現。互聯網時代開放的是超越以往任何時代的可能性和選擇空間,統一人們的價值觀和選擇模式變得比以往更加困難和低效。人們總是可以找到自己想看的,拒絕厭惡的,相信人們可以做出對自己更有利的理性選擇。

也要運用技術的力量精準定位市場可能出現失靈的部位,進行針對性的矯正,比如,有必要建立對未成年人接觸內容的加強監控和快速反應機製。在法律守住底線的前提下,通過市場的角逐,技術的改進,言論的監督,在多元化的治理模式下,算法有望幫助人類建構更具有豐富內涵意義的世界。

(作者為中國社會科學院大學互聯網法治研究中心執行主任,編輯:王敬愷)

責編 |黃姝靜 shujinghuang@caijing.com.cn

◤本文為《財經》雜誌原創文章,未經授權不得轉載或建立鏡像。如需轉載,請在文末留言申請並獲取授權。◢返回搜狐,查看更多

點擊查看原文

相關鏈接