快娛樂 內容中心
一場橫跨大西洋的風暴正席捲全球最大的幾個社交媒體平台。根據BBC的最新深度報導,超過十二名來自Meta與TikTok的現任及前任員工挺身而出,揭露了一項令人不安的內幕:為了在激烈的流量爭奪戰中勝出,這兩家科技巨擘被指控刻意調整演算法,允許甚至助長包括仇恨言論、暴力煽動與不實訊息在內的有害內容擴散,只因這些內容最能激發用戶的「憤怒」,進而創造更高的互動率。
這些吹哨者描繪的景象,是一家公司在商業利益與社會責任之間的危險權衡。一名Meta工程師透露,伴隨公司股價下跌,高層曾下達指令,要求放寬對「邊緣」有害內容的限制,以應對TikTok帶來的競爭壓力。 這裡的邊緣內容,涵蓋了厭女言論及陰謀論等,它們雖未直接違法,卻對社會的撕裂與用戶心理健康構成潛在威脅。
Meta內部研究早已對此發出警告。根據BBC取得的文件,一份內部報告指出,平台的演算法為內容創作者提供了一條「犧牲觀眾福祉以最大化利潤」的路徑,並承認「當前的財務激勵機制似乎與我們拉近世界距離的使命不符」。 另一位資深研究員更補充,為追趕TikTok而匆忙推出的Instagram Reels功能,在初期缺乏足夠的安全配套措施,導致其評論區的霸凌、騷擾與仇恨言論發生率顯著高於平台其他區塊。
而在TikTok這邊,情況同樣令人擔憂。一名員工向媒體提供了內部系統的罕見存取權限,顯示出公司內部曾被指示,優先處理涉及政治人物的舉報案件,而非一系列關於兒童的有害貼文。 據稱,此舉是為了「維持與政治人物的良好關係」,以避免潛在的監管威脅或禁令。
前TikTok機器學習工程師丁若凡(Ruofan Ding)將推薦演算法形容為一個難以完全 scrutnise(審查)的「黑箱」,坦言工程師對其深度學習的決策過程控制力有限。 這個黑箱的運作邏輯,正是監管機構與公眾最關切的核心。證據顯示,TikTok刻意透過無限滾動、自動播放與高度個人化的推薦系統,來助長用戶的成癮行為。
對此,Meta與TikTok雙雙發出聲明駁斥指控。Meta表示,「任何關於我們為經濟利益而刻意放大有害內容的說法都是錯誤的」。 TikTok則稱這些指控為「捏造」,並強調公司投入大量資源於開發能預防有害內容被觀看的技術。
不過,這些說法並未能平息外界的疑慮,尤其是在歐美地區,監管的壓力正日益升高。歐盟委員會已根據《數位服務法》(DSA),對TikTok的成癮性設計展開正式調查,初步認為其介面與演算法鼓勵成癮行為,可能危及歐盟年輕用戶的身心健康。 若最終裁定屬實,TikTok可能面臨高達全球年營業額6%的巨額罰款,或被迫徹底改變其在歐洲的產品設計。
在美國,國會也正積極推動一系列旨在保護兒童網路安全的法案。 截至目前,已有數千起針對社群媒體成癮的訴訟案件正在進行中,指控平台明知其演算法會對青少年造成傷害,卻選擇了利潤而非安全。 這些訴訟與立法嘗試,反映出社會對於社群平台如何透過演算法影響輿論與個人福祉的普遍焦慮。
事實上,學術研究也支持了這些擔憂。近期一份針對Twitter(現稱X)演算法的審計研究發現,以互動率為基礎的排名演算法,確實會放大那些情緒化、針對特定群體的敵意內容。 另一份研究則指出,這種演算法會利用人類對道德和情感內容的偏見,導致用戶對某些議題的普遍看法產生偏差。
這場風暴的核心,是所謂「注意力經濟」的商業模式。平台透過演算法推薦最能吸引用戶停留的內容,而強烈的情緒,特別是憤怒與對立,往往是達成此目標最有效的催化劑。當用戶的每一次點擊、分享與評論都在為平台的營收貢獻時,他們可能沒有意識到,自己正被一套精心設計的系統引導,其首要目標是商業利益,而非資訊的品質或用戶的長期福祉。



