社群巨頭 TikTok 和 Meta(旗下有 Facebook 和 Instagram)又面臨安全質疑。多位關係人士和吹哨者說,兩家公司為了演算法競爭勝出,選擇冒險,允許更多有害內容進入用戶資訊牆。吹哨者於 BBC 紀錄片〈Inside the Rage Machine〉揭露黑幕,指這些決策涉及暴力、性勒索和恐怖主義等問題。
Meta某工程師透露,管理層要求他們允許更多「邊緣」有害內容進入用戶資訊牆,以便與TikTok競爭。工程師說下決策的背後是公司股價下跌壓力。TikTok某員工則向BBC展示用戶投訴列表,處理政治人物案例時,優先級高於兒童有害內容。
Meta高級研究員Matt Motyl指出,Instagram Reels在2020年推出時缺乏足夠安全保障,公司研究顯示,Reels欺凌、仇恨言論和暴力內容出現率比Instagram其他部分都高。儘管公司為了Reels撥給700名員工開發維護,卻拒絕增加安全團隊專門處理兒童保護的職位。
吹哨者強調,兩家公司瘋狂追求用戶黏著度更高,卻忽視用戶安全。TikTok員工Nick表示,公司優先級設定使政治性處理高於青少年安全性,使青少年和兒童面臨更大風險。
當然Meta和TikTok又否認故意放大有害內容以謀取經濟利益。Meta強調用戶安全政策十分嚴格,TikTok則表示技術能防止有害內容出現。儘管如此,吹哨者舉證歷歷,兩家平台演算法仍有許多問題,且無法消解用戶安全與商業利益的矛盾衝突。
(首圖來源:AI)






