快娛樂 內容中心
在螢幕與現實的界線日益模糊的今天,一場關於真相的戰爭正在社群平台X (前身為Twitter) 上激烈上演。伴隨生成式AI技術的普及,大量描繪中東武裝衝突的逼真影像與影片如洪水般湧現,即便X平台已祭出嚴厲打擊措施,但這股由演算法驅動的假訊息浪潮,似乎仍難以被根絕,持續挑戰著大眾辨識真偽的能力。
這些AI生成的內容殺傷力驚人,從虛構的城市爆炸、不存在的空襲畫面,到偽造的政治人物聲明,種類五花八門。 根據近期的衝突觀察,許多在X、Facebook等平台上瘋傳的影片,事後都被證實是挪用過去其他戰爭的舊影像,甚至是直接取自電子遊戲畫面,再透過AI配上聳動標題,企圖製造恐慌與引導輿論。
面對日益嚴峻的挑戰,X平台在3月初宣布新政策,將對發布未明確標示為AI生成的衝突內容創作者,祭出暫停其參與廣告收益分潤計畫的懲罰。 根據Bitcoinworld報導,初犯者將面臨90天停權,若再犯則可能被永久移除。 X希望藉由切斷經濟誘因,降低用戶為了博取關注而散播不實資訊的動機。
不過,這場貓捉老鼠的遊戲遠未結束。根據AFP數位調查部門主管Marisha Goldhamer的分析,即使平台要求標示,許多假訊息製造者仍會刻意裁切掉AI生成工具留下的浮水印,或利用微小破綻 (例如人物多出一根手指) 來規避自動偵測系統。 這些內容的傳播速度與規模,早已超過傳統人工審核所能負荷的範圍。
這場亂象也凸顯了X平台自身的問題。根據Digital Watch Observatory的報導,X自家開發的AI聊天機器人Grok,近期在英國也被發現會生成帶有種族歧視與不實資訊的內容,引發外界對其內容審核能力的質疑。 當平台自身的AI工具都無法確保資訊正確性時,又該如何有效規範用戶生成的內容?
不只X平台,整個社群媒體產業都面臨同樣的困境。Meta的獨立監督委員會近期便嚴厲批評該公司,對於一則關於以色列與伊朗衝突的AI假影片反應過慢,未能及時阻止其傳播。 委員會指出,現行依賴創作者「自我揭露」或用戶檢舉的模式,已不足以應對AI內容的擴散速度,尤其是在危機時刻。
根據TIME引用AI事故資料庫的數據,與AI相關的惡意行為報告,特別是利用深偽技術進行詐騙或散播假訊息的案例,自2022年以來成長了八倍之多。 這場資訊戰的本質,已從過去的內容「再傳播」演變為AI的「自動生成」,從根本上改變了假訊息的產製模式。
專家分析,AI演算法的推薦機制,往往會優先推送能引發強烈情緒反應的內容,無論其真實性如何,這顯然助長了極端與煽動性言論的傳播。 此外,根據Annenberg School for Communication的研究指出,AI審核系統在處理非英語內容時的偏見與不足,也使得假訊息在許多地區更容易找到可趁之機。
最終,這場AI假訊息戰爭最令人憂心的後果是,它正在侵蝕我們對所有資訊的信任感。The Irish Times的一篇評論指出,當人們連親眼所見的影像都無法輕易相信時,懷疑主義將成為常態,甚至可能導致公眾對真實發生的重大事件麻木不仁,最終使所有人感到精疲力竭。
相關報導:wgi.world、stimson.org



