快娛樂 內容中心
一場看不見的戰爭正在全球數位世界悄然升級。過去我們賴以辨識詐騙的拼字錯誤、語法不順等「破綻」,正伴隨生成式AI技術的普及而迅速消失。取而代之的是近乎完美的客製化詐騙訊息,無論是電子郵件或語音通話,其逼真程度已足以讓最謹慎的人卸下心防,引爆一場前所未有的信任危機。
這波由AI驅動的新型態網路釣魚,核心在於其驚人的「擬人化」能力。根據Kaspersky的分析,AI模型能輕易抓取個人在社群媒體上的公開資訊,模仿其寫作風格、慣用語氣,甚至了解其人際網絡,並大規模自動生成高度個人化的詐騙郵件。 這種客製化能力讓詐騙訊息看起來就像是來自你我熟悉的同事、朋友或家人,可信度呈倍數增長。
威脅不僅止於文字。AI語音克隆技術的成熟,讓「聲音」成為駭客的新武器。根據First Reliance Bank的警告,詐騙集團僅需截取目標對象在網路上幾秒鐘的聲音片段,就能合成出足以亂真的聲音,發動所謂的「語音釣魚」(Vishing)。 最常見的手法是製造「家人緊急事故」,例如謊稱親人遭綁架或發生意外,利用克隆聲音在電話中製造恐慌與急迫感,誘騙受害者立即匯款。
除了聲音,影像也成為詐騙的溫床。根據世界經濟論壇(World Economic Forum)的報告,利用深度偽造(Deepfake)技術進行的視訊詐騙在激增了700%。 最著名的案例之一,是一家跨國工程公司因財務人員接到一通冒充集團財務長的Deepfake視訊電話,信以為真地匯出了高達2500萬美元的款項,凸顯了此類攻擊對企業造成的巨大財務風險。
數據顯示,這場AI詐騙浪潮正以驚人速度席捲而來。根據Group-IB在2026年的研究,AI驅動的詐騙案件呈現爆炸性增長。 更有資安公司SentinelOne的報告指出,與生成式AI相關的釣魚攻擊在過去一年內飆升了1265%。 世界經濟論壇在其《2026年全球網路安全展望》中更指出,高達73%的組織在已直接受到網路詐騙的衝擊。
傳統的資安防禦體系在這波攻擊下面臨嚴峻考驗。過去的郵件過濾系統主要依賴偵測已知的惡意連結或語法錯誤,但AI生成的內容完美地繞過了這些傳統標記。 Sygnia的資安專家指出,當82.6%的釣魚郵件都由AI生成時,企業必須重新評估其風險模型與應變速度,因為從入侵到造成實際損害的時間已大幅縮短。
這場危機也催生了一場技術軍備競賽。當攻擊方利用AI製造更精密的騙局時,防守方也正積極導入AI來強化威脅偵測與應變能力。 根據ResearchGate發布的報告,全球生成式AI網路安全市場預計將從的77.3億美元,以超過33%的年均複合成長率,在2033年達到797.1億美元的規模,顯示業界正投入大量資源應對挑戰。
相關報導:vectra.ai、threatmark.com



