文/羅世宏
畢業於倫敦政經學院,立志不做大官,也不做大事。平日最喜歡做的事是閱讀、思考和寫作。最大的缺點是「好為人師」。
你是否曾經收到看似官方的LINE簡訊,內容宣稱你中了某家超商的抽獎活動,並引導你點入一個「真實無比」的網站頁面?畫面上不僅有公司Logo與活動條款,還有一位熱情的「線上客服」即時對話,提醒你儘速輸入卡號與驗證碼以完成兌獎。
當詐騙訊息用你熟悉的語言、模仿你社區的語氣、甚至複製你母親的口吻時,我們正面對的不只是資安威脅,而是語言與信任的雙重崩潰。這些幾可亂真的語言、圖片與對話內容,很可能來自於生成式人工智慧。
根據美國資安公司Recorded Future指出,自2023年起,至少50個地下Telegram社群以AI平台(如ChatGPT與Gemini)協作產製詐騙內容。他們交換AI詐騙腳本、生成式圖像素材與針對不同社群的「人格語料庫」,並開發「詐騙即服務」(Scam-as-a-Service)商業模型,販售客製化語言攻擊包,目標直指高齡者、非主流語言使用者與資訊邊緣社群。
在台灣,這類產業型詐騙風險正逐步滲透,尤其對語言少數族群造成特殊衝擊。許多針對特定族群(如客家長者、原住民社群與東南亞新住民家庭)的詐騙內容,開始出現母語詞彙、在地地名與假冒官方語氣。詐騙訊息常以政府單位名義發布,或假借候選人政策公告、地方補助通知形式進行。2024年地方選舉期間,即出現假冒候選人辦公室發布的「敬老紅包申請」公告,透過在地語言如客語、排灣語在LINE群組中散播,實則為詐騙連結。
生成式AI在這些詐騙中扮演兩個角色:其一是語言自動化引擎,能快速生成自然流暢、符合方言語境的詐騙語句;其二是文化模擬器,能模仿地方語言使用者的生活結構、價值認知與訊息風格,從而製造近似社群內部的「熟人感」與「信任假象」。
然而,我們的制度設計與資訊治理尚未正視這種「族群導向詐騙」的深層風險。台灣目前的防詐機制仍集中於事後的舉報、金融控管與網站封鎖,缺乏針對語言少數群體的前端防線與教育資源。
我們需要轉向多語防詐治理。第一步是建立AI內容來源標註制度,要求自動生成高風險資訊的網站與聊天機器人平台強制加註其生成技術來源與使用語言模型紀錄;第二步,是社群平台應主動設立「語言變體監控系統」,識別極具地方擬真性的詐騙語料與模板。
第三步則是文化正義的基礎工程:推動「語境式識詐教育」,讓族群語言使用者能以自己熟悉的語言學習辨識詐騙。例如開發客語、排灣語、越南語與印尼語版的「假客服對話App」,設計情境模擬、分鏡故事與角色對話,幫助高齡者在母語情境中建立識詐能力。也應培育「族語識詐講師」,透過地方劇團、教會、小學與社區大學的方式,進入各庄頭與部落教學,讓防詐教育根植地方。
高齡者與語言少數族群的資訊防線,是全社會最容易被穿透的縫隙;而防詐專家也提醒我們,資訊正義不只關乎誰能讀懂訊息,更關乎誰能發聲與被信任。這不只是科技與資安的課題,更是民主社會對於語言多樣性、文化尊嚴與資訊正義的集體考驗。