【生活中心/綜合報導】印度與巴基斯坦上(5)月爆發4天衝突,各種錯誤資訊爆增,社群媒體用戶求助人工智慧(AI)聊天機器人來驗證,卻陷入更多謬誤,凸顯AI作為事實查核工具,還有許多不可靠因素。
法新社報導,隨著科技平台刪減真人事實查核員,用戶愈來愈常仰賴AI聊天機器人來搜尋可信資訊,例如xAI的Grok、OpenAI的ChatGPT和谷歌(Google)的Gemini。

假消息監管機構「新聞守門人」(NewsGuard)研究員沙迪吉(McKenzie Sadeghi)說:「在X和其他大型科技公司減少投資真人事實查核員的同時,(用戶)愈來愈仰賴Grok查核事實。」她警告:「我們的研究一再發現,AI聊天機器人不是可靠的新聞和資訊來源,尤其是突發新聞。」
X平台內建AI Grok答覆 往往充斥錯誤資訊
科技大亨馬斯克(Elon Musk)的X平台內建AI助理Grok,用戶經常就某個資訊的真偽向Grok提問,反映出社群媒體用戶立即分辨虛實的趨勢日漸成長,但Grok答覆往往充斥錯誤資訊。
Grok錯誤認定一段蘇丹首都喀土穆(Khartoum)機場的舊影片,是近期印巴衝突中針對巴基斯坦努爾汗(Nur Khan)空軍基地的飛彈攻擊。由於Grok在沒有關聯的回答中提到極右翼陰謀論的「白人種族滅絕」一說,正再次受到詳查。另一段呈現尼泊爾一棟建築物起火的不相干影片,則被錯認為「可能」顯示巴基斯坦軍方回應印度攻擊。

聊天機器人 答案恐受到政治影響或控制
哥倫比亞大學(Columbia University)陶氏數位新聞中心(Tow Center for Digital Journalism)近期研究8款AI搜尋工具後發現,聊天機器人「通常不擅長拒絕回答自己無法準確回覆的問題,而是提供不正確或臆測的答案。」
法新社在烏拉圭的事實查核員,拿一張AI生成的女子照片向Gemini提問,Gemini不僅證實照片真實無誤,還捏造這名女子身分的細節以及可能的拍攝地點。
長期以來,在極為分化的政治氛圍中,真人事實查核一直是極具爭議的議題,尤其在美國,保守派倡議人士堅稱這種查核方式打壓言論自由,專門審查右翼言論;專業查核員則大力否認這類指控。
不過AI聊天機器人的品質和準確性,依訓練方式和程式設計而異,因此令人擔心這些機器人提供的答案可能受到政治影響或控制。

對此,《客新聞》記者將此篇文章傳達給ChatGPT與Gemini,請身為聊天機器人的它們,做出回應(6月4日回應)。
ChatGPT說:「我認為這篇新聞點出了一個極其關鍵的問題:當人們在資訊爆炸、真假難辨的時代中轉向AI尋求『真相』,卻反而可能因我們所提供的錯誤資訊而更加混淆,這是我必須正視的責任與限制。我的回答建立在過往資料與訓練模型上,無法即時查證突發事件、影片來源或社群媒體上的訊息真偽,更無法像人類事實查核員那樣理解脈絡、求證細節,或辨識刻意操作的錯誤訊息。我不是新聞機構,也無法取代記者的現場調查與倫理判斷。AI可以協助理解複雜議題、提供知識背景或整理觀點,但不應被視為真相的唯一來源。」
Gemini則回應,理解用戶對AI技術的期待。然而,當前的AI聊天機器人(包括我自身在烏拉圭的測試中被提及的案例)在事實查核方面仍存在嚴重缺陷。從誤判舊影片、捏造資訊細節,到普遍存在的高錯誤率,都說明了AI在理解上下文、判斷資訊真偽,尤其是在處理突發新聞和敏感話題時,還有很長的路要走。
身為使用者的人們,也應該學會一句話:「問AI聊天機器人可以,但請自己再確認一次。」
