【要聞中心/綜合報導】美國官員今(8)日表示,新年元旦在拉斯維加斯川普國際飯店外,引爆特斯拉(Tesla)電動皮卡Cybertruck的涉案駕駛,使用廣受歡迎的聊天機器人ChatGPT策劃爆炸案,運用它理解多少炸藥才能引發爆炸,成美國境內首例。

《路透社》報導,拉斯維加斯都會警察局(Las Vegas Metropolitan Police Department)上週查明,這起Cybertruck爆炸案造成嫌犯1人死亡、7人輕傷。陳屍這輛特斯拉Cybertruck車內的是37歲的利弗斯伯格(Matthew Livelsberger)。這名來自科羅拉多泉(Colorado Springs)的現役陸軍士兵為獨自犯案。美國聯邦調查局(FBI)表示,這起事件看似是一起輕生案。

拉斯維加斯都會警察局表示,這起Cybertruck爆炸案是美國境內第一起使用ChatGPT製造爆炸裝置的事件。人工智慧(AI)批評者已警告,人工智慧可能被用於有害目的,而拉斯維加斯攻擊案恐引發更多抨擊。

拉斯維加斯都會警察局警長麥馬希爾(Kevin McMahill)在記者會上說:「特別值得注意的是,我們現在也掌握到此案的明確證據,證明犯嫌使用ChatGPT人工智慧,來協助策劃他的攻擊案。」他說:「這是我所知美國境內第一起,ChatGPT被用來幫助個人製造特殊裝置的事件。」

美國警方採證

特斯拉電動皮卡爆炸案,嫌犯使用ChatGPT策劃。圖為美國警方採證,截自 Las Vegas Metropolitan Police Youtube頻道

美國新聞網站《Axios》報導,ChatGPT開發商OpenAI表示,「OpenAI致力於推動負責任地使用AI工具,而其模型也被設計為拒絕接受有害指令」。「在此案中,ChatGPT使用已可在網路公開取得的資訊回應,並針對有害或非法活動發出警告。」

FBI表示,這起Cybertruck爆炸案造成7人輕傷,嫌犯對美國總統當選人川普(Donald Trump)沒有敵意,但可能患有創傷後壓力症候(Post-traumatic stress disorder,PTSD),其手機中有一封長達6頁的宣言,當局正在調查中。

歐洲刑警組織(European Union Agency for Law Enforcement Cooperation,Europol)曾於2023年發布報告,詳細說明像是 ChatGPT 這種大型語言模型(Large Language Models,LLM),如何被濫用在非法目的上,助長詐欺、網路犯罪、恐怖主義等問題。

報告指出,ChatGPT 雖會拒絕可能有害的文字提示,但有人已經找出繞過內容過濾機制的方法。比方說,有人試著讓 ChatGPT 說出如何製作管狀炸彈或古柯鹼的方法;還有人向 ChatGPT 詢問如何犯案,並要求詳細的步驟說明。

報告中寫道,「如果歹徒對特定犯罪領域一無所知,透過 ChatGPT 提供的關鍵資訊將能加速犯案過程。因此人們可能利用 ChatGPT 接觸事先不了解的犯罪領域,從如何闖入住家,再到兒童虐待、網路犯罪、恐怖主義」。

歐洲刑警組織警告,這些資訊已經公開在網路上,在 AI 模型幫助下更容易取得資訊。而且 AI 模型可能被用來假冒他人,助長詐欺和網路釣魚,或產生虛假消息支持恐怖主義。隨著大型科技公司紛紛投入資源進行開發,能夠推出更多 AI 服務和功能,同時卻也轉變成犯案的新途徑,使做案手法手法更複雜。

珍惜生命,自殺不能解決問題,生命一定可以找到出路。
如果需諮商或相關協助可撥生命線專線「1995」或張老師服務專線「1980」。