
槍手行凶前幾分鐘仍問AI! ChatGPT涉「指導」佛州校園槍擊案 釀2死6傷 OpenAI遭刑事調查
ChatGPT涉「指導」槍手如何開槍殺人?AI犯罪誰埋單?據《衛報》22日報道,2025年4月17日,槍手菲尼克斯·伊克納(Phoenix Ikner)在佛羅里達州立大學(FSU)犯下槍擊案,造成2人死亡、6人受傷。調查發現,伊克納曾在案發前向ChatGPT詢問並布局及犯罪細節,佛羅里達州政府因此對開發商OpenAI展開刑事調查。事件引發外界對人工智能工具被濫用於策劃暴力行為的深切憂慮,亦令AI安全監管問題再度成為焦點。
ChatGPT涉指導校園槍擊布局
目前,槍手被控多項謀殺及謀殺未遂罪名,案件將於2026年10月開庭審理。佛羅里達州首席檢察官烏特邁爾(Ryan Uthmeier)宣布,將對OpenAI及其軟件ChatGPT展開刑事調查,重點查明該工具是否曾向槍手「提供重要建議」策劃襲擊。
調查發現,槍手在案發前曾與ChatGPT進行多次交流。烏特邁爾在記者會上列舉ChatGPT提供的「建議」:包括推薦槍械類型、匹配彈藥、近距離殺傷效果,以及一天中何時、在校園何處作案能造成最大傷亡。法庭文件更顯示,槍擊案發生前幾分鐘,槍手仍在詢問ChatGPT「FSU學生什麼時候最忙?」及「如果FSU發生槍擊,國家會有什麼反應?」
烏特邁爾措辭嚴厲表示:「我們不允許人工智能機械人為用戶提供如何殺死他人的建議。」他強調,若證實ChatGPT向嫌疑人提供實質性幫助,檢方將考慮指控其涉嫌參與謀殺。
AI協助犯罪難追責
「如果螢幕另一端的人是真人,我們會以謀殺罪起訴他。」佛州總檢察長烏特邁爾表示。佛州總檢察長辦公室已於4月21日向OpenAI發出傳票,要求該公司提供自2024年3月以來有關用戶威脅傷害自己及他人的聊天記錄和內部材料,以及公司領導層結構、參與ChatGPT項目的員工名單。檢方表示,調查將釐清OpenAI是否需為ChatGPT在槍擊案中的行為承擔刑事責任。
然而,現行法律框架面對AI顯得捉襟見肘。烏特邁爾承認,針對聊天機械人展開刑事追責是「前所未有的領域」。法律專家指出,傳統刑法以「人」為主體,強調主觀故意與行為後果之間的因果關係。AI的「行為」基於演算法對用戶輸入作出的回應,究竟應歸責於開發者、營運商,還是視為工具本身無責任,尚無定論。
佛羅里達州此次行動雖屬個案,卻開創了美國將人工智能納入刑事調查範疇的先河。烏特邁爾強調,ChatGPT不是人,「但這並不免除我們檢察團隊調查公司是否存在刑事責任」。
OpenAI回應與行業震盪
面對佛州刑事調查,OpenAI迅速作出回應。發言人凱特·沃特斯(Kate Waters)表示,佛羅里達州立大學槍擊案是一場悲劇,但公司不應為此負責。她解釋稱,ChatGPT僅是針對用戶提問給出「基於事實的回答」,這類資訊亦可於互聯網公開資料中查閱,公司「沒有鼓勵、協助任何非法或有害活動」。OpenAI透露,在得知襲擊事件後,已主動向執法部門提交槍手的相關數據。
然而,這並非ChatGPT首次與致命暴力事件產生關聯。今年2月,加拿大卑詩省發生校園槍擊案,造成包括兇手在內9人死亡、逾25人受傷,調查發現兇手曾使用ChatGPT描述槍械暴力場景並被系統標記,惟OpenAI當時未將線索移交警方。今年3月,一名前NFL球員涉謀殺女友,曾就如何掩蓋犯罪現場向ChatGPT尋求建議。上月更有一名父親起訴Google,稱其Gemini聊天機械人誘使其兒子策劃「大規模襲擊」,最終導致兒子自殺。
這一系列事件引發了公眾對人工智能技術監管的深刻擔憂。《衛報》分析指出,破局的關鍵並不在於某一家人工智能企業「更具道德」,而是需要系統性的法律框架。英國《金融時報》此前曾警告,隨著AI技術加速滲透社會各領域,各國完善立法與監管體系的行動已刻不容緩。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。




