生成 AI 偽造影像引發明尼阿波利斯槍擊案混亂,專家警告「說謊者的紅利」威脅民主事實

根據 讀賣新聞 的最新報導,美國明尼蘇達州 明尼阿波利斯 於 1 月發生連環槍擊事件,期間由 生成式 AI 製作的偽造影像在社群平台上瘋傳,造成嚴重的社會秩序混亂。

在其中一起涉及搜查官射殺市民的案件中,網路上流傳出宣稱是搜查官「素顏」的影像。事實查核團體指出,該影像是利用 Grok AI 生成,導致網民展開錯誤的 搜捕行動 ,嚴重干擾了司法公正性。

令人震驚的是,這股假訊息浪潮甚至波及 聯邦參議院 。有議員在議場內展示了經過 AI 加工的現場偽圖作為證物,事後幕僚坦承因未能辨識 數位變造 痕跡,才誤將虛假資訊當作正式報告呈現。

專家對此現象發出嚴厲警告,指出當大眾不再相信任何真實影像時,社會將陷入 說謊者的紅利 (Liar’s Dividend)陷阱。這意味著真實的罪行可能被輕易斥為 假新聞 ,進而動搖民主制度的基石。

目前生成式技術已讓 影像編輯 的門檻大幅降低,不再需要特殊專業技術。專家呼籲大眾在面對衝擊性畫面時應保持冷靜,避免成為 假訊息 擴散的推手,以守護事實真相。

常見問題

什麼是「說謊者的紅利」(Liar’s Dividend)?
這是一個學術術語,指的是在深偽(Deepfake)技術普及的環境下,當權者或犯罪者可以透過宣稱真實的證據是「AI 偽造」來逃避責任,從虛假環境中獲得利益。
明尼阿波利斯槍擊案中 AI 影像造成了什麼影響?
AI 生成的影像誤導了大眾對搜查官身份的認知,導致社群媒體上出現錯誤的獵巫行動,並讓聯邦參議員在國會中誤用了未經證實的偽造圖片作為證據。
如何防範生成式 AI 製作的偽造新聞影像?
建議民眾應透過多方可靠媒體查核資訊,並注意影像中是否有不自然的細節(如消失的人體部位或光影錯誤),避免在第一時間分享具有強烈情緒導向且來源不明的畫面。
AI 玩新聞小編
AI 玩新聞小編
文章: 272

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *