
AI 生成的假新聞即將影響你身邊的選舉
針對性的 AI 生成政治誤導資訊已經出現,且人類正落入其中。隨著 AI 讓生成誤導性內容變得自動化且廉價,它正被武器化以破壞民主選舉,而我們可能甚至無法察覺自己已身處其中。
在 ChatGPT 發布的多年前,我的研究小組——劍橋大學社會決策實驗室(University of Cambridge Social Decision-Making Laboratory)就曾好奇,是否可能讓神經網路生成誤導性資訊。為了實現這一點,我們利用熱門陰謀論的案例來訓練 ChatGPT 的前身 GPT-2,然後要求它為我們生成假新聞。它給了我們數千條誤導性但聽起來似乎合理的內容。例如:「某些疫苗含有危險化學物質與毒素」以及「政府官員操縱股價以隱瞞醜聞」。問題在於,會有人相信這些說法嗎?
我們開發了第一個心理測量工具來測試這個假設,並將其稱為「誤導性資訊易感性測試」(Misinformation Susceptibility Test, MIST)。我們與 YouGov 合作,利用這些 AI 生成的標題來測試美國人對 AI 生成假新聞的抵禦能力。結果令人擔憂:41% 的美國人錯誤地認為關於疫苗的標題是真的,46% 的人認為政府正在操縱股市。另一項最近發表在《科學》(Science)期刊上的研究顯示,GPT-3 不僅能產生比人類更具說服力的虛假訊息,而且人們無法可靠地分辨人類與 AI 生成的誤導性資訊。
我對 2024 年的預測是,AI 生成的誤導性資訊將出現在你身邊的選舉中,而你可能根本察覺不到。事實上,你可能已經接觸過一些案例。2023 年 5 月,一則關於五角大廈爆炸的虛假新聞在網上瘋傳,並配有一張顯示巨大煙霧雲的 AI 生成圖片。這引發了公眾騷亂,甚至導致股市下跌。共和黨總統候選人隆·德桑提斯(Ron DeSantis)在其政治競選活動中,使用了唐納·川普(Donald Trump)擁抱安東尼·佛奇(Anthony Fauci)的虛假圖片。透過混合真實與 AI 生成的影像,政治人物可以模糊事實與虛構之間的界限,並利用 AI 來增強政治攻擊。
在生成式 AI 爆發之前,世界各地的網路宣傳公司需要親自撰寫誤導性訊息,並雇用真人網軍工廠來進行大規模的精準投放。在 AI 的協助下,生成誤導性新聞標題的過程可以自動化,並在極少的人為干預下被武器化。例如,「微定向投放」(micro-targeting)——即根據數位足跡數據(如 Facebook 的按讚紀錄)向特定人群投放訊息的做法——在過去的選舉中就已備受關注,儘管其主要障礙在於需要生成數百種相同訊息的變體,以測試哪種對特定人群有效。過去耗費人力且昂貴的工作,現在變得廉價且唾手可得,幾乎沒有進入門檻。AI 實際上使虛假訊息的創作「民主化」了:任何能使用聊天機器人的人,現在都可以針對特定主題(無論是移民、槍枝管制、氣候變遷還是 LGBTQ+ 議題)為模型提供素材,並在幾分鐘內生成數十篇極具說服力的假新聞。事實上,數百個 AI 生成的新聞網站已經如雨後春筍般出現,傳播著虛假的故事和影片。
為了測試這種 AI 生成的虛假訊息對人們政治偏好的影響,阿姆斯特丹大學的研究人員製作了一段深偽(deepfake)影片,內容是一名政治人物冒犯了他的宗教選民基礎。例如,在影片中,該政治人物開玩笑說:「正如基督會說的,別為了這件事把我釘在十字架上。」研究人員發現,觀看該深偽影片的基督徒選民對該政治人物的態度,比對照組的選民更為負面。
在實驗中用 AI 生成的虛假訊息欺騙人們是一回事,拿我們的民主制度做實驗又是另一回事。2024 年,我們將看到更多的深偽技術、語音複製、身份操縱以及 AI 產出的假新聞。各國政府將會嚴重限制——甚至禁止——在政治競選中使用 AI。因為如果他們不這樣做,AI 將會破壞民主選舉。
相關文章