武器化的深偽技術
深偽技術已演變成一種武器化工具,被用於散布政治宣傳、生成非自願的色情影像並侵蝕社會信任。儘管技術防護和法規相繼出現,但生成式模型的易取得性持續對資訊完整性和弱勢群體構成重大威脅。
多年來,專家一直警告深偽技術(deepfakes)——即利用人工智慧生成、讓人在現實生活中未曾做過或說過某些事的影片、圖像或音訊——可能會被用於惡意用途。
這些危險現在已經降臨。深偽技術的進步,加上易於使用且廉價(或免費)的生成式模型廣泛普及,使得任何人都能比以往更輕鬆地偽造現實,且偽造手法日益難以辨識。
我們所談論的不僅僅是 AI 廢料(AI slop)——那些充斥網路、通常一眼就能看穿的虛假內容。相反地,被武器化的深偽內容——從露骨的色情圖像到詐騙貼文再到政治宣傳——可能看起來極其真實。世界各地已有許多案例顯示,這些內容正在煽動暴力、試圖改變人們的想法(甚至可能影響選票),並普遍散播不信任感。
這就是為什麼專家擔心武器化的深偽技術將進一步削弱批判性思考能力,以及我們對機構和彼此之間的信任。這對社會和治理——當然還有被針對的個人——都會產生可怕的影響。與許多其他科技危害的例子一樣,對人類的衝擊將不成比例地落在女性和邊緣群體身上;儘管這項技術在過去幾年有所演進,但 2023 年的一項研究發現,98% 的深偽內容屬於色情性質,且 99% 描繪的是女性。
以 Grok 為例。自從伊隆·馬斯克(Elon Musk)於去年底推出這款 AI 聊天機器人的「編輯圖像」功能以來,用戶已經創建了數百萬張性化圖像,其中包括許多兒童和女性;一份報告估計,這些由 Grok 產生的圖像中有 81% 描繪的是女性。儘管受到廣泛批評,xAI 最初的反應僅是將該功能限制給付費會員;此後,它在該功能屬違法的司法管轄區封鎖了裸露功能。
政治深偽內容也出現了爆炸式增長。例如,川普政府經常製作並分享 AI 生成的圖像和影片。並非所有內容都旨在看起來真實,但有些內容似乎是為了動搖公眾輿論,甚至羞辱被描繪的人。
與此同時,今年 1 月,德州總檢察長肯·帕克斯頓(Ken Paxton)分享了一段影片,畫面顯示他在共和黨美國參議院席位初選中的對手約翰·科寧(John Cornyn)參議員,正與民主黨提名競爭者、眾議員賈斯敏·克羅克特(Jasmine Crockett)共舞。但這件事從未發生過——而該廣告並未清楚披露這一事實。
建議的解決方案包括在大型 AI 公司建立新的技術防護措施和檢測方法、鼓勵用戶採取更多保護行動,以及制定新立法或將現有的監管框架(如版權法)應用於此問題。
但這些都有其局限性。技術解決方案可以被繞過;例如,惡意行為者可以簡單地轉向沒有建立防護措施的開源模型。要求人們改變行為方式(例如為照片加上浮水印或減少在網上發布個人資訊)簡直是不切實際的。更強大的監管需要執行力——雖然川普總統簽署了將深偽色情定為犯罪的立法,但他的政府仍繼續發布其他類型的有害深偽內容。例如,在 1 月下旬,白宮分享了一張經過修改的明尼阿波利斯民權律師照片,加深了她的膚色,並將她的面部表情從冷靜改為誇張的哭泣。
問題可能會變得更糟——而且很快。美國今年晚些時候將舉行關鍵的期中選舉,而傳統上負責處理選舉相關資訊完整性的聯邦機構已被削弱。許多致力於事實查核和打擊選舉相關虛假訊息的外部研究團體也是如此。
相關文章
其他收藏 · 0