
校園深偽裸照危機遠比你想像的更嚴重
一項由 WIRED 與 Indicator 進行的分析發現,全球有近 90 所學校和 600 名學生受到 AI 生成的深偽裸照影響,且這個問題目前毫無消失的跡象。
這通常始於一張從社群媒體下載的照片。
在世界各地,青少年男孩正將他們在學校認識的女同學的 Instagram 和 Snapchat 照片儲存下來,並利用有害的「脫衣(nudify)」應用程式製作她們的虛假裸照或影片。這些深偽(deepfake)內容能迅速在全校流傳,讓受害者感到羞辱、被侵犯、絕望,並恐懼這些影像會永遠糾纏著她們。
這場席捲校園的深偽危機在幾年前緩慢萌芽,但隨著製作顯露影像的技術變得日益普及,危機已大幅加劇。根據《連線》(WIRED)雜誌與專注於數位欺騙和錯誤資訊的刊物《Indicator》對公開報導事件的審查,深偽性虐待事件已波及全球約 90 所學校,影響超過 600 名學生。
調查結果顯示,自 2023 年以來,至少有 28 個國家的學童(最常見的是高中男生)被指控利用生成式人工智慧(AI),以帶有性意味的深偽內容針對同學。這些包含未成年人的顯露影像被視為兒童性虐待材料(CSAM)。這項分析被認為是首份針對全球校園內發生的 AI 深偽虐待真實案例進行的審查。
整體而言,該分析展現了有害 AI 脫衣技術的全球影響力,這些技術每年能為其開發者賺取數百萬美元;同時也顯示在許多事件中,學校和執法官員往往對應對嚴重的性虐待事件準備不足。
在北美,自 2023 年以來已有近 30 起報導的深偽性虐待案件——其中包括一起涉及 60 多名指控受害者的案件、一起受害者被暫時開除學籍的案件,以及其他多所學校學生據稱同時遭到針對的案件。南美洲公開報導的案例超過 10 起,歐洲超過 20 起,澳洲和東亞合計也有十幾起。
此地圖的數據收集與分析是由《WIRED》與《Indicator》合作完成。
校園內發生的深偽性虐待真實規模可能遠高於此。聯合國兒童基金會(Unicef)的一項調查估計,去年有 120 萬名兒童被製作了性深偽影像。在西班牙,五分之一的青少年告訴「救助兒童會(Save the Children)」的研究人員,曾有人製作過他們的深偽裸照。兒童保護組織 Thorn 發現,每八名青少年中就有一人認識被針對的對象;而在 2024 年,受訪於「民主與技術中心(Center for Democracy and Technology)」的學生中,有 15% 表示他們知道與自己學校有關的 AI 生成深偽內容。
「我認為很難找到一所完全沒受此影響的學校,」加拿大兒童保護中心技術總監洛伊德·理查森(Lloyd Richardson)表示。「最重要的是當事件發生時,我們如何幫助受害者,因為這產生的影響可能是巨大的。」
《WIRED》與《Indicator》的分析著眼於具有具體細節(如學校地點和潛在受害者人數)的公開報導事件。這些報導大多為英文,許多國家的數據付之闕如。許多事件從未在媒體上曝光,即便有報導也可能不包含具體細節,而是由學校和執法官員私下處理。
儘管如此,仍能看出明顯的模式。在幾乎所有案例中,據稱都是青少年男孩負責製作這些影像或影片。這些內容通常在社群媒體應用程式或透過即時通訊軟體與同學分享。這對受害者造成了巨大的傷害。「我擔心每次他們看到我時,看到的都是那些照片,」愛荷華州的一名受害者在今年早些時候說道。另一名受害者的家人說:「她一直在哭,不吃東西。」
在多個案例中,受害者往往不想上學,或不想面對那些製作他們顯露影像或影片的人。律師謝恩·沃格特(Shane Vogt)以及三名耶魯法學院學生凱瑟琳·斯特朗(Catharine Strong)、托尼·索丁(Tony Sjodin)和蘇珊娜·卡斯蒂略(Suzanne Castillo)表示:「她感到絕望,因為她知道這些影像很可能會流向網路並接觸到戀童癖者。」他們正代表一名不具名的紐澤西州青少年對脫衣服務商採取法律行動。「得知這些影像存在於世讓她極度痛苦,她餘生都必須監控網路以防止它們傳播。」
在南韓和澳洲,已有學校讓學生選擇不將照片放入畢業紀念冊,或停止在官方社群媒體帳號發布學生照片,理由是擔心照片被用於潛在的深偽虐待。澳洲一所學校表示:「在世界各地,都曾發生過學校影像從公開社群頁面被取走、利用 AI 修改並轉化為有害深偽內容的案例。影像將改為呈現側面、剪影、後腦勺、遠距離團體照、創意濾鏡或經核准的圖庫照片。」
利用 AI 製作的性深偽內容自 2017 年底左右就已存在;然而,隨著生成式 AI 系統的興起和功能增強,它們催生了一個「脫衣」或「去衣」技術的陰暗生態系統。數十個應用程式、機器人和網站讓任何人只需點擊幾下,通常無需任何技術知識,就能製作他人的性化影像和影片。
「AI 改變的是規模、速度和易取得性,」總部位於孟買、致力於預防針對婦女和兒童暴力的 RATI 基金會聯合創始人兼董事悉達多·皮萊(Siddharth Pillai)表示。「技術門檻顯著降低,這意味著包括青少年在內的更多人,可以用極小的努力產出更具說服力的作品。與許多 AI 引發的危害一樣,這導致了內容的氾濫。」
兒童安全組織 Thorn 的研究與洞察總監阿曼達·戈哈里安(Amanda Goharian)表示,其研究指出青少年製作深偽虐待內容的動機各異,從性動機、好奇心、報復,到青少年之間互相慫恿製作影像不等。針對製作深偽性虐待內容的成年人的研究同樣顯示了多種原因。「目標並不總是性滿足,」皮萊說。「意圖越來越傾向於羞辱、詆毀和社交控制。」
「這不僅僅是技術問題,」安格里亞魯斯金大學(Anglia Ruskin University)研究性別暴力、曾調查英國校園性化深偽內容的女性主義媒體研究教授兼研究員譚雅·霍雷克(Tanya Horeck)表示。「這關乎長期以來助長這些犯罪的性別動態。」
隨著近年來校園深偽事件數量的增加,學校和執法機構的處理方式差異極大。家長們抱怨官員採取的行動不夠。據報導,在一個案例中,學校花了三天才向警方報案;在另一個案例中,一名受害者聲稱涉案人員沒有受到即時的懲處。有時學生因製作和持有 CSAM 而面臨指控,而其他人則面臨不同的刑事指控或被學校停學。今年 3 月,賓夕法尼亞州的兩名學生在青少年法庭認罪,隨後因製作 60 名女孩的影像和影片,被依 CSAM 相關重罪判處 60 小時的社區服務。
在多個案例中,反擊深偽性虐待行為的往往是青少女及其家人,她們的行動通常比行動遲緩的政治人物更快。青少年們曾罷課以支持受害者、抗議涉嫌加害者、參與線上培訓課程的製作,並推動法律變革,包括促成《下架法案》(Take It Down Act)的制定,該法案要求科技平台在 48 小時內移除未經同意的私密影像。(另外,英國和歐盟正處於禁止脫衣應用程式的過程中,而澳洲的電子安全監管機構已對某些服務採取行動)。
「通常當孩子們對發生的事情發聲時,得到的回應是完全不足的,」聯合國兒童基金會兒童保護專家阿夫魯茲·卡維亞尼·強生(Afrooz Kaviani Johnson)表示。「成年人對揭露事件的回應方式,會顯著影響受害者的康復情況,以及如果再發生其他事情時他們是否願意發聲的可能性。」
「要讓學校真正跟上威脅情勢、了解權利、威懾手段、政策和危機準備,還有很多工作要做,」前教師、Pathos 諮詢集團創始人埃文·哈里斯(Evan Harris)表示,他一直在全美各地的學校進行培訓。哈里斯說,準備工作可以包括從教育學生製作顯露深偽內容的危害和非法性,到幫助學校管理人員思考數位取證和證據收集。「至關重要的是,我們要給予學生工具、語言和支持,以應對他們經歷或察覺到的深偽事件,」馬里蘭州麥克多諾學校(McDonogh School)教育數位策略高級總監羅賓·利特爾(Robyn Little)表示,該校曾與哈里斯合作進行培訓。
學校面臨的深偽問題不僅限於學生之間製作危險的性影像。孩子們還多次製作老師的性顯露深偽內容,將他們置於羞辱的情境中,或讓他們說出實際上沒說過的話。奧勒岡州的一所學校在正式教師集體請病假以抗議一個分享教職員合成影像的社群媒體帳號後,被迫聘請代課老師。根據另一份報導,老師們還被描繪成手腳著地吃狗糧或拿著槍的樣子。
「雖然這(深偽性虐待)可能是深偽風險中最緊迫、最嚴重且最具破壞性的,」哈里斯說,「但它只是同時湧現的五、六種風險之一,學校對此特別脆弱,且由於資源有限和事務繁雜,真的準備不足。」