威權時代的AI 「深度偽造」| 香港雲端戰線

( 編按 : 破土除了有固定的作者專欄,歡迎左中右各方讀者意見分享。)

繼2022年初烏克蘭總統澤連斯基的「投降聲明」,持續留傳的有關 Elon Musk 開除所有下屬的開會片段,或「他」在某個公開場合向人推薦投資某個 Bitcoin 項目的短片,到7月及10月流傳的在英港人社運人士「慌失失竄英逃犯秘密會議對話流出」短片,「深度偽造」(deepfake)技術已達到出神入化的地步。先別說不諳科技的長輩,就連專家有時都不能即時斷言短片的真偽,再加上社交媒體演算法對熱門話題極度偏好,只要話題熱度足,假消息往往比真實訊息更能廣傳。「深度偽造」已經成為威權國家破壞自由社會人民的團結和判斷力的有力工具。

​​「深度偽造」早期的應用,可以追溯至好事之徒將女演員樣貌放到色情短片的女角身上的惡作劇。這種應用,很快就被真正的詐騙集團看上其價值,並構成更嚴重的數碼威脅。隨着「生成式 AI」(generative AI)工具普及,加上「多模態模型」(multimodal models,簡稱 MMM)及「AI 代理」(AI agent) 的出現,製造這類影片已不再需要專門技能或昂貴資源,令犯罪成本大大下降。任何人只要擁有現成數據集與開放平台,就能生成近乎以假亂真的片段,將 AI 由中性的生產力工具推變為犯罪技術,更有可能成量化成為武器。

「深度偽造」的快速蔓延,不僅限於娛樂惡搞或私人騙案,更逐漸被利用於數碼壓迫與訊息戰。這類影片能夠塑造完全虛假的現場陳述、演講甚至新聞報道,其精密程度足以大規模地製造錯誤資訊。對社會來說,這已超越單純騷擾,成為一種定向打擊:用於污名化異見者、削弱領袖公信力,並在公眾輿論中種下不信任。

在威權環境下,這種戰術更有可能針對民主運動中的活躍份子。眾所周知,知名度和領導力反而會令他們成為深偽攻擊的頭號目標。當他們的公開演講或訪問片段被廣泛流傳時,這些資料便成為訓練數據的「素材礦場」,大幅提升未來生成影片的真實度。這意味著,曝光度愈高的人,風險亦愈大。

隨着「AI 代理」 的進一步發展,未來甚至可能出現自動化的攻擊流程:代理會蒐集公開影像,透過「多模態模型」分析與優化生成模型,並自動分發到社交媒體。這種自律式「武器化 AI」,將大幅降低散播假資訊的成本,並同時擴大影響範圍。

對策自然並非易事。雖然科技公司正研發檢測工具及水印技術來鑑定資訊的真偽,但在資訊傳播的速度面前,追趕總是滯後。意識提升與媒體素養,或許才是減弱深偽攻擊效力的首要屏障。當我們談論 AI 未來潛力時,更不能忽視其「反面用途」,因為在訊息戰場上,AI 已不再只是工具,而是一把正在被熟練操控的武器。

全球法律與監管的失序困境

當前的全球法律格局

世界各國在應對深度偽造等人工智慧技術挑戰時,法律和監管的步伐顯得雜亂不一。

  • 美國:應對措施零散,主要停留在州的層面,聯邦層面的行動則相當有限。
  • 英國:近期提出了將惡意深度偽造定為刑事犯罪的議案,但執法方面依然面臨重重挑戰。
  • 歐盟:透過《人工智慧法案》(AI Act)及數位人權,展現了更為強硬的立場。然而,這究竟會成為全球效仿的典範,還是僅是海市蜃樓,仍有待觀察。
  • 中國:在實行嚴格國家控制的同時,也透過其「數位絲綢之路」計畫,向外輸出壓制自由的技術。

一個不爭的事實是:法規的發展速度,終究無法百分之百跟上技術演進的腳步。

對海外流散社群而言:這不僅僅是隱私侵犯

針對香港海外流散社群的深度偽造攻擊,代表了一種新型態的數位戰爭——它將「信任」本身武器化。上述提到2025年7月發生,針對香港流亡人士的一段粗糙偽造(cheapfake)的影片,從這件事件我們可以看到的情況是,即使是技術含量不高的偽造品,也足以刺穿社群的保護網絡,對當事人和其身邊的人帶來不少壓力和負面影響。

儘管該影片粗糙的剪接和重複使用的畫面使其說服力大打折扣,並且只在小型臉書群組和親北京圈子裡流傳,並未被主流意見領袖放大,但不難想像這次行動絕非偶然。國家機器的目的旨在測試社群的弱點,探測信任的底線,並釋放威脅升級的信號。

這些策略系統性地毒害了社群內部的信任,因為僅僅是偽造證據的存在本身,就已經增添社運人士的心理負擔,迫使他們需要反覆思量自己的行動,警戒每一次線上的互動,懷疑每一次線上互動的真實性。即使這是一次不成功的攻擊,但已經足夠引發人們對更先進偽造技術的焦慮,因為國家級的力量勢必正加緊磨練其散播與技術能力,預備使用更複雜的偽造技術。

這種信任的崩塌會產生連鎖性的脆弱點,遠超出單一影片的影響範圍,帶來的核心風險包括:聲譽毀滅、團結破裂、法律風險及自我審查。

儘管7月份的粗糙偽造影片主要侷限於親中的迴音室(echo chambers),但它流傳本身就是一個警告:被操縱的媒體可以被迅速訂制,以打擊社群聲譽和凝聚力的核心。在威權環境中,這種假資訊對社運人士帶來的風險並非偽造證據的內容本身,而是當局或宣傳者利用捏造或篡改的「證據」來達到以下目的:

  • 發起公開抹黑或電視譴責,塑造「因有關聯而有罪」或「勾結外國勢力」的敘事。
  • 利用這些「證據」來合理化監控、出境禁令或官方騷擾,影響社運人士及運動支持者的簽證、庇護或旅行身分。
  • 阻嚇潛在的盟友和捐助者,使他們害怕成為抹黑運動的目標。
  • 散播疑慮並鼓勵自我審查,因為即使「會被成為假醜聞的目標」這種威脅,也能壓制人們公開的異議。

因此,「深度偽造」帶來的法律風險並非來自公平的司法程序,而是來自利用被操縱的內容來實現威權目標:恐嚇、邊緣化甚至社會性死亡。

​​倫理的賭注:人工智慧的問責與人性尊嚴

香港大學的深度偽造醜聞使倫理問題成為關注焦點:一名法律系學生利用容易獲取的 AI 工具,生成了700多張涉及女同學和老師的露骨色情圖片,其中許多是從社群媒體個人資料中未經同意地抓取。校方最初的紀律處分僅是警告信和簡短道歉。

這一事件凸顯了一個核心困境:當 AI 技術被武器化,以侵犯人性尊嚴的方式利用時,誰該負責? 構建生成模型的工具開發者、促成快速製造和分享的平台,以及肩負保護公民職責的國家當局——所有人都承擔一部分責任。然而,當技術進步的速度超越倫理保障和監管改革時,有意義的補救措施仍然難以實現。

有道德的 AI 發展不能是事後孔明,等問題大幅泛濫才去想補救措施。有前瞻性、有國際視野監管策略必須優先考慮潛在受害者的尊嚴、隱私和心理安全,從而建立及時、具體且以保障受害者為先的機制。當強大的工具的創建缺乏監督時,攻擊的規模和複雜性將會與日俱增,令脆弱社群愈來愈暴露在演算法濫用者之下且缺乏支援。

結論總結與行動策略演繹

在AI 及「深度偽造」技術進步神速、但全球法規未能追及的背景下,針對流散社群的深度偽造攻擊已不再是獨立的事件,而是威權有計劃地武器化 AI 技術 。當前的挑戰需要世界各地流散社群——從個人到跨國採取積極的應對措施。

社運人士和流散社群必須嚴格執行安全措施及定期接受資訊安全訓練,令關注數位安全成為每人個人的生活習慣。

由於威權跨境威脅,各國當地流散社群應推動當地政府立法制定網上平台在惡意內容的散播上並非無責的法律基礎和界線,及規定平台建立穩健的舉報和強制下架機制,並對那些對危害性內容不作為的平台施加嚴厲的法律後果。

總結而言,當社群提升韌性、法律建立問責、科技產業肩負起責任,我們才能有效地抗衡威權利用AI 技術武器化威脅全球公民社會。

最新內容

你也可能喜歡