西藏定日縣發生的6.8級地震牽動著億萬網友的心,很多人通過社交媒體平臺上發布的信息了解災區現狀。其中廣為流傳的一張圖片讓人看了揪心不已,畫面中是一個灰頭土臉的小男孩,被壓在倒塌的建築下動彈不得。但很快,這張圖片被證實是利用人工智能生成內容技術(AIGC)偽造的虛假圖片。
圖片來源於某自媒體博主去年11月發布的短視頻,雖然博主在發布時聲明了內容由人工智能(AI)生成,但此次在網絡上大規模流傳的截圖,並未指出內容出自AI。
信以為真甚至為小男孩傷心落淚的網友紛紛表示,“虛假圖片必須治理”“AIGC讓社交媒體本就真假難辨的信息環境‘雪上加霜’”。在AIGC迅猛發展的當下,如何應對虛假圖片的危機確實值得深入思考和探索。
“去偽”:用AI破解AI
假消息並不是AI時代所特有的,十幾年前持續了大半年時間的華南虎事件便是典型案例。從2007年末直到2008年中,通過技術手段和公眾的努力,所謂“野生華南虎”照片才最終被確認是偽造的。
然而,如果說以往的假新聞更多是基於實物的移花接木,ChatGPT、Sora等大模型的出現和快速發展,則使得憑空捏造虛假信息成為了可能,社交媒體則進一步加劇了“以訛傳訛”的現象。
雖然AI生成的內容越發逼真,但它也可以為虛假信息的檢測提供新路徑。過去,我們一般通過頻率、頻譜等的變化,檢測圖片、音頻等的真偽。現在,則可以利用深度學習網絡進行判斷,讓AI學習多媒體信息中的異常情況進而證偽,比如圖像篡改定位、美顏程度檢測、音頻真偽檢測、證件防偽、虛假新聞檢測等。目前證偽在技術上已經取得了一定進展。
盡管AIGC圖像整體非常逼真,但在細節上仍存在一些問題,比如,上文提到的圖片中小男孩一只手有六根手指,另外,還包括物體的形狀過於理想化、背景過於平滑、顏色分布不自然等。
如果把生成的圖片進一步放大,提取其中的信息進行分析,則可以發現,AIGC圖像的紋理同真實世界圖像的紋理也存在一定區別。利用圖像中復雜紋理和簡單紋理區域像素間相關性的對比,可檢測圖片是否為AI生成。
但是,目前AI檢測虛假信息仍存在不少問題。例如,偽造的形式和手段呈現多樣化,很難建立通用的AI檢測模型防範未知的造假;技術發展不夠成熟,大模型檢測的結果難以令人信服;數據量有限導致可泛化性較差,即某個模型僅能檢測某種類型的虛假信息,而無法通用;時效性較差,當前造假的手段越來越多樣化,由已有數據訓練的模型無法應對未來的挑戰。
“求真”:規範內容標識
如上文所言,用技術“去偽”存在一定的局限性,為避免AI生成的信息與真實的信息混淆,無論是研發AIGC的企業,還是各社交媒體平臺,都在嘗試采取其他措施來“求真”。“內容標識”是目前國際上較為通用的做法。
2023年7月,美國7家AI企業與政府簽署協議,承諾采取自願監管措施管理AI技術開發風險,比如,為AI生成內容添加數字水印。一旦用戶使用了相關大模型生成內容,即可以通過此方法溯源。
2024年9月,全國網信辦起草《人工智能生成合成內容標識辦法(征求意見稿)》,面向社會公開征求意見。文中明確指出,由AI生成合成的內容需添加顯式標識。
但目前這些方法很難規避AI生成的信息以“以假亂真”的形式傳播。一方面,這些規定並不具備嚴格的法律約束力,監管上面臨困難;另一方面,無論是圖片還是視頻,內容都可以被二次加工。其攜帶的標識信息也將隨之弱化,甚至被抹除。此次“被壓廢墟下的小男孩”的圖片,就是在二次傳播過程中被抹去了相關標識。
在筆者看來,未來社會中,可能虛假消息遠多於真實消息,在技術上“去偽”必不可少,但對每一條信息進行鑒定將帶來極高的社會成本,因此,從源頭確保信息的真實性更為重要。發布者無論是首發還是轉發,都需要標註信息是否為AI生成合成。
或許將來社交媒體上,只有有來源標註且經過技術鑒定的內容,才值得信賴。
(作者系恒行2平台計算機科學技術學院教授)