◎洪恒飛 本報記者 江 耘
當前,基于生成式人工智能(AIGC)偽造技術的電信網(wǎng)絡詐騙手段不斷升級,呈現(xiàn)范圍擴大化、套路多樣化、形式隱蔽化等特點,危害社會安全。科研人員正在開發(fā)更先進的人工智能工具和技術,識別并阻止人工智能濫用行為。
“不管是以往的PS篡改識別,還是如今的AIGC鑒偽,都屬于人工智能鑒偽的被動檢測方式。”在第十三屆中國創(chuàng)新創(chuàng)業(yè)大賽創(chuàng)新挑戰(zhàn)賽(浙江)暨2024年浙江省技術需求“揭榜掛帥”大賽總決賽上,杭州電子科技大學網(wǎng)絡空間安全學院副教授、浙江—法國數(shù)字媒體取證聯(lián)合實驗室負責人喬通展示了其團隊研發(fā)的“面向電詐場景的音視頻鑒偽溯源技術”,這種技術變“被動檢測”為“主動防御”,有望為人工智能鑒偽提供新思路。
特殊水印實現(xiàn)“事前防御”
上網(wǎng)搜索“AI換臉”,相關應用軟件和影音圖像作品比比皆是。同時,深度人臉偽造帶來的安全威脅也逐漸顯現(xiàn)。
香港警方曾披露一起人工智能“多人換臉”詐騙案:不法分子利用人工智能深度偽造技術,通過某跨國公司在社交平臺的資料,仿造多位高層管理人員的形象和聲音,在視頻會議中進行冒充,誘騙該公司香港分公司財務職員進行轉賬操作,涉案金額達2億港幣。
此前,針對人臉偽造,人們往往采用“事后鑒別”的被動檢測、被動取證方法,但這種方法難以及時、有效遏制偽造人臉圖像的傳播。主動防御方法由于“事前防御”的屬性,得到越來越多學者關注。
然而,目前大多數(shù)主動防御方法只能針對單一或特定的幾種偽造模型進行防御,面對日益多樣化和不斷升級的人臉偽造技術,會顯得力不從心。
為此,喬通團隊開發(fā)出了一種可擴展通用對抗性(SUA)水印,將其嵌入在需要保護的視頻、圖像或語音素材中。當素材被用于人工智能加工,就會觸發(fā)SUA水印的“引信”,直接破壞生成后的內容。
這一技術路線此前已有所應用,但局限性較大。喬通介紹,以往單個水印只能針對一種模型,一段素材可能要嵌入多個水印才能起效,而SUA水印則無須基于所有偽造模型進行重新訓練。大量實驗證明,SUA水印不僅能節(jié)省算力,還能有效擴展主動防御范圍,顯著提高主動防御效果,能大大提高鑒偽效率。
“火眼金睛”進行人臉識別
2024年9月,杭州公安通報了一起利用人工智能技術侵犯公民個人信息案件:有不法分子使用人工智能換臉大模型突破頭部平臺人臉認證,竊取用戶隱私信息。
“登錄銀行或者其他App時,用戶會被要求做搖頭、眨眼的動作,即進行人臉活體檢測!眴掏ㄕf,不法分子通過黑色產業(yè)鏈,可以獲取目標對象的人臉照片、音頻素材,偽造多模態(tài)媒體素材,然后實施詐騙。
為保證平臺安全,喬通建議,進行人臉識別前應再加一道無形的核驗環(huán)節(jié)。據(jù)了解,針對目前市場上主流的人工智能偽造工具,喬通團隊開發(fā)的人工智能鑒偽系統(tǒng),能秒速級識別出人工智能圖像及視頻,并給出相應分析報告,準確率95%以上。
“相比大型銀行,地方中小銀行對防偽技術的投入相對不足。”喬通說,團隊目前在與地方公安、小型金融機構等進行合作,研發(fā)定制化技術,在活體檢測環(huán)節(jié)為相關平臺裝上“火眼金睛”,判定屏幕那端“是人還是妖”。
在喬通看來,人工智能鑒偽和深度偽造是此消彼長的關系,需要更多機構、企業(yè)參與,推動人工智能鑒偽技術突破和應用落地,共同搭建人工智能時代的網(wǎng)絡安全防火墻!拔覀儓F隊正積極對接企業(yè),探索商業(yè)化模式!眴掏ㄕf,“要筑牢人工智能安全底座,讓反詐舉措更加柔性!