<optgroup id="m04aa"><small id="m04aa"></small></optgroup><center id="m04aa"><wbr id="m04aa"></wbr></center><center id="m04aa"></center>
<optgroup id="m04aa"><small id="m04aa"></small></optgroup>
<noscript id="m04aa"></noscript>
<optgroup id="m04aa"></optgroup>
侵權投訴
訂閱
糾錯
加入自媒體

陳根:虛擬會議偽造人臉,深度合成的技術危害還在蔓延

2022-02-24 11:39
陳述根本
關注

文/陳根

疫情催生了各種新常態,從網絡教學到遠程辦公,也讓人們習慣了各種各樣的視頻會議。這也給黑客利用網絡進行詐騙提供了途徑。

近日,美國聯邦調查局(FBI)警告企業小心不法人士利用虛擬會議工具,發動俗稱變臉詐騙的商業電郵詐騙(Business Email Compromise,BEC)。要知道,隨著人工智能技術的發展,想要偽造出受害者的人臉已經不再是難事,其具體使用的,就是人工智能的“深度合成”技術,深度合成技術源于人工智能系統生成對抗網絡(GAN)的進步。

GAN由生成器和識別器兩個相互競爭的系統組成。建立GAN的第一步是識別所需的輸出,并為生成器創建一個培訓數據集。一旦生成器開始創建可接受的輸出內容,就可以將視頻剪輯提供給識別器進行鑒別;如果鑒別出視頻是假的,就會告訴生成器在創建下一個視頻時需要修正的地方。

陳根:虛擬會議偽造人臉,深度合成的技術危害還在蔓延

根據每次的“對抗”結果,生成器會調整其制作時使用到的參數,直到鑒別器無法辨別生成作品和真跡,以此將現有圖像和視頻組合并疊加到源圖像上,最終生成合成視頻。

深度合成通過軟件收集的用戶照片,以及眨眼、搖頭等動態行為信息,會對用戶的隱私安全等造成傷害。2019 年 3 月份,《華爾街日報》報道,有犯罪分子使用深度偽造技術成功模仿了英國某能源公司在德國母公司 CEO 的聲音,詐騙了220 000 歐元(約1 730 806人民幣)。其破壞性可見一斑。

正如此次FBI所指出的,從2019年到2021年,FBI接到越來越多和虛擬會議有關的BEC,攻擊者通常是冒充公司高層或部門主管,命令受害者匯款到詐騙賬號,一如以冒名電子郵件進行的詐騙。

根據FBI,利用新科技進行BEC攻擊的手法包括黑客冒充公司CEO或金融主管如首席財務官(CFO),發送電子郵件加入虛擬會議,會議中冒用CEO/CFO的靜態照片,宣稱鏡頭或麥克風故障無法操作,有的用deep fake音效,有時不發聲音,要求員工通過虛擬會議平臺或后續的電子郵件匯款。有的則是利用CEO郵件賬號插進員工的虛擬會議中“旁聽”,以搜集公司業務或研發活動信息。

面對發生在虛擬會議平臺的變臉詐騙威脅,除了企業應留心不熟悉的虛擬會議等,從社會角度來看,更應該對深度合成這樣的技術進行規制,用技術對抗技術的風險,用制度將技術的風險限制。

       原文標題 : 陳根:虛擬會議偽造人臉,深度合成的技術危害還在蔓延

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

安防 獵頭職位 更多
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號

太大太粗太爽免费视频
<optgroup id="m04aa"><small id="m04aa"></small></optgroup><center id="m04aa"><wbr id="m04aa"></wbr></center><center id="m04aa"></center>
<optgroup id="m04aa"><small id="m04aa"></small></optgroup>
<noscript id="m04aa"></noscript>
<optgroup id="m04aa"></optgroup>