公務機密宣導/無聲的國安危機-深度偽冒詐騙技術
發佈者: 吳筱婕
無聲的國安危機-深度偽冒詐騙技術/勤業眾信風險諮詢服務部門
摘自法務部調查局清流雙月刊2020年9月號
人工智慧(AI)演進至今的深度學習(DL),逐漸地貼近人類最根本的核心需求。然而,商業自動化與智慧化引入資訊與通訊科技,資安威脅自然也隨之而來。根據2020資安預測報告,利用AI技術進行深度偽冒詐騙(下稱「Deepfake」)之手法將大幅提升。
根據AI法論評論網,Deepfake種類可以歸納出四種型態,分別為臉部替換、人臉生成、臉部再製、聲音合成,各類型Deepfake皆有極限,臉部再製可以保持一個人臉部的特徵不變而使照片看起來更加逼真。臉部替換則需要分別取得目標和素材兩個人各種不同角度的影像。在聲音合成技術成熟以前,臉部再製和臉部替換都需要有專人配音。
對於Deepfake影片,根據白金漢大學數學與電腦教授Sabah Jassim及Spectre聯合創辦人Bill Posters建議,可以注意四大方向(判斷是否為Deepfake影片):(1)眨眼率:深度偽冒影片所生成之目標對象其眨眼率少於正常人;(2)語音和嘴唇運動的同步狀況;(3)影片情緒不吻合及(4)模糊的痕跡、畫面停頓或變色。
由於深度偽冒影片造成之政治、國安、經濟、輿論等各方面影響甚鉅,除社群平台大力打擊外,各國亦透過立法防範,希望藉國家手段遏止不實或不當行為。以我國法律而言,Deepfake若涉及毀損他人名譽,可主張《刑法》第310條毀謗罪,當事人亦可依《民法》第184條請求損害賠償,及同法第195條回復名譽。
面對網路威脅與資安事件,除情資蒐集與運用的重要性日益彰顯外,應透過擘劃戰術與技術的策略,在戰術上,分析資訊安全威脅的戰術、技術、程序,及規劃對應的防護措施並精準投入相對應的防護資源;技術面上,透過掌握資訊安全威脅的相關資訊,進一步定義更精準的威脅指標。因此,「掌握資安威脅態樣、擘劃堅實防護戰略」,已然成為在資安防護的策略擬定上依循的方向,亦可使機關、企業能更全面因應可能出現的資訊安全威脅。(※此文僅擷取部分原文,詳文請見附檔)

