近期,越來越多的人遭到了AI換臉詐騙的擾。其中包括廣州一位七旬老人被冒充兒子騙走100萬,一位公司老總被冒充好友騙走430萬,還有微信上冒充親戚的人一開口就有事相求。為了提醒大眾注意這種新型欺詐手段,國家金融監督管理總局北京監管局發布了風險提示。
在廣州的案例中,一位七旬老人收到了一個自稱是兒子的電話,聲稱經商失敗需要轉一百萬給他資金周轉。由于老人的銀行卡和手機剛丟失,所以他使用了朋友的微信加了兒子為好友。隨后,兒子通過微信視頻要求老人轉賬到朋友的賬戶。老人撥打了兒子的手機卻無人接聽,但是他認為微信視頻中的聲音和畫面都是兒子的,于是放松了警惕。老人不會手機轉賬,所以咨詢了工行管戶客戶經理,經理立即提高警惕,邀請老人到網點核實況。經理建議老人再次致電兒子確認,這一次兒子接聽了電話,否認了經商失敗并沒有要求轉賬。客戶經理確認老人被騙,告知他這是一種新型的AI換臉詐騙手法,并功勸阻了老人轉賬。
AI換臉技的真實令人驚訝,測試視頻中的換臉效果非常真,不僅老人難以辨別,很多年輕人也頻繁中招。比如今年4月,福州某科技公司的法人代表在10分鐘被騙走了430萬元。他的好友通過微信視頻聯系他,稱需要借用他公司的賬戶走賬,保證金為430萬元。由于對好友的信任,并且已經通過視頻聊天“核實”了份,這位法人代表在10分鐘分兩筆將430萬元轉到了對方的銀行賬戶上。事后,他撥打好友的電話才發現被騙。
除了冒充兒子和好友,還有人冒充領導、親戚或人進行詐騙。AI換臉技可以將任何人的樣貌模仿得非常真,相似度可達80%。深圳安絡科技公司的產品部經理劉遠洋解釋說,只要是照片,無論是你的頭像還是朋友圈里的一張小照片,都可以直接上傳進行特征識別建模。建模完后,可以實時轉換換臉視頻,只需要一兩分鐘的時間。技的發展使得視頻聊天的實時換臉也為可能,合的視頻相似度達到80%。
面對如此的AI詐騙技,我們應該如何防范呢?警方提出以下幾個建議:首先,可以要求對方用手指或其他遮擋在臉前晃,如果畫面出現果凍效應或搐,那麼對方很可能在使用AI換臉技。其次,可以通過詢問對方一些私的問題來確認對方的份,例如生日、電話號碼、喜好等等。最后,對于涉及經濟往來的轉賬和借錢等事項,可以要求對方線下見面,以確保安全。
為了保護個人信息,避免到AI換臉詐騙的損失,我們必須加倍警惕,多重核驗份,謹慎轉賬,以提高防范意識。AI換臉詐騙風,如何保護個人財產安全?