昨天一個新聞上熱搜了,,內容是 “ AI 詐騙 ” ,。
這個熱搜的詞條,,其實是有些夸大的,,但里面實際發(fā)生的事兒,也的確離譜,。
事情發(fā)生在福州,,一位科技公司的老板,老郭,,某天突然接到了個好友的微信視頻,,說是自己的朋友在外地競標,需要 430 萬的保證金,,想走他的公司賬戶過個賬,。
老郭想著也不是啥大事兒,于是在確認視頻通話里的人和聲音都是他朋友之后,,就同意了,。
隨后,對方就給老郭發(fā)了一張銀行卡轉賬成功的截圖,,說是錢已經轉到老郭的戶頭上了,。
由于老郭之前已經確認了朋友的身份,在沒確認錢到帳與否的情況下,,也沒有多想,,直接就把 430 萬轉到了好友給的銀行卡上。
整個過程不過短短十分鐘,。,。,。
轉賬完成之后,當老郭再次和好友打電話核實時,,這才驚呼,,剛才的一切,居然都是詐騙人員使用各種技術手段偽造的,!
不僅好友視頻的人像是 AI 生成的,,就連好友的音頻都是通過 AI 技術模擬的,好在警方跟銀行通力合作,,截停了錢在銀行的走向,,幫老郭止損了大部分損失。
你還別不信,,現在的 AI 擬人和擬聲都非常簡單了,,世超自己都能煉一個簡單的出來。
還記得之前咱們使用 AI 擬聲工具和 AI 視頻工具模擬的數字人蛋蛋嗎,?
這個數字人視頻只使用了一張照片做素材,,其中的動作和聲音都是使用 AI 生成的。
整個視頻制作訓練花了不過數小時,,而音頻在訓練完模型后推理的時間不超過五分鐘,。。,。
可以說,,在現在這個時代,不但是語音消息不保真了,,這以后連視頻通話見到真人都不能信了,。
警方沒有公布太多的細節(jié),估計是太細了容易被別的騙子當教材學過去,,但根據僅有的細節(jié),,我們能分析出幾點:
①詐騙團伙在給郭先生打視頻電話時,使用的就是他好友的微信號,,把他朋友的微信號盜了,; ②騙子掌握了比較多的郭先生朋友的圖片、音視頻信息,,用來訓練模型,; ③騙子擁有實時渲染數字人的技術,因為警方新聞中提到了郭先生和他朋友打的是微信視頻,; ④騙子應該對郭先生及其朋友的過往對話風格有比較深入的了解,,知道怎么跟郭先生溝通( 微信是僅能云同步很有限的聊天記錄的 )。 以上所有的條件,,無論哪一個,,具體到實施上,,都是很有難度的操作。
但,,它卻就這么真實的發(fā)生了,。
這個案子,還真的沒那么簡單,。
首先是百思不得其解的微信登錄問題,。對于這點,各位大佬們都覺得這個其實不難,,主要有兩個方法能夠做到,。
一種方式是微信二維碼釣魚,另一種則是獲取Session ( 可以簡單理解成是 cookie ,,能保持登錄狀態(tài) ),。
微信二維碼釣魚這個不難理解,就是利用釣魚網站或者鏈接,,讓受害者的朋友通過微信掃碼登錄電腦微信,,這樣詐騙人就可以用自己的設備使用他朋友的微信了。( 不過其中一位老哥指出,,微信異地掃碼登錄會觸發(fā)風控 )
第二種獲取 Session ,只要受害者朋友的電腦上設置了微信自動登錄,,那只要獲取相應的 Session ,,理論上就能在詐騙人的電腦上登錄受害者朋友的微信了。
不過出于安全考慮,,咋獲取這個 Session ,,這位業(yè)內人士沒細說。
對了,,還有另外一種簡單粗暴的方式,,就是被盜號的人自己電腦是登錄微信的,電腦處于開機狀態(tài),,但是被騙子用木馬遠控了,。
登錄微信之后,接下來的操作才是重頭戲,。
詐騙人應該 “ 蹲點 ” 了很久,,知道被盜號者微信上誰有錢誰沒錢,跟誰關系好,,事先挑好了下手對象,。同時,騙子還對他的生活習慣非常了解,,這樣才能趁對方不注意登上他的微信,,進行視頻通話詐騙,。
而想要在微信視頻的同時 AI 換臉和變聲,詐騙人員還得將攝像頭和麥克風的數據,,替換成 AI 換過臉和變過聲的數據流,。
至于訓練素材,極有可能是通過被盜號者自己的朋友圈或者與別人的聊天記錄獲取,。
最后,,結合所有獲取的信息,訓練好素材,,編造一個劇本來對受害者實施詐騙,。
也就是說,這群詐騙人員,,不僅有技術,,耐心也不差。 像這種詐騙,,別說是家里的老人分辨不出來了,,就算是神仙來了,都能給你晃迷糊,。
不過朋友們還是給了大家一個安慰:像這次的詐騙事件,,理論上技術可行,但終究還是一個小概率事件,。
畢竟在這次的案件里,,個人微信被盜用是更主要的原因,而這也是詐騙過程中需要花費最多功夫的步驟,。假如沒有這一步,,受騙人必然會更加警惕,整個詐騙環(huán)節(jié)的漏洞也會更多,。
想要讓騙子花那么多精力來騙你,,前提條件是你值得。,。,。
但是,高策劃詐騙難度高,,并不代表著低策劃詐騙就騙不到人了,。
使用 AI 詐騙的案件現在其實已經屢見不鮮了。
看看之前那個數字蛋蛋的制作過程就知道,, AI 對于那些實施語音電信詐騙的人員來說,,簡直不要太高效。
而且類似的詐騙案件在國內國外也已經層出不窮了,。
之前就有一個國外的詐騙公司,,使用 AI 模擬了 “ 卷福 ” 的音頻,,打電話給一家新西班牙的小電影公司,稱想要和對方合作,,并要求對方先打款 20 萬英鎊才能見面,。
結果在電影公司付完錢之后,他們才發(fā)現這次事件,,完完全全就是一場 AI 騙局,。。,。
這件事情讓我們非常擔心那些跟不上高速發(fā)展的科技的長輩們,,他們可能很難相信正在跟自己視頻通話的兒女是假的,騙子找他們要錢可能會輕松得手,。,。。
在音視頻都不可信的情況下,,以后或許要給父母一個密保問題了,。可以告訴父母,,萬一微信自己找他們要錢,,讓他們問一些只有你們自己才知道的細節(jié),比如:
“ 兒子,,你小時候我經常用衣架打你還是拖鞋打你,? ”
這個問題最好也有陷阱,正確回答應該是 “ 你用掃把打我 ” ,。
除了多提高防范意識、多給長輩們科普最新騙術,,世超還是要啰嗦一下各位差友,,咱們在對個人信息的敏感度上,還是得多上一點心,。 隨著技術,,特別是 AI 技術的爆發(fā),個人信息泄露的危害已經開始顯而易見地越來越大,。大伙再這么躺,,就純純是對騙子們的不尊重了。
到那時候,,你泄露的個人的信息,,指不定轉頭就把身邊的人騙了,這該上哪說理去,? |