當(dāng)我們?cè)谡務(wù)揂I強(qiáng)大和便利時(shí),不可避免地會(huì)對(duì)其潛在的風(fēng)險(xiǎn)和危害感到擔(dān)憂和害怕。
而現(xiàn)在,最讓我們擔(dān)憂的事情終于開始大規(guī)模發(fā)生了。
這兩天,有關(guān)“AI詐騙”的事件沖上了微博熱搜,引起了不少關(guān)注。
這件事發(fā)生在福州市一位科技公司的法人代表郭先生身上。
4月20號(hào)中午,郭先生突然接到了“好友”的微信電話。
對(duì)方表示自己正在外地競(jìng)標(biāo),需要430萬保證金,并且要公對(duì)公轉(zhuǎn)賬(公司對(duì)公司的轉(zhuǎn)賬),所以想要借郭先生公司的賬戶走個(gè)賬。
因?yàn)閷?duì)方是通過微信電話的方式交流的,而且從郭先生的視角來看,這位朋友無論從面容還是聲音來看都沒什么不對(duì)勁的地方。
所以基于對(duì)朋友的信任,他沒有猶豫的就給自己的朋友轉(zhuǎn)賬了。
——于是這位郭先生就在短短10分鐘之內(nèi)被騙走了430萬元。
這件事情說新鮮其實(shí)也不算新鮮,因?yàn)橐恢币詠?strong>電信詐騙的案例不在少數(shù)。
而這兩年國(guó)家反詐中心也一直在推廣和宣傳反詐活動(dòng),通過加強(qiáng)大家的反詐意識(shí),也的確有效的減少了此類事情的發(fā)生頻率。
當(dāng)然還是有很多被騙的人
但這事兒可怕就可怕在——
騙子們利用了“AI技術(shù)”來實(shí)施詐騙,并且達(dá)到了以假亂真的程度。
從這件事情來看,騙子極有可能是先盜取了對(duì)方好友的微信,再利用AI換臉技術(shù)和AI聲音技術(shù)佯裝好友實(shí)施詐騙。
相信不少人已經(jīng)對(duì)兩項(xiàng)AI技術(shù)非常眼熟了。
事實(shí)上,從去年開始,有關(guān)AI換臉的視頻就已經(jīng)在網(wǎng)絡(luò)上風(fēng)靡了一段時(shí)間。
而隨著AI技術(shù)的不斷突破,到現(xiàn)在這個(gè)技術(shù)已經(jīng)更為成熟,甚至還能做到像這件詐騙事件一樣,和對(duì)方進(jìn)行實(shí)時(shí)互動(dòng)。
曾風(fēng)靡B站一段時(shí)間的大司馬換臉視頻
對(duì)于AI換聲技術(shù)來說,我想最近大火的“AI孫燕姿”也是一個(gè)很好的例子。
通過AI技術(shù)合成的人聲,基本上和原聲有著90%的相似度,不仔細(xì)聽根本聽不出區(qū)別;
更重要的是,這項(xiàng)技術(shù)也沒有任何門檻可言——只要能夠收集到足夠多對(duì)方的聲音片段,你就能生成任何想要說的話。
而這個(gè)技術(shù),對(duì)于電話詐騙可是再合適不過了。
或許很多人都具有一定的反詐騙意識(shí),但是在如此高明的“新型詐騙”面前,我想也有不少人會(huì)被這種手段所欺騙。
所以在這里我還是要提醒大家,如果近期有朋友要向你借錢,并且金額還不小的話,一定要慎重慎重再慎重。
說個(gè)題外話——
十分鐘,就能讓朋友轉(zhuǎn)幾百萬,這樣的朋友那里找啊(不是)
玩家和粉絲買賬才是硬道理。
君の偽中國(guó)語本當(dāng)上手
大伙真是不管多少歲都有一顆叛逆的心啊。