某天,你的一位熟人發(fā)來借錢的請(qǐng)求,隨后對(duì)方打來了視頻。視頻接通后你確認(rèn)長相和聲音就是熟人“本人”,你沒有懷疑把錢轉(zhuǎn)了過去。沒過多久,你發(fā)現(xiàn)自己被騙了,剛才視頻里那位“熟人”并不是真的他。
這可不是鬼故事,而是已經(jīng)發(fā)生在多位受害者身上的真實(shí)案例。
只需一張照片、10分鐘聲音素材
近日,一則10分鐘被AI騙走430萬元的新聞刷屏。據(jù)警方通報(bào),受害人郭先生遇到的就是上述情形,騙子通過智能AI換臉技術(shù),佯裝成好友對(duì)他實(shí)施了詐騙。
尤其值得警醒的是,據(jù)公開報(bào)道顯示,利用AI 技術(shù)實(shí)施詐騙,此前已有多起相似案例。而這些案件背后,均涉及了AI換臉以及聲音合成技術(shù)。
目前,AI換臉隨處可見,在短視頻平臺(tái),不少用戶都體驗(yàn)過換臉帶來的新鮮感。這項(xiàng)技術(shù)也越來越成熟,僅需提供一張照片,就可以讓你變成視頻中人,或直接生成會(huì)眨眼、張嘴的視頻。
七七(化名)專門在網(wǎng)上接單用AI幫別人生成視頻,“只需提供一張背景干凈的正面照,我就能生成視頻,不僅眼睛、嘴巴都會(huì)動(dòng),還能時(shí)不時(shí)動(dòng)動(dòng)頭,非常自然。另外如果你提供文字,我還可以讓視頻中的人物口型對(duì)上,配合度很高,可以連續(xù)播放1分鐘。”七七說,他目前做這個(gè)工作已經(jīng)非常熟練,“一個(gè)晚上就能完工”。
除了快速AI換臉,用AI手段合成或克隆聲音也越來越常見。
一位商家向中新經(jīng)緯介紹,只需要提供某人一段10分鐘至30分鐘的聲音素材,要求沒有雜音,就能用2天左右時(shí)間生成一個(gè)專屬模型,后續(xù)輸入任何文字,發(fā)出的都是這個(gè)人的聲音。
“這個(gè)辦法屬于一勞永逸,而且這個(gè)模型不僅能讀文也能唱歌。一般來說,提供的素材時(shí)間越長,最終相似度越高。”上述商家介紹。
成本低至數(shù)十元
據(jù)中新經(jīng)緯了解,目前制作一套“露臉且說話”的視頻成本不高。七七表示,用照片生成一段1分鐘時(shí)長的視頻僅需30元左右,如果視頻時(shí)間比較短,且畫面質(zhì)量要求不高,這個(gè)價(jià)格可以再降,幾塊錢一段都可以。上述商家也表示,生成一個(gè)專屬模型也只需要幾十元。
這意味著,如果有人蓄意生成你的長相搭配你的聲音的視頻,花費(fèi)也僅需數(shù)十元。
不過,對(duì)于前述警方通報(bào)的案例,網(wǎng)友們也有疑問。比如不法分子是如何獲得的郭先生好友的照片及聲音素材?本應(yīng)是即時(shí)的視頻聊天,郭先生的手機(jī)里為何播放的是合成好的視頻?
電信分析師付亮對(duì)中新經(jīng)緯表示,假冒某人聲音、圖像實(shí)施詐騙在十多年前就已經(jīng)出現(xiàn),嚴(yán)格說目前AI詐騙并不是新類型。“通報(bào)中沒有詳細(xì)說明不法分子是如何獲取郭先生好友個(gè)人信息的,但有一點(diǎn)可以肯定,這位好友的社交媒體賬號(hào)被盜了。不法分子可能是從社交媒體里直接獲取了個(gè)人信息,也可能之前以騷擾電話的方式與郭先生的好友聯(lián)系過,獲取了其聲音信息。”付亮分析。
而至于為什么接通視頻通話,播放的卻是已經(jīng)合成好的視頻,付亮分析認(rèn)為可能是通過插件實(shí)現(xiàn)的。
據(jù)中新經(jīng)緯了解,目前虛擬攝像頭就可以做到這一點(diǎn)。利用一個(gè)程序,可以在視頻通話中讓對(duì)方看到任何你想播放的視頻,其中也包括通過AI換臉和聲音克隆合成的視頻。
應(yīng)對(duì)“高端”詐騙往往還得靠最樸素的手段
蓄意制作別人人臉、聲音的視頻是否違法?
北京嘉維律師事務(wù)所律師趙占領(lǐng)對(duì)中新經(jīng)緯表示,目前未經(jīng)他人許可使用其肖像,即使不以營利為目的,也侵犯肖像權(quán)。但對(duì)于聲音來說,目前則不受著作權(quán)法保護(hù)。“但有些具有顯著性的聲音申請(qǐng)注冊(cè)了商標(biāo),這種情況下是聲音是受法律保護(hù)的。”趙占領(lǐng)說,如果將合成的視頻用于詐騙,且達(dá)到一定的數(shù)額標(biāo)準(zhǔn),那就涉嫌刑事犯罪。
目前,針對(duì)AI詐騙,包括北京反詐在內(nèi)的各類平臺(tái)已向公眾發(fā)出提醒,甚至稱“詐騙成功率接近100%”,并給出了一些提示。值得注意的是,由于對(duì)新技術(shù)辨別能力不強(qiáng),這種新型AI詐騙給中老年人更是帶來挑戰(zhàn)。
在日常生活中,公眾除了要注意個(gè)人信息保護(hù),不輕易提供人臉、指紋等個(gè)人生物信息給他人,不過度公開或分享動(dòng)圖、視頻外,還要增強(qiáng)意識(shí),尤其是涉及財(cái)務(wù)往來,務(wù)必通過電話、見面等最樸素的途徑核實(shí)確認(rèn),不要未經(jīng)核實(shí)隨意轉(zhuǎn)賬匯款,不要輕易透露自己的身份證、銀行卡、驗(yàn)證碼等信息。
此外,也要進(jìn)一步提高和掌握辨別AI合成視頻的能力、技巧,目前AI合成的視頻雖已比較逼真,但在細(xì)節(jié)處如色彩分布、肌膚紋理、表情自然連貫性仍有較為明顯的瑕疵。
免責(zé)聲明:凡本網(wǎng)注明“來源:XXX(非駐馬店廣視網(wǎng)、駐馬店融媒、駐馬店網(wǎng)絡(luò)問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺(tái))”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),作品版權(quán)歸原作者所有,如有侵犯您的原創(chuàng)版權(quán)請(qǐng)告知,我們將盡快刪除相關(guān)內(nèi)容。凡是本網(wǎng)原創(chuàng)的作品,拒絕任何不保留版權(quán)的轉(zhuǎn)載,如需轉(zhuǎn)載請(qǐng)標(biāo)注來源并添加本文鏈接:http://cokin-filiter.com.cn/showinfo-124-292457-0.html,否則承擔(dān)相應(yīng)法律后果。
責(zé)任編輯 / 詹云清