亚洲综合在线精品,亚洲一区无码精品,中文字幕无码久久免费,亚洲欧美国产色婷婷

      <video id="njjfz"></video>
    <progress id="njjfz"><button id="njjfz"><font id="njjfz"></font></button></progress>
  1. <wbr id="njjfz"></wbr>
  2. <i id="njjfz"><bdo id="njjfz"></bdo></i>

    <video id="njjfz"></video>

    <i id="njjfz"><bdo id="njjfz"></bdo></i>
    駐馬店融媒宣傳下載
    您當前所在位置:駐馬店廣視網(wǎng)>熱點> 正文

    分 享 至 手 機

    “AI換臉”技術(shù)以假亂真? 一處bug可識別假臉!

    時間:2019-03-18 10:46:05|來源:國搜頭條|點擊量:52853

     “反AI變臉”技術(shù)通過有效預(yù)測眼睛的狀態(tài),準確率達99%

    AI換臉也有bug,看看人物眨沒眨眼

    第二看臺

    近日,知名視頻網(wǎng)站blibli流傳出一段視頻:電影《射雕英雄傳》(1994年版)朱茵主演的黃蓉被視頻制作者通過“AI換臉術(shù)”處理成了楊冪的臉,神態(tài)表情如同朱茵飾演的黃蓉一樣生動俏皮,毫無違和感,頓時引起網(wǎng)民熱議,以至于微博話題點擊量飆升至1.1億。

    所謂AI換臉術(shù),是基于人工智能的人體圖像合成技術(shù),生成的假臉(通稱DeepFake)。那么,這個技術(shù)是怎么做到如此出神入化?它給人們的生活會帶來哪些利與弊?有何辦法對其辨別?避免潛在風險?

    強調(diào)“以假亂真”

    讓黃蓉秒變臉的視頻制作者表示,這么做僅是用于“技術(shù)交流”。其實,AI換臉技術(shù)已然在我們身邊蕩起漣漪。

    今年春節(jié)期間,科幻影片《瘋狂的外星人》中外星人逼真的神態(tài)表情,是由演員徐崢通過“動作捕捉”出演完成;美國動作電影《阿麗塔》用AI科技加持,為觀眾呈現(xiàn)閃亮大眼的戰(zhàn)斗蘿莉阿麗塔動感十足;經(jīng)典影片《速度與激情7》中,AI換臉還原了因車禍意外去世的主演保羅·沃克的音容笑貌,讓整部影片多了一絲“你永遠與我們同在”的溫暖。

    不同于戲曲換臉的變幻,“AI換臉術(shù)”強調(diào)“以假亂真”。簡單說,AI換臉就是將目標人物各個角度的人臉照片一幀幀貼在被換對象的視頻畫面上,生成假臉視頻,倘若能達到“朱茵or楊冪?傻傻分不清!”的效果,即大功告成。

    “從技術(shù)層面講,首先要進行數(shù)據(jù)采集,捕捉不同的臉姿態(tài)、表情、角度和光照的人臉圖片;再者進行數(shù)據(jù)處理,包括采集數(shù)據(jù)標準化及分割算法處理等;硬件上需要一個較好的GPU,家用計算機可能會吃力一些,制作需要幾個小時甚至數(shù)十小時,但是現(xiàn)在已有許多插件可以輔助。”為2019年央視網(wǎng)絡(luò)春晚提供虛擬主持人技術(shù)支持的偶邦公司創(chuàng)始人鄭毅告訴科技日報記者。

    有“壞孩子”之嫌

    “AI換臉術(shù)”從其命名為DeepFake起,恐怕已有“壞孩子”之嫌。

    據(jù)說,DeepFake原本是一個用戶的名字,他將《神奇女俠》主角蓋爾·加朵的臉嫁接到另一張臉上,后被這位女演員及其律師起訴,但無奈尚沒有相關(guān)法律條文對其問責,由此DeepFake反而因為“創(chuàng)新之舉”一炮走紅,成為“AI換臉術(shù)”代言人。

    在某些重大政治場合,以假亂真的假新聞對于民眾的誤導,帶來的負面影響是不可估量的。2018年5月,美國總統(tǒng)特朗普宣布中止全球氣候變化協(xié)議,隨后被比利時某政黨利用DeepFake篡改,做了一個“特朗普宣告比利時政府也應(yīng)退出”的假視頻,引起比利時民眾的公憤??梢韵胂?,如果類似的假視頻被用在投票、騷亂、戰(zhàn)亂誤導民眾,煽風點火,后果可能是災(zāi)難性的。

    此外,DeepFake也有道德隱患。現(xiàn)在很多明星已躺槍,包括艾瑪·沃特森、斯嘉麗·約翰遜、瑞漢娜等好萊塢影星、歌星,被換臉后的視頻上傳到成人視頻網(wǎng)站,以假亂真的換臉技術(shù),要面臨社會很大的道德爭議。

    有外媒稱:“這種技術(shù)再次提醒我們,在這個數(shù)字時代,任何事情都不能盲目地看表面,因為那張臉可能是在欺騙你。”

    用AI假里辨真

    如何辨別“AI換臉術(shù)”?值得慶幸的是,科學界正在應(yīng)對這個問題,而主要“殺手锏”是運用AI技術(shù)假里辨真。

    紐約州立大學奧爾巴尼分校教授呂斯衛(wèi)領(lǐng)導的團隊發(fā)現(xiàn)了偽造視頻的漏洞:假臉極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的。

    研究人員表示,偽造視頻往往忽略了“自發(fā)的、無意識的生理活動,例如呼吸、脈搏和眼球運動”。呂斯衛(wèi)說:“因此,缺少眨眼是判斷一個視頻真假的好方法之一。”

    這種作為“反AI變臉”技術(shù)通過有效預(yù)測眼睛的狀態(tài),準確率達99%。此項研究已由美國國防高級研究計劃局資助,作為甄別媒體假新聞,推進媒體取證計劃的一部分。

    “在偽造視頻的后期處理中手動添加眨眼,其實并非一個巨大挑戰(zhàn),而且一些偽造視頻已包含眨眼。從長遠來看,實際上這是一場通過AI制作假視頻和檢測假視頻之間的持續(xù)戰(zhàn)斗。”呂斯衛(wèi)說。

    此外,鄭毅提出,“通過強制記錄照片和視頻拍攝的時間、地點,既在區(qū)塊鏈上記錄照片和視頻不可篡改的時空戳方法,也可進行鑒別”。

    然而,公共科學研究猶如一把雙刃劍:騙子一旦了解其騙局是如何被識破的,就可以對算法進行相應(yīng)調(diào)整。道高一尺魔高一丈,“從這個意義上講,他們已經(jīng)占上風,最終很難說哪一方會獲勝。”呂斯衛(wèi)指出。

    免責聲明:凡本網(wǎng)注明“來源:XXX(非駐馬店廣視網(wǎng)、駐馬店融媒、駐馬店網(wǎng)絡(luò)問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺)”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,作品版權(quán)歸原作者所有,如有侵犯您的原創(chuàng)版權(quán)請告知,我們將盡快刪除相關(guān)內(nèi)容。凡是本網(wǎng)原創(chuàng)的作品,拒絕任何不保留版權(quán)的轉(zhuǎn)載,如需轉(zhuǎn)載請標注來源并添加本文鏈接:http://cokin-filiter.com.cn/showinfo-188-233139-0.html,否則承擔相應(yīng)法律后果。