聲音泄露?可能被複制的“聲音DNA”

是否想過你獨一無二的聲音,在某天被複刻出現在你的面前時,你該怎麼辦。
這並不是嘉賓的模仿秀,而是現在實實在在能夠發生的事情。時間到進入2019年,AI技術的應用落地越來越多樣化。科大訊飛、搜狗等技術公司相繼發佈了語音合成技術的應用。通過AI手段,用戶可以一秒變聲社會名人或者其他想模仿的聲音。

特別喜歡遊戲行業的人應該清楚,現在很多遊戲裏面都自帶語音系統,而一些牟利的人爲了掩人耳目,直接採用變聲軟件進行變聲。但是那隻能夠單向的變聲,固定的幾個音色參數,並不能達到靈活的地步。

而這個技術有什麼不同之處呢?與軟件不同之處是,採用端到端語音風格分離和建模方案,使用多組神經網絡對語音的不同維度,例如音色、情感、風格等,進行獨立的編碼建模,從而指導最終合成。例如智能電話機器人就是使用這種先進的技術,而不是傳統的固定模塊編譯系統。能語音合成變聲、語音cos等場景下的應用,將真人發出的聲音轉化爲多角度不同方向的聲音。

互聯網技術在悄無聲息地改變我們的生活,對人工智能企業來說,語音識別技術的廣泛應用已不是難事。但背後的倫理道德和安全隱患,或將成爲伴隨AI技術發展不容忽視的一個問題。

其實,AI技術背後的“以假亂真”現象不只出現在聲音領域,近日三星的一項技術應用也引起人們的注意。

據外媒報道,三星位於莫斯科的人工智能實驗室研究人員,基於大量動圖和視頻素材,以及“深度卷積神經網絡”訓練,通過AI技術準確識別某些面部特徵,可以將靜止圖像變爲動圖甚至視頻。

在實驗中,研究人員以愛因斯坦、瑪麗蓮·夢露甚至蒙娜麗莎的靜止圖像爲基礎,分別生成了他們正在說話的視頻,不過目前視頻質量較低。

也就是說,未來隨着AI圖像生成技術的進步,可以僅僅通過一張照片就能生成虛假視頻。
而不管是AI變聲,還是AI換臉,高科技迅速發展的同時,也給法律規則帶來新的挑戰。
值得注意的是,在4月全國人大常委會審議的《民法典人格權編(草案)》裏,正式加了一條:任何組織和個人不得以利用信息技術手段僞造的方式侵害他人的肖像權。

也就是說,一個好的信號是,未來AI換臉、甚至語音合成技術的應用或將受到法律管制,
特別是人工智能語音領域。目前,AI技術的落地應用,正在不斷打通虛擬世界和現實世界的界限,我們需要思考的是,如果未來這些技術越來越強大和普及,明辨真假將會變得越來越困難,技術發展的同時又該如何把控安全隱患問題?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章