首頁 行業(yè) 活動 項目 快訊 文娛 時尚 娛樂 科技 汽車 綜合 生活

人工智能,綁架了我的聲音

2023-05-11 11:00:49 來源:小雷嗶嗶
編 輯丨kkknei

排 版丨KIM

「AI」是2023年開年來最熱門的話題,當人們?yōu)槿斯ぶ悄艿尼绕鸲械脚d奮之時,一場危機也隨之而來。

在過去幾個月時間里,我們見識到了「AI問答」、「AI制圖」和「AI換臉」,每一項技術的曝光,都引起不小的討論。在設想「AI」成為我們的得力助手之前,這些工具已經(jīng)率先成了不法之徒的「好伙伴」。


(資料圖片僅供參考)

全球最大的專業(yè)安全技術公司McAfee不久前公開了一項調(diào)查數(shù)據(jù),在受到電話詐騙的人群中,有超過77%的受害者被「AI語音」所欺騙。這些受害者難以辨別來電中的聲音是否來自家人、朋友,于是,在陌生來電的請求下,向不法分子打去一筆又一筆錢款。

利用「AI」,人們可以輕松地克隆任何人的聲音,除了行騙之外,還可能出現(xiàn)在任何場合、任何地點,乃至于網(wǎng)友們普遍認為,「AI語音」遲早會出現(xiàn)在法庭上,成為偽證的主要來源。

這聽起來十分嚇人,對吧?
聲音是假的,詐騙是真的
經(jīng)常在網(wǎng)上沖浪的朋友,近期一定在不同的社交平臺中看到利用「AI」創(chuàng)作的歌曲,例如:

「AI孫燕姿《發(fā)如雪》Cover From周杰倫」

「AI霉霉《反方向的鐘》Cover From周杰倫」

「AI周杰倫《普通朋友》Cover From陶喆」

這些利用「AI」創(chuàng)作的歌曲,成為網(wǎng)友們熱捧的二次創(chuàng)作。

(圖源:bilibili)

事實上,「AI」創(chuàng)作歌曲和「AI語音」詐騙案,手法是一樣的。創(chuàng)作者通過某些工具,將語音素材導入其中,以高性能顯卡進行訓練,不需要花費太多時間,即可輕易地獲得一段“以假亂真”的音頻內(nèi)容。

用「AI」創(chuàng)作歌曲,還需要調(diào)整音調(diào),使這些音頻與原曲的節(jié)奏、音高保持一致。當然,在最新版本的創(chuàng)作工具中,已經(jīng)可以做到“一鍵處理”,效果不會太差。而「AI語音」的難點在于處理情緒,除了調(diào)整仿真音頻的節(jié)奏之外,還需要加上因不同情緒而產(chǎn)生的內(nèi)容變化。

(圖源:Veer)

在McAfee提到的兩個真實案例中,一位母親接到詐騙團伙撥來的綁架電話,在電話那頭,她的女兒正聲嘶力竭地呼救。不僅聲音相似,就連情緒也十分到位,這正是受害者“上鉤”的重要原因。

今年3月,一款名為“Mocking Bird”的AI工具誕生,據(jù)開發(fā)者介紹,它能在電話、視頻中提取人聲,以AI算法進行模擬匹配,最后根據(jù)分析出來的內(nèi)容,“拼湊”你所需要的語音內(nèi)容。經(jīng)網(wǎng)友實測,這款工具確實可以制作出「AI語音」,但要求并不算低。

制作「AI語音」,需要足量樣本,最好是清晰的人聲,因此想要在一通電話就提取到足夠的聲音素材,還是比較艱難的。不過,利用「AI語音」詐騙,或許并不需要逼真的聲音。
「AI」能詐騙
未必全靠「科技與狠活」
當每個人都能輕而易舉地「克隆」他人的聲音,這個世界不就亂套了嗎?「AI語音」,真的做到人人都能隨手創(chuàng)作了嗎?

為了了解「AI語音」現(xiàn)階段的真實情況,我采訪了一位在該領域比較資深的創(chuàng)作者明治老師,聽聽他對「AI語音」的看法。

小雷:明治老師,看您在「AI」領域的研究頗為深入,您如何看待「AI語音」詐騙案?

明治:目前來說,光靠一通電話、一段視頻就能提取出足夠用于語言訓練的素材,難度很大,從被報道出來的案例看,大多數(shù)被騙的用戶在當時是處于緊張的狀態(tài)中,因為不知道對方是不是真的,大腦自動匹配想象對象的聲音,這也是有可能的。

小雷:也就是說,現(xiàn)階段還不能單純依靠「AI」制作足以以假亂真的語音嗎?

明治:我們看到網(wǎng)絡上有很多AI翻唱的內(nèi)容,還有很多主播整活的語音音頻,但你有沒有發(fā)現(xiàn),這些二創(chuàng)內(nèi)容都有一個共同點——“樣本足量”。就像孫燕姿這類歌手,她能不斷被作為AI創(chuàng)作對象,正是因為她有足夠的聲音素材。即便有了足量的聲音素材,對硬件也有很高的要求,即便是最好的消費級顯卡4090Ti,模型生成也需要耗費很多時間。

小雷:假如說,只用一段音頻作為素材去制作「AI語音」,能實現(xiàn)以假亂真嗎?

明治:上面也說過了,聲音樣本不夠,是很難做出所謂的「AI語音」內(nèi)容的,就算強行制作,得到的成果質(zhì)量也不會很高?!耙约賮y真”,其實有很多判定標準,例如童聲,大多數(shù)童聲聽起來都是差不多的,尤其是在電話中,不太清晰的語音加上比較普遍的聲線,混淆視聽也不足為奇。

(圖源:Veer)

從簡單的訪談中我們可以了解到一些關于「AI」內(nèi)容創(chuàng)作者的想法,總體來說,「AI語音」除了技術加持之外,更多還是利用了人們對于未知事物的恐懼、慌張。而「AI」工具,只是讓原本的電話詐騙提升了一點可信度。

在ChatGPT初代公開之時,所有人都沒有預料到這樣一個人工智能問答平臺可以衍生出這么繁多且強大的功能。同樣地「AI語音」現(xiàn)階段還不算是全民化、普世化的工具,但即便是在這個階段,已經(jīng)足夠讓電話詐騙成功幾率大大提升。很難想象,當「AI語音」工具簡化后,這個領域會被「玩」成什么花樣。

無論如何,「AI」確實正在對我們的安全造成威脅。
「AI」,實在太危險!
在相應的法規(guī)出臺前,「AI」在任何領域里,都稱不上是安全、可靠的工具。

不久前,一位全網(wǎng)擁有百萬粉絲的女網(wǎng)紅發(fā)布長文,痛斥「AI換臉」正在對她的名譽、精神造成傷害。文中,這名網(wǎng)紅揭露,有不法分子通過這項技術,將其她的臉換在成人視頻里,讓她“成為”影片中的女主角。

(圖源:Veer)

不僅是「AI換臉」,利用「AI」工具,用戶可以隨時輸入相應的關鍵詞,生成任何他們想要的內(nèi)容,「18禁圖片」、「名人」或是任何「沒有發(fā)生的事情」,精制的圖片難辨真?zhèn)?,影響了用戶們的判斷力?/p>

從前,“有圖有真相”,是我們判斷事情真?zhèn)蔚闹饕C據(jù),再后來,配合動態(tài)視頻、真人語音,衍生出“視頻不能P”的判定標準。在「AI」蓬勃發(fā)展的今天,圖片可以自制、真人可以被移花接木,甚至是語音,也能被「AI」克隆。盡管「AI語音」并不能完全被認定位電話詐騙成功的主因,但它提供的幫助,是被安全機構(gòu)所認定為「具有風險」的。

目前,我國已經(jīng)出臺《網(wǎng)絡音視頻信息服務管理規(guī)定》,對于“非真實音視頻信息”,應當予以標識,禁止利用大數(shù)據(jù)深度學習制作、發(fā)布虛擬新聞。而這僅僅只是一個開始,想要給「AI」戴上鐐銬,任重道遠。

McAfee出具的報告中提到,光是2022年這一年時間里,涉及「AI語音」詐騙的金額就達到了26億美元,約合人民幣180億元。

面對「AI語音」詐騙,我們該如何防范呢?

(圖源:Veer)

如前面提到的,「AI語音」的生成需要大量克隆對象的聲音樣本,減少在未知風險的社交平臺中發(fā)送帶有自己真實聲音的視頻、音頻內(nèi)容,其實是最保險的方案。另外,「AI語音」詐騙成功率高達77%,與人們的恐懼心理離不開關系,在沒法確認對方的真實身份前,盡量不要接受對方的要求,尤其是轉(zhuǎn)賬。

無論如何,現(xiàn)階段的「AI語音」并沒有如同網(wǎng)上流傳的那樣神乎其神,我們普通網(wǎng)民也沒必要過于著急自己的聲音被克隆,在遇到有可能是詐騙的情況,先保持冷靜,整理情緒,理清思路,才能更好地應對。

·
·
關鍵詞:

上一篇:動態(tài)焦點:小麥灌漿水澆不澆?該如何判斷?

下一篇:警方回應山西懷仁發(fā)現(xiàn)無名尸體:目前尸體身份暫未確定

責任編輯:

最近更新

點擊排行
推薦閱讀