網頁

2024-03-31

假使「AI習近平」發命令?

【雙魚之論】英文拷到 G / D 找中文翻譯
我在想這個可能性:中國已經走向獨裁,有一天而「習近平」發出一則不是習近平的命令?

【截 3 秒限動就能偷你的聲音】AI 仿聲技術氾濫,我們如何幫朋友檢查是否被盯上?    科技報橘央廣 20230923

AI 仿聲技術當道的今天,你想得到的任何歌手、公眾人物,幾乎都能被 AI 模仿其嗓音,喜愛的歌曲想聽哪種 Cover、最愛的電影片段要套上誰的口白,都能自己來。

如今聲音被複製不再是大明星的專利,只要短短幾分鐘,你我的聲音也可能輕易被冒用。

今年5月在美國知名深度報導節目《60分鐘》中,一位身份是資安專家的來賓,以 AI 複製節目中另名記者 Sharyn Alfonsi 的聲音,並成功以假冒聲音騙過節目工作人員。據該名資安專家指出,整個複製聲音的過程,僅需短短 5 分鐘,而拷貝的技術來源是今年 1 月就上架、付費即可使用的軟體。

隨著生成式 AI 的流行,偽造聲音的門檻正以不可思議的速度下降中。語音資安技術公司 Pindrop 指出,像最近微軟剛發表的開源語音合成模型 VALL-E X僅需假冒對象約三秒鐘的說話音檔,就能成功複製嗓音、讓模型說出你想仿造的任何內容。

AI 深偽技術盛行,全球網路詐騙金額飆破 10 兆美元 

而這些技術進步正推升著以深偽(Deepfake)攻擊為核心的語音詐騙。最近 Pindrop 接受《紐約時報》訪問時分享,由他們把關的許多家美國大型金控公司,平均一年內會接到數千到一萬通不等的詐騙電話,但去年底,首次有家提供語音身份驗證的供應商 Nuance 反應遭遇到 AI 仿聲的詐騙攻擊。

Pindrop 執行長 Vijay Balasubramaniyan 指出,目前深偽語音詐騙多半發生在信用卡客服專線。像是日前有位《Vice》雜誌的記者就實測以 AI 複製自己的嗓音,然後打給銀行客服,最終果真騙過銀行認證程序,成功授權自己帳戶的交易

據美國聯邦貿易委員會數據指出,2020 2022 年間,超過 3 億人的個資落入駭客手中,造成至少 88 億美元的詐騙損失。而在 AI 仿聲普遍流行後,據研究機構 Cyber​​security Ventures 的推估,到了 2025 年,全球網路詐騙所造成的損失恐飆破10兆美元。

表單的底部

深偽語音比你想得還可怕,發社群動態都可能成為受害者

「因為未來深偽語音詐騙的流程將變得非常迅速。」Vijay Balasubramaniyan 指出,一旦駭客掌握相關個資後,再去目標對象的社群媒體上——可能是 Instagram 限時動態或Tik Tok 短片,獲取所需音頻樣本,就能輕鬆假冒身份、盜取錢財,而其中較為富有或具備一定社群知名度的客戶,面臨的風險就更大。

Nuance 的安全和生物識別總經理 Brett Beranek 指出,目前最令人擔心的,可能不是銀行端遭受的攻擊。Brett Beranek 解釋,由於針對客服中心的語音詐騙多半有固定模式可循——駭客通常會寫下類似的對話文本,並交給自動轉錄程式套上特定嗓音後唸出來,因此較容易被防護軟體偵測出異狀。最難防的反而是假冒熟人的社交工程型(Social Engineering)詐騙。

當你接起電話、聽見熟悉的聲音要你匯款或是執行各種交易,人們很容易不疑有他的照做。「尤其是家長聽到孩子有急難需幫忙時。」澳洲最大銀行澳洲聯邦銀行欺詐管理負責人 James Roberts 指出,社交工程往往是詐騙集團命中率最高、回報最快的慣用伎倆,而目前除了多用其他管道向對方確認身份外,還沒有特別有效的防阻方式。


沒有留言:

張貼留言

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行