Connect with us

港聞

AI年代:AI配音門檻低 易遭電騙濫用

發佈於

【明報專訊】AI合成人聲技術成熟,現在有很多應用程式能輕易「複製」一個普通人的聲音,僅需上載一段數十秒聲音主人的錄音,稍等片刻即可。這種「聲音複製」技術近年遭到電訊詐騙團伙濫用,全球各地有多名受害者表示,電話對面的聲音和熟人一模一樣。

年初的內地演員王星綁架案令東南亞電騙產業進入輿論焦點,泰國總理佩通坦1月表示,接到自稱某國政要的語音信息,對方使用AI技術模仿該政要聲線,起初並未讓佩通坦起疑。據共同社報道,騙徒用AI合成人聲冒充一間企業的社長,並偽造來電號碼,電話指示下屬向指定戶口匯款。中國、美國、加拿大等多國均有報道稱,不少長者接到聲稱孫輩索要錢財的電話,指向相同的作案手法。

專家倡預判AI影響

據新華社報道,網上有大量手機應用程式能AI合成聲音,下載量超千萬。清華大學新聞與傳播學院教授沈陽表示,AI技術的普及讓普通人也能「複製聲音」。中國科學院科技戰略諮詢研究院院長潘教峰認為,需要提前預判AI技術應用可能帶來的社會影響。

日報新聞-相關報道:

AI年代:給AI裝耳朵 識聽識唱識奏樂 中大教授研音頻AI 冀像人類理解聲音 (2025-06-30)