科技.人文聯合講座/聽其言而觀其行

最近聚餐時,友人手機的鈴聲響起,只見他一邊說是詐騙集團打來的電話,一邊又拿起手機侃侃而談。筆者數度以手勢勸阻,但友人仍與對方糾纏多時後才悻悻然掛斷。

友人說他極痛惡詐騙集團,每次接到騙徒來電總要好好消耗他們的戰力,讓他們徒費脣舌,無功而返。友人俠氣干雲,令人敬佩,但如此大剌剌地把自己的聲音「餵養」歹徒,卻很可能讓自己落入險境而不自知。

語音克隆(voice cloning)是一種複製模擬個人聲音的技術,只要擷取短短几秒鐘的聲音,人工智慧擬聲技術就能掌握其聲紋特質,從而生成維妙維肖的音聲。因此,不明來電千萬不要接,若不小心接了也不要多費脣舌,趕快掛斷以策安全。一旦歹徒掌握了個人聲紋特質,就可以透過即時擬聲系統與人對話,聽起來就像是用模擬的聲音說話。

擬聲系統的用途,除了增強娛樂與教育功能外,也有助於人們實現未竟心願。例如今年初夏,黃仁勳演講時就用擬聲技術,以咬字清晰的中文旁白,說明數位孿生地球可更準確預測臺灣氣候變化。然而,科技就像一把雙面刃,利之所在,弊亦藏之。如今,這些先進技術,竟被用來迷惑受害者,大家都得當心。

近日一則國外報導指出,愈來愈多的案件顯示,詐騙歹徒利用人工智慧技術模擬受害者的親友聲音,並利用它們來勒索金錢。在識別受害者的家庭成員後,歹徒使用僞造的聲音撥打電話、語音訊息或語音郵件,騙說因意外事故或資金短缺,請求緊急匯款。雖是詐騙老哏,但受害者被熟悉的親友聲音突破心防,一時不察就上當了。

在社羣網路上,大家或多或少都留有影音或照片,潛藏被不肖之徒僞造仿冒的風險,更不用說高度曝光的網紅。國外有位網紅,持續在影音平臺發佈關於軟體開發的優質影片,五年來共吸引了七十多萬位愛好者訂閱。最近,他發佈一部短片「他們用人工智慧竊取了我的聲音」(They stole my voice with AI),敘述某家科技公司盜用他的聲音,竟然以他從未說過的話語推銷產品。

該網紅不想花大錢走法律訴訟途徑,只去函要求盜用的公司道歉和補救。他說:「你不該竊取某人的聲音或肖像,然後將其應用到自己的產品或影片上。」令人想起今年五月時,好萊塢巨星「黑寡婦」喬韓森(Scarlett Johansson)痛斥OpenAI擅自模擬她的聲音,然後使用於ChatGPT的語音助理。

除了聲紋外,驗證通關使用的生物辨識特徵還包括人臉、指紋和虹膜等,在在都潛藏或高或低的僞造仿冒風險,真讓人防不勝防。有朝一日,不論是巨星、網紅或普羅大衆,大家都得面對種種以假亂真的惡形惡狀。

如今,當我們在電話聽到至親好友的聲音時,切莫輕易信以爲真,最好再測測只有雙方知道的默契密語,以免誤信賊人,後悔莫及。(作者爲臺灣大學資訊工程系教授)