隨著人工智能技術的不斷進步,聲音克隆技術逐漸走入公眾視野,然而其潛在的風險也隨之顯現。最近,多位知名人士的聲音被不法分子惡意克隆,成為詐騙的工具。包括著名自然紀錄片主持人大衛?阿滕伯勒在內的多位名人,紛紛對此表示擔憂,并呼吁加強法律保護。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
近期,大衛?阿滕伯勒在發現自己的聲音被用于傳播政治新聞后,感到 “深感不安”。他表示,自己一生致力于傳播真相,現在卻發現身份被他人盜用,這種情況讓他感到憤怒與失望。此外,詹妮弗?安妮斯頓、奧普拉?溫弗瑞和凱莉?詹納等明星的聲音也遭到不法分子的克隆,表明這一現象的普遍性。
根據最新的調查,英國的 AI 聲音克隆詐騙案件在過去一年中增加了30%。調查顯示,約28% 的人在過去一年中至少遇到過一次 AI 聲音克隆的詐騙。這些詐騙往往以模糊的電話和仿冒的聲音為背景,使得受害者難以分辨真偽。專家建議,接到可疑電話時,最好立即掛斷并撥打可信的電話號碼進行確認。
隨著聲音克隆技術的不斷提升,專家們開始關注這項技術所帶來的法律挑戰。多米尼克?李斯博士表示,目前的隱私和版權法律尚未適應這一新技術的發展,導致許多受害者如阿滕伯勒幾乎無能為力。他正在為英國議會文化、媒體和體育委員會提供咨詢,研究如何在影視制作中道德使用 AI 技術。
不僅如此,李斯還指出,盡管 AI 在聲音合成方面取得了顯著進展,但它依然無法完全理解情感變化,從而影響聲音的真實感。此外,配音行業也在快速響應這一變化,部分公司開始克隆一些藝術家的聲音,以便滿足市場需求。
總的來說,聲音克隆技術的興起引發了廣泛的關注,尤其是在保護個人隱私和聲譽方面。專家們呼吁政府盡快采取措施,以應對 AI 技術帶來的新挑戰,避免讓這一技術成為犯罪分子的工具。
劃重點:
??? 名人聲音被惡意克隆,阿滕伯勒等人表示深感不安。
?? 英國 AI 聲音克隆詐騙案件增加30%,公眾警惕性提升。
?? 專家呼吁更新法律,以應對 AI 技術對隱私和版權的挑戰。

