最近,OpenAI 發出警告,稱其人工智能模型 ChatGPT 正被網絡犯罪分子用來進行各種惡意活動,包括開發惡意軟件、傳播虛假信息和進行網絡釣魚攻擊。
根據一份新報告,自2024年初以來,OpenAI 已經在全球范圍內干預了超過20起欺騙性操作,揭示了 AI 被濫用的嚴峻趨勢。這些活動不僅包括調試惡意軟件,還涉及為虛假的社交媒體賬號撰寫內容和生成誘人的釣魚信息。
OpenAI 表示,其使命是確保這些工具為人類的共同利益服務,因此公司正致力于發現、預防和打擊濫用其模型的行為。尤其是在這個選舉年,OpenAI 強調,建立強大的多層防御系統以抵御與國家相關的網絡攻擊和隱蔽的影響操作顯得尤為重要。這些操作可能會利用其模型在社交媒體等平臺上進行虛假宣傳。
報告還指出,OpenAI 在2024年5月的威脅報告之后,繼續干預了包括惡意軟件調試、網站文章撰寫以及生成虛假社交媒體內容等多種活動。這些行為的復雜程度各不相同,從簡單的內容生成請求到復雜的多階段社交媒體分析和響應行動都有涉及。甚至有一起案例與 AI 使用的假消息有關。
為了更好地理解網絡犯罪分子如何利用 AI,OpenAI 分析了這些被干預的活動,識別出了一些初步趨勢,認為這些趨勢可以為 AI 在更廣泛的威脅環境中的討論提供重要信息。
OpenAI 的分析中提到,AI 為防御者提供了強大的能力,可以識別和分析可疑行為。盡管調查過程仍然需要人類的判斷和專業知識,但這些新工具讓 OpenAI 在某些分析步驟上從幾天縮短到了幾分鐘。此外,網絡犯罪分子通常在獲取基本工具后,利用 OpenAI 的模型進行活動的中間階段,待其部署 “成品” 后才會在互聯網上發布。
雖然網絡犯罪分子仍在不斷演變和嘗試使用 OpenAI 的模型,但目前并沒有證據顯示這導致了他們在創建新型惡意軟件或構建病毒性受眾方面取得了實質性突破。實際上,在今年的選舉相關內容中,OpenAI 發現的欺騙性活動并沒有引起廣泛的社會媒體互動或持續的關注。
未來,OpenAI 將繼續與其情報、調查、安全研究和政策團隊協作,以預測惡意行為者可能如何利用先進模型進行有害活動,并相應地計劃執法行動。他們表示,將與內部安全團隊分享發現,與利益相關者合作,并與行業同行及研究界攜手應對新興風險,維護集體安全與安保。
劃重點:
?? OpenAI 發現網絡犯罪分子利用 ChatGPT 進行惡意軟件開發和虛假信息傳播。
?? 自2024年初以來,OpenAI 已成功干預超過20起欺騙性操作,保護網絡安全。
?? AI 模型雖然被濫用,但目前尚未顯著提升網絡犯罪分子的惡意軟件創作能力。

