(資料圖)
原標題:謹防AI擊穿安全底線
AI既可以換臉還可以擬聲,逼真到視頻聊天也看不出破綻。近日,包頭警方發布一起利用AI實施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。
類似案例在多個省份都有出現。騙子往往通過有償收購等手段,獲取他人音頻素材等基礎“物料”,利用AI技術合成聲線、“活化”照片,然后“騙過”驗證、登錄他人社交平臺并聯系“好友”詐騙獲利。深度合成技術正瓦解“眼見為實”的信任邏輯,一張正臉靜態照片,經過“活化”處理之后,可以呈現豐富表情、生成流暢視頻。同樣,經處理后的聲音也可呈現真人音效。
目前,人工智能的深度學習和算法越來越先進,深度合成應用呈指數級增長,濫用該技術的行為正帶來肉眼可見的倫理問題。除了用AI換臉詐騙,還有人用它制作他人不雅視頻、冒充明星帶貨等。在支付場景日益豐富的今天,人類的面部、聲音、指紋、虹膜等生物信息的使用越來越廣泛,隱私泄露等風險隱患也隨之增多。恰如那句網絡流行語:你永遠不知道網絡的對面是一個人還是一條狗。如果不對此類技術加以限制,AI技術不僅容易威脅到人身財產安全、傷害個人尊嚴和隱私,還可能構成更大社會危害。
英國科幻劇《黑鏡》通過若干小故事帶領觀眾思考未來數字化生存的挑戰。要防止墜入技術濫用的深淵,當然需要公眾提升防護意識、避免網絡“踩坑”,不過在技術優勢面前,個人自我防護效果畢竟有限,因而更需要相關部門和企業積極引導技術向善,完善風險治理體系。
面對有可能擊穿安全底線的技術風險,有必要出臺法律明確監管框架,給AI技術套上韁繩。當前,AI合成技術還屬新生事物,立法和監管應當緊跟實際甚至具備一定前瞻性。相關平臺要加大力度研發防騙反詐監測系統和應急軟件,同時基于自身大數據能力和安全防護能力,對侵權行為及時采取刪除、屏蔽、終止交易和服務等必要措施,以科技防騙杜絕科技詐騙。(韓宗峰)
關鍵詞: