月5日至6日,在為期兩天的北京網絡安全大會上,與會者提到最多的話題是人工智能(AI)安全。參會的政府官員、學者、企業家們都在談論AI帶來的安全風險。
巴基斯坦計算機應急響應小組(NCERT)主席海德爾·阿巴斯說,AI攻擊是新興攻擊方法中最具威脅性、也最難以防治的一種攻擊。一項面向800位IT專家的調研顯示,在他們所屬機構遭受的新式攻擊中,51%為AI攻擊,AI攻擊會影響很多國家和組織。
海德爾·阿巴斯警告,AI驅動的網絡攻擊比傳統攻擊強大很多,需要認真應對。目前,巴基斯坦政府已經專門成立了一支國家網絡安全應急響應團隊,加大網絡安全建設。
AI攻擊包括深度偽造、黑產大模型、惡意AI機器人、自動化攻擊等多個維度。《2024人工智能安全報告》(下稱《報告》)顯示,2023年,基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數量增長了1000%。已有多個具備國家背景的高級長期威脅(APT)組織利用AI實施了十余起網絡攻擊事件。同時,基于AI的新型攻擊種類與手段不斷出現,在全球造成了嚴重的危害。
《報告》還稱,地下社區一直對大模型非常感興趣。在暗網上流行的大模型產品WormGPT被視為 ChatGPT(美國AI公司OpenAI研發的聊天機器人程序)的無道德約束替代品,它能生成復雜的惡意軟件和勒索軟件功能。另一款大模型產品FraudGPT能生成快速、大量的網絡釣魚攻擊。
中央網信辦網絡安全協調局副局長王營康表示,隨著技術發展,攻擊者可利用AI技術生成網絡攻擊和網絡釣魚工具,網絡安全將從人人對抗、人機對抗逐漸向基于AI的攻防對抗演化。
不過,雖然AI有很大的安全風險,但與會專家的共識是,應該積極發展AI,而不是阻止它。
“不發展(AI)是最大的不安全。”先進計算與關鍵軟件(信創)海河實驗室主任、中國新一代人工智能發展戰略研究院執行院長龔克認為,此前多位全球知名人士要求暫停開發優于GPT-4(美國AI公司OpenAI研發的大模型)的大模型的做法,并不可取。
奇安信集團董事長齊向東接受經濟觀察網采訪時說,人類不要被AI引發的風險嚇到,應該擁抱AI,安全公司可以解決AI帶來的安全問題。
齊向東用奇安信安全機器人舉例說,最近他們在某核電企業安排了安全機器人與人工團隊一起演習,共發現15起安全事件,一半以上事件由機器人搶先識別并確認。這件事說明,用AI來助力安全已是大勢所趨,在未來的網絡攻防中,得AI者得天下。
海德爾·阿巴斯也認為,AI安全問題可以得到解決。談及如何防范AI攻擊,他認為,可以用大模型技術構建起惡意軟件防護墻,甚至還能夠借助安全軟件實現反向攻擊,由AI驅動的網絡攻擊,也需要用AI力量去應對。