中新網北京3月2日電 (記者 夏賓)人工智能發展日新月異。近來,國產大模型的火熱降低了民眾與企業的使用門檻,但其帶來的安全問題不容忽視。如何保護數據安全、識別虛假信息、防御網絡攻擊等都是人工智能(AI)產業成長的“必答題”。
全國政協委員、360集團創始人周鴻祎近日在北京接受中新網等媒體采訪時,談及人工智能技術進步帶來的新風險。
他認為,要正確認識AI的安全問題,不能夸大、不能忽視,也不要籠統地談AI安全。一些美國頭部AI公司想搞壟斷和封閉,往往會夸大AI不安全的問題作為其不開源的借口,這樣后來者就沒有機會趕上他們。“我一直認為,不發展是最大的不安全”,周鴻祎說,必須抓住AI的這次機會,提升生產力,讓每個人感受到科技普惠的成果。
周鴻祎稱,AI的安全和業務發展可以“同步走”。人工智能尤其是大模型的安全問題不能以傳統網絡安全的解題方法來應對,智能體的安全、知識數據的安全、客戶端的安全以及基座模型的安全,構成一個人工智能安全的全新領域,解決方法的關鍵是“以模制模”。
“我們花了很多功夫專門做安全大模型,就是用聰明的大模型智力、能力去管理知識庫的使用,去管理智能體的調用,去管理基座模型的‘胡說八道’和對人的‘PUA攻擊’。”周鴻祎說。
談及當下大模型發展路徑的開源和閉源發展路線,周鴻祎說,沒有開源就沒有互聯網。開源就是把自己的朋友搞得多多的、把自己的敵人搞得少少的,不分國家、不分種族,只要對人工智能有興趣的人都可以加入到開源社區中,與所有人一起分享成果。開源生態形成巨大的虹吸效應,一般來說,開源一旦形成氣候,就能戰勝閉源。
他說,開源對整個中國傳統企業在利用大模型降本增效、打造新質生產力等方面的杠桿作用大。因此,將來中國在AI領域會借助生態帶來更強的研發力量,帶來更多的創新和改進,帶來更多的標準。(完)