中新網北京3月3日電(記者 謝藝觀)“AI‘幻覺’有利于文學創作,但在AI安全方面,‘幻覺’確實會帶來嚴重問題。”
全國政協委員、360集團創始人周鴻祎近日在北京接受中新網等媒體采訪時談及AI“幻覺”的兩面性。
AI“幻覺”,是指人工智能系統(自然語言處理模型)生成的內容與真實數據不符,或偏離用戶指令的現象。
“企業內部應用大模型時,如果該企業屬于醫療、法律、金融、證券等領域,或者用于生產制造等不容出錯的地方,大模型一旦胡亂編造信息,就會帶來嚴重后果。”周鴻祎舉例。
如何防止AI出現“幻覺”?周鴻祎認為,企業應用相關技術時,要連接企業專有的知識庫,去進行校正。“幻覺”問題,部分是能通過知識庫解決的。
但他也指出,當大模型連接知識庫,就會帶來數據安全的問題。“智能體的安全、數據的安全、客戶端的安全,還有基座模型的安全,構成一個新的人工智能安全新領域。解決方法就是‘以模制模’。”(完)