“生病了問AI”,出錯了怎么辦?
AI醫療現狀調查
今年3月,一名“95后”新手家長面對孩子反復咳嗽發熱的癥狀,在手機端用AI問診判定孩子為“普通呼吸道感染”,并參考網絡建議居家用藥,致病情延誤。最終,孩子被醫院確診為病毒感染肺炎。醫生指出AI問診存在一定風險,應以專業醫療意見為準。
此事引發網絡熱議。AI癌癥早篩、AI肺結核診斷、AI手術機器人、AI導診機器人……近年來,AI技術已在門診導診、臨床輔助診斷、疾病管理等環節廣泛應用,尤其是今年年初DeepSeek的問世,更是掀起了一股“生病了問AI”的熱潮。但也有不少人反映,AI醫療并沒有想象中那么靠譜,看錯病、看不出病的情況時有發生。
對于AI醫療,輿論場也涌現出更多的追問,比如:AI醫療是否會影響到醫生的地位?如果AI診斷錯誤,誰來負責?如何保護普通人的醫療數據隱私?如何讓AI醫療發展更快、應用更廣?
AI醫療只是輔助手段
“AI醫療可以提升醫療服務的效率,已經在疾病預測、健康管理、影像識別等領域表現出色,能夠為患者提供較為精準的醫療服務。”中國衛生法學會副會長鄭雪倩向記者介紹,在基層或缺乏專家資源的邊遠貧困地區,可以通過AI進行初步篩查,并為醫生提供提示或診斷參考,從而優化醫療資源分配、推動分級診療政策落地、提升基層醫療服務能力。
正因AI醫療彰顯出諸多優勢和巨大潛力,“AI會不會搶醫生飯碗?”“AI醫生看病爆火”“AI看病比三甲醫院醫生還準”……在最近關于AI醫療的網絡討論中,相關話題頻繁出圈。“當DeepSeek給出了和主任醫師一樣的診斷,以后是否還有必要去醫院?”近期,這樣的疑問也出現在了醫患對話中。
記者采訪了多位一線醫務工作者,他們均不反對患者使用“AI問診”。但對“‘AI問診’的結果是否靠譜”“能否作為診療依據”等問題,受訪醫生都抱著謹慎態度。他們普遍認為,“AI問診”存在局限,只能作為一種輔助手段,并不能替代醫生。
北京市某社區衛生服務中心的全科大夫周醫生坦言,在基層醫療機構平日里遇到疑難雜癥的情況不多,更多的是高血壓、糖尿病、心臟病等慢性病的老年患者,AI在慢性病隨訪、慢性病管理上還缺少些“人情味兒”。
“以預問診AI為例,有老年患者反映,他有幾個晚上睡不好覺導致頭疼、心慌,AI就有可能把所有有頭疼癥狀的病都列給醫生,其中絕大多數是無效信息。”周醫生說,疾病的診斷是一個模糊決策,尤其是在社區這種基層醫療機構,看病的基本是“老熟人”,往往需要醫生綜合病史、癥狀等多種信息、根據經驗縮小范圍下診斷,AI目前在這方面還不夠成熟。
“AI醫療是人工智能在醫療領域的應用,即通過大數據的分析學習,建模,來輔助或優化醫生在看病治療以及健康管理環節的一項技術應用。”在中國衛生法學會常務理事、北京市華衛律師事務所副主任鄧利強看來,AI醫療通過機器的學習建模進行數據的分析,讓AI反復學習的確可以幫助識別病癥,但這種建模本身有數據庫的問題,再加上無法把醫生的診療經驗揉到建模里,所以這種智能診斷不可能完全取代醫生。
“AI問診缺乏人文情感交流,AI開方無人審核,還可能出現誤診、誤治和AI醫療的法律主體不明確等問題。因此,AI醫療應當始終定位于醫生的輔助工具。”鄭雪倩說。
持謹慎態度劃定紅線
隨著AI醫療在全國逐步落地,一場醫療領域的巨大變革正在發生。僅今年2月以來,就有不少醫院發布其最新應用成果。
比如,上海瑞金醫院發布瑞智病理大模型,AI僅需數秒就能精準識別病理切片中的病灶區域;北京協和醫院研發的“協和·太初”罕見病大模型已進入臨床應用階段;上海市肺科醫院參與研發的肺部智能手術規劃系統,將實際手術規劃時間從數天縮短至2到5分鐘……
雖然有多項成果問世,但對于AI醫療,不僅是醫生,相關部門也保持謹慎態度。記者梳理公開資料發現,目前針對AI醫療已出臺多項限制性措施:湖南省醫保局發布通知,禁止使用AI自動生成處方,以維護醫保基金安全和患者權益;北京禁用AI自動生成處方,并成立了互聯網診療監管平臺;國家衛健委和國家中醫藥局聯合發布的《互聯網診療監管細則(試行)》明確規定,人工智能不得替代醫師本人提供診療服務……
“這些政策和規定表明,我國在AI醫療領域已經開始劃定紅線,以確保技術應用的安全性和倫理性。”鄭雪倩說,醫療安全底線包括:處方紅線,即AI不得自動生成處方,醫生必須對診療行為負責;倫理紅線,即AI應用需遵循醫學倫理,確保患者隱私保護、數據安全和公平性;技術紅線即AI技術需經過嚴格的臨床驗證,確保其在實際醫療環境中的有效性和安全性。
受訪專家明確,即便有AI的輔助,醫生仍是最后把關人,如果醫生利用AI診療出現誤診、漏診等醫療事故,最終還是由醫生承擔責任。
鄧利強認為,由于AI醫療存在較多法律風險和合規挑戰,這才讓相關部門對AI醫療的態度如此謹慎。
“醫療數據涉及患者的個人隱私,哪些數據可以向研發AI醫療的企業開放并未有明確規定,而且直接針對醫療數據開放的法律法規尚未出臺,無法對數據按照統一技術標準進行清洗處理;對AI誤診的責任界定和相應法律糾紛的處理辦法同樣存在爭議;目前國內醫療數據共享不足且缺乏標準規范,制約著AI醫療產業的發展……”鄧利強說,正因有諸多問題亟待解決,所以醫療保守絕不是落后,恰恰是對生命的負責。
應平衡創新加強監管
AI醫療,今后如何才能更好地發展?
鄧利強說,應平衡AI醫療技術創新與合規監管關系。要強化全流程的資質審查機制,即針對AI醫療和AI處方各個環節的主體都必須有診療的資質,這是不能突破的底線。應強化企業的自律與誠信機制的建立,開發和使用AI醫療的企業都必須依法合規。需要明確AI醫療產品的注冊、審批、使用和退出流程,并加強對算法透明度、公平性、隱私保護等關鍵維度的評估與監管。
鄭雪倩建議,應建立倫理審查機制,確保AI技術在醫療領域的應用符合倫理道德要求。還要鼓勵社會各界對AI醫療技術進行監督和評價,形成全社會共同參與的監管格局。加大處罰力度,提高違法成本,構建更有效的法律威懾體系。加大正向宣傳引導,提高醫生和患者對AI技術的接受度是實現技術普及的關鍵。
2025中關村論壇年會期間,AI醫療成為與會專家熱議話題。與會專家建議,加強監管與倫理指導,制定嚴格的數據安全和隱私保護政策,設立醫療AI倫理委員會。同時,提高模型透明度,發展可解釋AI技術,使大語言模型在醫療決策時能夠提供推理過程。例如在腫瘤診斷中,AI需指出影像特征依據,而不是只給結論,還要設定合理的使用范圍。大語言模型適用于醫學教育、輔助決策和信息檢索,但不應直接用于關鍵診斷或治療決策,最終決策仍需由專業醫生作出。
“醫療從業人員的確應該積極擁抱發達的技術,但技術對行業本身的沖擊以及它是否能實現有溫度的醫療,也是我們行業的引領者所需要思考的。我們期待的是,行業參與者冷靜思考的心和職業情懷,可以讓技術成為幫手,而不是讓患者的醫療安全受到影響。”鄧利強說。
本報記者 趙麗
本報實習生 陳穎