人工智能在醫(yī)療領(lǐng)域的應(yīng)用正面臨嚴(yán)峻的安全拷問(wèn)。近日,據(jù)《Nature Medicine》發(fā)表的一項(xiàng)獨(dú)立安全評(píng)估顯示,OpenAI 旗下的 ChatGPT Health 在識(shí)別醫(yī)療緊急情況方面表現(xiàn)欠佳,甚至在超過(guò)一半的測(cè)試案例中低估了病情的嚴(yán)重程度。專家對(duì)此發(fā)出嚴(yán)厲警告,稱這種技術(shù)缺陷可能導(dǎo)致本可避免的傷亡。
自今年 1 月推向市場(chǎng)以來(lái),ChatGPT Health 被定位為用戶管理醫(yī)療記錄和獲取健康建議的智能助手。據(jù)統(tǒng)計(jì),全球每天有超過(guò) 4000 萬(wàn) 人向其咨詢健康問(wèn)題。然而,最新的研究結(jié)果卻給這種“AI醫(yī)療熱”澆了一盆冷水。
關(guān)鍵時(shí)刻“掉鏈子”:急癥識(shí)別率不足五成研究團(tuán)隊(duì)構(gòu)建了 60 個(gè)涵蓋從輕微感冒到危及生命的真實(shí)患者案例,并將AI的建議與專業(yè)醫(yī)生的臨床判斷進(jìn)行對(duì)比。結(jié)果顯示:
致命的誤判:在所有需要立即送醫(yī)的急癥案例中,ChatGPT Health 竟有 51.6% 的概率建議患者留在家中或預(yù)約普通門診。
呼吸衰竭仍建議“等待”:在一例典型的哮喘案例中,盡管系統(tǒng)識(shí)別出了呼吸衰竭的早期跡象,卻依然給出了“繼續(xù)觀察”而非“立即就醫(yī)”的錯(cuò)誤指令。
嚴(yán)重的過(guò)度反應(yīng):與漏掉急癥形成鮮明對(duì)比的是,在針對(duì)健康個(gè)體的模擬中,卻有 64.8% 的人被建議立即就醫(yī)。
“虛假安全感”成最大殺手倫敦大學(xué)學(xué)院的研究人員指出,這種表現(xiàn)極其危險(xiǎn)。AI 帶來(lái)的“虛假安全感”可能讓患者錯(cuò)失黃金救治時(shí)間。更令人擔(dān)憂的是,AI 極易受到誤導(dǎo)——如果用戶在提問(wèn)時(shí)加入一句“朋友覺(jué)得不嚴(yán)重”,系統(tǒng)淡化病情的概率會(huì)瞬間激增近 12 倍。
行業(yè)呼吁:必須建立獨(dú)立審計(jì)機(jī)制面對(duì)質(zhì)疑,OpenAI 發(fā)言人表示歡迎此類獨(dú)立研究,并強(qiáng)調(diào)模型仍在持續(xù)更新。但研究人員堅(jiān)持認(rèn)為,在 AI 深度介入醫(yī)療決策之前,建立明確的安全標(biāo)準(zhǔn)和獨(dú)立審計(jì)機(jī)制已迫在眉睫。
對(duì)于普通用戶而言,目前階段的 AI 建議或許可以作為參考,但在面對(duì)胸痛、呼吸困難等疑似急癥時(shí),盲目聽(tīng)信 AI 而非求助于專業(yè)醫(yī)生,代價(jià)可能是無(wú)法挽回的生命安全。











