全球首次研究!中風照護過度依賴AI 恐釀致命結果

分享:

台大公衛學院與哈佛大學等國際機構合作完成全球首項生成式AI在中風照護資訊提供上的表現評估,研究結果顯示,主流AI模型在中風照護相關問題上的回應平均僅獲得60至65分的勉強及格成績,存在準確性不足等問題,可能為患者帶來致命風險。

台大公衛學院與哈佛大學等國際機構合作完成全球首項生成式AI在中風照護資訊提供上的表現評估。(示意圖/Pixabay)
台大公衛學院與哈佛大學等國際機構合作完成全球首項生成式AI在中風照護資訊提供上的表現評估。(示意圖/Pixabay)

研究主持人、台大公衛學院副教授李達宇表示,隨著ChatGPT等生成式AI工具普及,許多病人開始透過這些平台詢問中風復原及相關症狀衛教資訊。然而研究發現,AI產生的回覆雖有時能提供幫助,但存在明顯風險。「AI很聰明,但並非總是安全,在高風險醫療照護中,微小錯誤也可能要人付出生命代價」,李達宇強調,在AI發展過程中,教導病人「如何安全使用AI」與技術發展同等重要。

研究團隊以ChatGPT、Claude、Gemini三款主流大語言模型為分析對象,從準確性、幻覺率、具體性與相關性、同理性與可理解度、可行性等五個面向進行評分。李達宇解釋,準確性是分析AI的回應是否符合臨床指引,幻覺率則是指錯誤資訊出現的頻率。研究結果顯示,這三種AI在「提供患者可直接採取行動的建議」方面表現不一,尤其在中風治療等高風險階段,錯誤或不完整回應時有所見。

生成式AI在一般健康資訊傳遞上也許具有潛力,但在中風這類即時且需專業介入的情境上,可靠性仍有待大幅提升。(示意圖/Pixabay)
生成式AI在一般健康資訊傳遞上也許具有潛力,但在中風這類即時且需專業介入的情境上,可靠性仍有待大幅提升。(示意圖/Pixabay)

李達宇進一步分析,生成式AI在一般健康資訊傳遞上也許具有潛力,但在中風這類即時且需專業介入的情境上,可靠性仍有待大幅提升。他也指出,民眾提問時的技巧很重要,若能納入個人疾病史等資訊,有助於讓AI回應更安全、實用。

國衛院國家環境醫學研究所所長陳保中則表示,國內醫療人力缺乏,導致醫師、護理師過勞,發展AI模型有助提升醫療照顧品質及效率,也可提升安全性,減少因過勞而誤判病情。但他強調,AI應僅作為協助醫療人員的工具,而非代為做出決策。陳保中最擔心的是民眾使用AI後「自以為是」,誤認病情「沒事」,因此他認為AI輔助病人做出醫療決策的風險仍高,應設法降低這些風險。

李達宇與團隊的這項研究成果已於今年7月登上國際期刊「npj Digital Medicine」,並獲哈佛大學官網刊登,為全球首次針對生成式AI在中風照護資訊提供上的表現進行系統性評估。

留言衝人氣 1則留言

登入留言有機會獲得旺幣哦!
NO MESSAGE 無任何留言,趕緊搶頭香!