研究發現 AI 聊天機器人尚未準備好取代醫生

ICOHOIDER

人工智慧聊天機器人已被越來越多地推廣為醫療保健的未來,一些系統在標準化醫學考試中表現良好,並向用戶提供基於症狀的建議。然而,發表在《自然醫學》上的一項新研究表明,這些工具不僅遠未取代醫生,甚至在用於個人醫療指導時可能帶來風險。

由牛津大學團隊領導的研究指出大型語言模型(LLMs)存在明顯的差距。儘管這些系統在技術知識方面表現出色,並在結構化醫學評估中取得良好成績,但在協助用戶處理現實世界的健康問題時卻遇到困難。研究人員表示,將理論知識轉化為安全且實用的醫療建議仍是一大挑戰。

參與該研究的首席醫療專家瑞貝卡·佩恩博士表示,儘管對人工智慧在醫療中的熱情日益高漲,但該技術尚未準備好承擔醫生的責任。她警告說,依賴大型語言模型進行症狀分析可能是危險的,因為它們可能提供錯誤的診斷或未能識別需要緊急醫療的情況。

大規模測試揭示關鍵弱點

該研究涉及1,300名參與者,這些參與者使用由OpenAI、Meta和Cohere開發的AI模型。參與者被呈現由醫生設計的醫療情境,並被詢問AI系統應採取哪些步驟來處理描述的狀況。

研究人員發現,AI生成的建議與傳統的自我診斷方法(如網絡搜索或個人判斷)一樣不可靠。在許多情況下,用戶收到的指導既有正確的,也有誤導性的,讓人難以判斷下一步應該採取什麼行動。另一個挑戰是溝通:參與者經常難以理解AI需要哪些資訊來產生準確的建議。

佩恩博士強調,醫學診斷不僅僅是回憶事實。她解釋說,有效的醫療照護需要仔細傾聽、提出澄清性問題、探查相關症狀,並引導患者進行動態對話。患者經常不知道哪些細節具有醫學意義,這意味著醫生必須積極提取關鍵資訊。研究結論指出,目前的LLMs尚未能可靠地管理這種與非專業人士的複雜互動。

支持角色,而非臨床角色

儘管研究人員警告不要將AI聊天機器人用作醫療顧問,但他們並未完全否定這項技術。相反,他們建議AI可以在醫療環境中扮演輔助角色。佩恩博士指出,LLMs在總結和組織資訊方面尤其有用。在臨床環境中,它們已被用來轉錄會診內容,並轉換成專科轉診信、患者資訊表或醫療記錄。

團隊總結認為,儘管AI在醫療領域具有潛力,但目前尚不適合直接提供醫療建議。他們認為,在這些系統能負責任地融入面向患者的角色之前,必須建立更完善的評估框架和安全標準。他們的目標並非拒絕AI在醫學中的應用,而是確保其發展方式優先考慮患者安全和臨床準確性。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言