Gate 廣場|2/27 今日話題: #BTC能否重返7万美元?
🎁 帶話題發帖,抽 5 位幸運兒送出 $2,500 仓位體驗券!
Jane Street 被起訴後,持續多日的“10 點砸盤”疑似消失。BTC 目前在 $67,000 附近震盪,這波反彈能否順勢衝回 $70,000?
💬 本期熱議:
1️⃣ 你認為訴訟與“10 點拋壓”消失有關嗎?市場操縱阻力是否減弱?
2️⃣ 衝擊 $70K 的關鍵壓力區在哪?
3️⃣ 你會在當前價位分批布局,還是等待放量突破再進場?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 (UTC+8)
醫療照護決策工具中的種族偏見
醫療照護中的種族偏見可能在一些意想不到的地方顯現。一個例子:在當今患者接受測試、診斷和治療方式中扮演重要角色的臨床決策工具。
這些工具包含演算法,或逐步操作流程,通常是電腦化的,用於計算如心臟疾病風險、胸部X光需求以及處方藥劑量等因素。人工智慧可以用來篩查健康記錄和帳單系統,以建立所需的資料集。
表面上,這聽起來可能是客觀的。但研究顯示,這些演算法所用的資料分析在關鍵方面可能對某些種族和社會經濟群體存在偏見。這可能在醫療服務的數量和品質方面產生多種後果。
主要重點
獲取基於27年以上可信專業經驗的個性化、AI驅動的答案。
ASK
種族偏見影響最重的患者
2019年,一項針對美國醫院和保險公司廣泛使用的演算法的研究顯示,該演算法系統性地歧視黑人。在分配額外健康管理協助的決策工具中,當兩個種族群體病情相當時,該工具較少將黑人轉介至複雜醫療需求的照護管理計畫。
偏見的根本原因與演算法根據前一年醫療費用為患者分配風險分數有關。假設較高的醫療費用能識別出需求較大的患者,但許多黑人患者因較少獲得醫療資源、支付能力較低、信任度較低,與同樣病重的白人相比,他們的較低醫療費用並不能準確反映其健康狀況。
照護管理計畫採用高接觸方式,例如電話聯繫、護士家訪和優先安排醫生預約,以應對最嚴重患者的複雜需求。這些計畫已被證明能改善結果、降低急診和住院次數,以及降低醫療費用。由於這些計畫本身成本較高,通常分配給風險分數最高的人群。對最重病患的偏見評分技術,可能是他們因多種疾病死亡風險增加的重要因素。
腎臟疾病中的種族變數
演算法可能在未將種族列入變數的情況下存在偏見,但有些工具則故意將種族作為判斷標準。例如,用於評估腎臟健康狀況並決定是否需要腎臟移植的eGFR分數。
1999年一項研究設定了eGFR分數標準,發現黑人平均肌酐(肌肉分解產物)水平高於白人。科學家假設這是由於黑人肌肉量較高,因此調整了評分,這基本上意味著黑人必須有較低的eGFR分數才能被診斷為末期腎病。結果,黑人必須等到腎病更嚴重時才能符合治療資格。
2018年,華盛頓大學醫學院的醫學與公共衛生學生觀察到,eGFR分數在診斷黑人腎病嚴重程度方面不準確。她努力爭取將種族從演算法中移除,並成功了。2020年,華盛頓大學醫學院同意,使用種族作為變數是無效的,且不符合醫學診斷工具的科學嚴謹性。
重要
2021年,美國腎臟基金會與美國腎臟學會聯合成立工作小組,建議採用新的2021年CKD EPI肌酐方程式,該公式在估算腎功能時不使用種族作為變數。
身體質量指數與種族偏見
即使是不包含種族的最簡單醫療決策工具,也可能反映社會偏見。例如,身體質量指數(BMI)是基於體重乘以身高的計算,用來識別體重過輕、過重和肥胖的患者。
1985年,美國國家衛生研究院將肥胖定義與BMI掛鉤,1998年,一個專家小組制定了基於BMI的指南,將之前被歸類為正常體重或僅過重的2,900萬美國人歸入過重和肥胖類別。
如今,根據BMI標準,大多數黑人、西班牙裔和白人都屬於過重或肥胖。但根據疾病控制與預防中心(CDC)2021年的報告,不同種族或族裔群體中,肥胖的比例有所差異。
CDC的數據顯示,成人中比例為:
若細分為女性成人的肥胖比例,差異更為明顯:
將如此大比例的人口標籤為過重或肥胖,已造成體重羞辱和患者與醫生之間的不信任氛圍。較重的患者抱怨醫生未針對他們就診的健康問題或疑慮,反而將問題歸咎於體重,並推動減重作為解決方案。這導致許多黑人和西班牙裔患者避免就醫,可能錯失預防或早期發現問題的機會。
此外,越來越多證據顯示,過重或肥胖並不一定是健康問題。有些嚴重疾病如心臟病、中風、2型糖尿病和某些癌症的發病率在肥胖者中較高,但在某些情況下,例如心臟手術後的康復,過重或中度肥胖(非病態肥胖)反而與較佳的存活率相關。
加拿大醫生於2020年8月公布的新肥胖指南強調,醫生應停止僅依賴BMI來診斷患者。新指南指出,只有當體重影響身體健康或心理福祉時,才應診斷為肥胖。治療應採取整體性方法,而非僅針對體重減輕。指南還指出,“肥胖者面臨大量偏見和污名,這些偏見和污名會增加疾病和死亡率,與體重或BMI無關。”
可以用其他測量方式取代BMI,例如腰圍。肥胖的定義也可能重新界定。2025年1月,一組58位研究人員提出新定義,將焦點從BMI轉向過多的體脂及其對健康的影響。該團隊提出兩個肥胖分類:前臨床型,指體脂過多但器官功能正常;臨床型,指過多脂肪已損害組織和器官。
減少決策工具中的偏見
醫學演算法並非唯一可能存在偏見的演算法。如《新英格蘭醫學雜誌》2020年的一篇文章指出,“這個問題不僅限於醫學。例如,刑事司法系統使用再犯預測工具來指導保釋金額和監禁判決。”作者表示,一個廣泛使用的工具“雖然不直接使用種族,但使用許多與種族相關的因素,並對黑人被告給出較高的風險評分。”
人工智慧(AI)——尤其是機器學習的日益普及,也引發了關於基於種族、社會經濟地位和其他因素偏見的問題。在醫療領域,機器學習常依賴電子健康記錄。貧困和少數族裔患者可能接受碎片化的照護,並在多個機構就診。他們更可能在教學診所就診,資料輸入或臨床推理可能較不準確,也可能無法存取線上患者門戶或記錄結果。因此,這些患者的記錄可能存在缺漏或錯誤資料。驅動機器學習的演算法可能因此排除貧困和少數族裔患者的資料,影響所需的照護。
好消息是,過去幾年來,對醫療演算法偏見的認識已經提高。資料輸入和結果正被檢查是否存在種族、族裔、收入、性別和年齡偏見。美國的醫學專科協會也開始認識到種族基礎醫學帶來的危害,並努力終止在臨床演算法中考慮種族的做法。一旦識別出差異,演算法和資料集就能進行修正,以達到更客觀的結果。
演算法是什麼?
沒有統一的法律或科學定義,但美國國家標準與技術研究院(NIST)將其描述為“明確規定的數學計算過程;一套規則,遵循後會得到預定的結果。”
演算法的範例是什麼?
廣義來說,演算法就是一個逐步解答問題或達成目標的流程。例如,蛋糕食譜就是一種演算法。在金融領域,自動交易系統也是一個例子。
什麼是機器學習?
IBM,該領域的先驅,將機器學習定義為“人工智慧(AI)的一個子集,專注於能‘學習’訓練資料中的模式,並隨後對新資料做出準確推論的演算法。”
底線
儘管看起來客觀冷峻,醫療專業人員用來做出某些決策的演算法,可能會受到種族、階級和其他因素的偏見影響。因此,不能僅憑信任演算法,而應進行嚴格分析。正如MIT科技評論2021年所指出的,“不論‘演算法’的定義如何,它都不應成為免責的藥方,讓設計和部署系統的人免於對其使用後果負責。”