誰應該對AI引起的醫療錯誤承擔責任?

機器學習算法(MLAs)以閃電般的速度分析大量數據。曾經太大而人類無法正確評估的數據集現在可以被用來做出拯救生命的醫療決策。亟待解決的問題是,是否應允許AI做出這些選擇。如果是,它如何影響醫生,患者以及當前的法律和監管框架?



瑞士蘇黎世健康倫理與政策實驗室的專家只是一群開始對人工智能的使用提出警告。最近發表的一篇論文表達了對由於MLAs內部的偏見導致患者可能被拒絕接受重要治療的擔憂。
問題的關鍵在於如何開發MLA。該論文表明,自動化系統主要使用從男性白種人患者挖掘的數據進行訓練。這種“缺乏多樣性”可能導致導致錯誤的偏見。結果,邊緣化群體可能最終遭受更高的醫療失敗率。
另一個壓力點是由MLAs利用的“神經輸入”中的現有人類偏見造成的。這些海量數據集創造了AI模仿或重新表達現有人類偏見的潛力。
可能從人類傳播到AI的偏見包括對高體重指數(BMI),種族或族群以及性別歧視的偏見。這是非常令人不安的,因為研究人員已經建議人工智能能夠創造生命和死亡決定。
在英國,研究人員最近發表了一項研究,其中AI比傳統方法更好地預測了過早死亡率。研究人員認為,這可以使算法利用“人口統計學,生物學,生物學,臨床和生活方式因素”來挑選出能夠從早期干預中受益的患者。然而,由於遺傳性偏倚導致患者未能確定,可能導致特定群體停止治療。
另一項研究表明,AI可以成功識別出30天或150天死亡率高風險的癌症患者。根據該研究,AI可用於在患者接受昂貴的化療之前對其進行標記。這個想法是,在其他地方分配昂貴的治療可能更好。
研究醫療機器人的全球市場研究告訴ProPrivacy.com,“據報導,有嚴重出血的癌症患者被推薦使用可導致出血惡化的藥物。”
另一種情況是,人工智能算法旨在預測哪些肺炎患者可以安全出院 - 錯誤地認為有哮喘史的患者死亡風險較低。 RGM告訴我們:
“這是因為從訓練數據中可以看出這一點,因為患有哮喘的患者通常會去ICU,接受更積極的治療,因此不太可能死亡。該算法並不理解這一點,並使用瞭如果有人患有哮喘,他們應該被視為門診病人的規則。“
哈佛大學研究員沙琳·托馬斯指出,“即使是最好的算法也會在一定比例的時間內產生潛在的實質性責任。”這種固有的責任潛力造成了一個難題,因為很難理解誰應該被關押對最終保證的錯誤百分比負責。
布萊克摩根法律總監卡爾福斯特告訴ProPrivacy.com,目前臨床醫生仍有責任:
“最終,臨床醫生應對患者負責;這是醫學界的首要原則。人工智能的使用不太可能改變這一立場,當然在短期內“
“如果我們想像人工智能詢問測試結果並確定特定結果會增加患者特定疾病的風險,最終 - 目前 - 是由臨床醫生進一步調查。臨床醫生將負責根據其他臨床信息解釋AI提供的數據,並就最佳治療方案做出決定。“
另一方面,精神病學家和數據科學家Carlo Carandang認為責任可能存在於製造商:
“AI應用程序將被視為醫療設備,因此這些臨床AI應用程序的性能將由構建它們的公司以及監督此類醫療設備的FDA和其他監管機構負責。”
全球市場研究(RGM)告訴ProPrivacy.com,儘管目前臨床醫生似乎仍然承擔責任,“如果由於內容不正確而不是使用不當的算法或設備造成傷害,那麼責任必須由那些設計和然後質量保證。“RGM注意到”這條線可能不那麼容易定義。“
托馬斯擔心控股公司可能會導致他們完全放棄製作算法。這可能對醫療行業極為不利,因為AI已經證明了它的潛力。
例如,在中國,研究人員使用算法比國家最好的醫生更成功地檢測腦腫瘤。這些突破可以挽救生命 - 但只有生產人工智能的公司可以這樣做而沒有持續的責任問題。
Fletchers Solicitors的高級律師Michael Carson認為,在英國,目前的立法適合處理醫學AI的出現。 Carson告訴ProPrivacy.com:
“我們應該將AI視為另一種醫院設備。 AI所造成的任何錯誤或誤診都應作為醫療疏忽索賠處理,AI僅僅是醫院使用的工具。
“法律可能足夠強大,可以解決人工智能故障引起的問題。實際上,人工智能可以被看作是設備和軟件的另一種組合,在整個國家衛生服務中已經很普遍。“
然而,RGM指出,目前的立法可能無法充分區分“技術診斷故障存在錯誤的情況”和“使用不准確或不適當的數據”引起的情況。
在一天結束時,AI只能根據給出的數據進行操作。如果該數據不正確或有偏差,在輸入之前 - 很難理解製造商是如何出錯的。另一方面,似乎很難責怪醫療專業人員從他們手中做出的決定。
福斯特告訴ProPrivacy.com,美國和歐洲目前的監管制度“目前並不預期軟件或數據集旨在發展的機器學習。”因此,圍繞責任的問題可能會隨著時間的推移而發展,監管機構將需要保持靈活變革。
誰應該對工作重點負責是一個複雜的問題,並且已經存在一些分歧。有一件事似乎是肯定的,因為醫療人工智能正在迅速出現,立法者需要保持謹慎,並且必須迅速採取行動以確保法規準備好應對。很多時候,當新技術出現時,突破會過早地影響市場,立法者也不得不追趕。
人工智能最大的問題之一是臨床醫生並不總是理解為什麼工作重點在做決定。這是因為AI使用人類無法處理的大量數據集做出選擇。 RGM解釋說,由於成功率提高:
“醫生可能會發現自己錯誤地證明了人工智能決策的合理性,因為有充分記錄的概念稱為自動化偏差。在這裡,人們可能更傾向於信任機器,而不是信任自己。“
這種潛力非常令人擔憂,特別是當專家警告說算法可能預先編程了可能導致醫療事故的人為偏見時。

沒有留言

技術提供:Blogger.