AI可以替代醫生的哪部分工作?

知識儲(chu) 備是醫生診療水平高低的決(jue) 定性因素,包括專(zhuan) 業(ye) 知識和經驗積累兩(liang) 大塊。在智能飛速發展的今天,ChatGPT這類人工智能可以擁有遠超過一個(ge) 醫生能擁有的知識儲(chu) 備量,那AI可以做到替代醫生的程度,還是隻能成為(wei) 輔助醫生的智能工具呢?

ChatGPT無法完全替代醫生

即使是ChatGPT搭載精細化機器人的完美未來假設,在全醫療領域實現無化人,也是毫無可能的。這其中有兩(liang) 個(ge) 核心問題,一是人工智能不適合進行綜合決(jue) 策,特別是涉及倫(lun) 理道德的選擇;二是人工智能不具有創造性。

人工智能不適合進行醫療綜合決(jue) 策,在醫院實際的醫療場景下,並不是1是1、2是2的簡單科學選擇,更多的是科學手段為(wei) 輔、人性選擇為(wei) 主的決(jue) 策模式。

舉(ju) 一個(ge) ICU搶救的例子,一位70歲的老人正生命垂危,人工智能結合各類儀(yi) 器參數得出,各類生命輔助儀(yi) 器全連接後,搶救過來的概率是49%,性價(jia) 比指數僅(jin) 為(wei) 2/10,根據底層計算邏輯,它認為(wei) 該患者不應進行搶救。然而,這位老人的子女對他具有非常強烈的搶救意願,人工智能該如何判斷家屬的情感,從(cong) 而與(yu) 家屬達成溝通而做出決(jue) 定?

顯然,它缺乏對人類情感的感應係統,隻能靠純數據性的資料來進行科學性判斷,這樣的判斷在醫療決(jue) 策中往往不是最後決(jue) 定性因素。無法靠醫學技術救回的患者,有人傾(qing) 家蕩產(chan) 也絲(si) 毫無悔;簡單醫療手段可以做到保命,但由於(yu) 文化、認知等等,拒絕治療而死亡的患者也不在少數。作為(wei) 與(yu) 人打交道的職業(ye) ,醫生常常在安慰,有時能緩解,極少能治愈。

科學知識隻是醫生決(jue) 策的基礎,患者及家屬的意願才是決(jue) 策的最終拍板人,人工智能這類完全理性的醫學決(jue) 策角色難以被大眾(zhong) 接受。人工智能不具有創造性,難以推動醫學進步。

不可否認,曆史上很多重大的醫學進步靠的是感性認知,或者說是直覺。比如抗生素的發現,源於(yu) 對發黴瓜果的好奇。人工智能對醫學知識的處理是基於(yu) 數據庫的運算,它對其沒有衍生性,沒有創造性。如果兩(liang) 個(ge) 事物在數據庫中並不具有關(guan) 聯性,它不會(hui) 主動進行聯想和發散,更不會(hui) 主動通過收集外界資料去發現新問題,並尋找解決(jue) 辦法。

這樣的AI醫生隻能永遠保持出場時的穩定水平,無法自我進步、自我革新。

目前的ChatGPT離輔助醫生也還有很大差距

當然,拋開理想水平的實體(ti) 化AI醫生,僅(jin) 以現在的ChatGPT水平而言,目前連信息準確度都無法確保的AI,離投入醫療使用還有很長一段路要走。不少人在使用當前版本的ChatGPT會(hui) 發現,它常常在一本正經的胡說八道,看起來頭頭是道的說辭,列出來滿滿當當的文獻參考,卻往往都是找不到來源的杜撰。

目前,ChatGPT不能用於(yu) 製定診療方案。如果以專(zhuan) 業(ye) 的醫學問題去問它,它並不會(hui) 給出符合當前醫療決(jue) 策邏輯的任何解決(jue) 辦法。例如:餐後血糖13.0,需要注射多少胰島素? ChatGPT隻會(hui) 給出一段沒有任何實際信息的回答,可能這也涉及到當前法律對醫療行為(wei) 的管控,給出過多的醫療幹預意見,會(hui) 使其陷入需承擔法律風險。

AI可以替代醫生的哪部分工作?

當然,這並不意味著現在的ChatGPT在作為(wei) 醫學顧問角色上一無是處。在輔助醫生進行診斷時,ChatGPT可以提供一些大範圍的醫學信息作為(wei) 醫生的參考,但並不全麵和準確。

例如,詢問具有“發熱15天,左胸劇烈疼痛3小時”症狀的患者可能患有那種疾病時。ChatGPT會(hui) 根據關(guan) 鍵詞發熱和胸痛進行檢索和列舉(ju) ,但嚴(yan) 重不足的是,它會(hui) 忽略左胸劇烈疼痛3小時這一時間上的危險信號,未對主動脈夾層、心肌梗死等致死性疾病進行提示。ChatGPT的回答沒有進行信息上的篩選和重點的選擇,其診斷信息並不能滿足臨(lin) 床上大病、重病、急病優(you) 先排除的醫療邏輯。

AI可以替代醫生的哪部分工作?

在臨(lin) 床其他方麵,比如病例書(shu) 寫(xie) 上,ChatGPT還沒有成型的實際產(chan) 品可供醫院進行使用,這樣的成熟產(chan) 品還需要融合語言輸入、信息提取和填充、多係統檢驗數據錄入等等環節,是值得期待,但仍需實際檢驗的可能用途。其他醫療應用上,如影像診斷、B超診斷等等,目前也缺乏成熟的算法進行實際應用支持。

如果舉(ju) 出一個(ge) ChatGPT現在就能做的輔助工作,除了老生常談的科研用途,就數患者教育內(nei) 容了。把ChatGPT當成一位患者的營養(yang) 師、生活谘詢指南、健康教育者,它能發揮很好的1對1效果。例如,讓它為(wei) 糖尿病患者製定一日食譜,就可以得到一份熱氣騰騰、溫和無害、清淡寡味的減糖減脂食譜。

AI可以替代醫生的哪部分工作?

ChatGPT的臨(lin) 床輔助用途的法律風險還有待商榷。例如,當ChatGPT提供的醫學診斷建議對醫生產(chan) 生誤導時,醫生本人和人工智能產(chan) 品的提供公司的醫療責任應如何劃分;例如,如何監督ChatGPT的算法邏輯漏洞導致的患者病例錯誤,患者病例作為(wei) 法律文書(shu) ,其法律記錄責任仍全歸於(yu) 主治醫生本人還是審核者……諸如此類。

醫療行為(wei) 不是簡單的信息提供,其中涉及的法律責任和風險在ChatGPT介入後如何界定將成為(wei) 難題。

盡管類似ChatGPT的人工智能在知識儲(chu) 備上可以遠遠超越醫生,但ChatGPT等人工智能未來也難以完全替代醫生,因為(wei) 以人為(wei) 本是醫療行業(ye) 遵循的鐵律。雖然每位醫生對於(yu) 類似ChatGPT的人工智能在醫療行業(ye) 內(nei) 的應用都抱有不同的期待,離ChatGPT輔助醫生進行臨(lin) 床工作還有很長的發展距離,這不僅(jin) 與(yu) 算法的優(you) 化有關(guan) ,還往往與(yu) 法律和政策相關(guan) 。如何定義(yi) ChatGPT在醫療行業(ye) 中的責任,將成為(wei) 其進入醫療行業(ye) 的關(guan) 鍵點。

【競賽報名/項目谘詢+微信:mollywei007】

上一篇

英國Sussex House School蘇賽克斯學校介紹

下一篇

英國本科物理類專業規劃申請全攻略

你也可能喜歡

  • 暫無相關文章!

評論已經被關(guan) 閉。

插入圖片
返回頂部