隨著人工智能技術的快速進步,尤其是大語言模型如ChatGPT的發展,醫學臨床實踐領域正經歷一場前所未有的技術變革。這些先進技術通過高效處理和分析大規模數據集,不僅為醫療專業人員提供輔助診斷和治療建議,還顯著提升了醫學教育的質量和效率。本研究深入分析并綜述了大語言模型在臨床問診、病史搜集、醫學文獻編寫、臨床決策支持、醫療門戶網站優化、患者健康管理、醫學教育、學術研究及科研論文撰寫等多個方面的應用。盡管如此,這些技術應用并非無懈可擊,伴隨著若干限制和倫理挑戰。本文重點討論了技術誤差、學術不誠實行為、濫用風險、過度依賴、誤診及治療失誤可能性以及責任劃分等方面的問題。大語言模型在醫療整合和發展中展示出巨大潛力。然而,在充分利用ChatGPT帶來益處的同時,我們亟需認識到并解決這些倫理上的挑戰,以確保ChatGPT在醫學領域的應用是負責任且有效的。
引用本文: 潘高澗, 葉冠志, 方韶韓, 朱曉雷, 劉鴻鳴, 李寧, 耿國軍, 姜杰. ChatGPT應用于醫學臨床實踐及倫理探索. 中國胸心血管外科臨床雜志, 2024, 31(6): 910-914. doi: 10.7507/1007-4848.202402032 復制
隨著人工智能(artificial intelligence,AI)技術快速發展,其在醫療領域的應用逐漸成為焦點,特別是生成式AI,即一類通過學習大量數據來創建或生成新內容的AI技術。通過分析和處理大量的醫療數據,能夠輔助醫生進行更準確診斷,提高醫療服務效率和質量,在醫學教育、診斷輔助以及患者交流等領域顯示出廣泛的應用前景[1]。然而,生成式AI在臨床應用中的深入推廣也引發了倫理、法律和社會影響方面的問題,如數據隱私保護、算法透明度和責任歸屬等。此外,技術局限性和潛在偏見問題也引起公眾對其在醫療決策中角色的擔憂。本文旨在全面探討生成式AI,特別是ChatGPT及相關技術在醫療領域的應用現狀和發展趨勢,并分析其面臨的倫理、法律和社會問題。通過全面審視這些技術的潛力與挑戰,為技術進步、政策制定和倫理討論提供有益的參考和指導,并強調科技為醫療領域帶來便利和進步的同時,我們也應充分認識到并慎重對待其帶來的挑戰和風險。
1 ChatGPT
大語言模型在AI領域中代表了一項重要的技術突破,通過模仿人類的語言學習能力,從而理解和生成文本。這些模型基于深度學習和神經網絡來分析大量的文本資料,如書籍、文章和網站內容等,實現對語言的深刻理解[2]。其中,深度學習(deep learning,DL)是一種使計算機模仿人腦處理信息的方法,而神經網絡則是深度學習中用于數據處理和模式識別的算法,類似于人腦中的神經元網絡。這些技術使得計算機能夠通過大規模數據訓練,預測和生成連貫、逼真的文本[3]。ChatGPT自OpenAI于2022年發布以來,在多個領域包括醫學和學術研究中,引起了廣泛關注。基于生成預訓練架構(generative pre-trained transformer,GPT)開發的最新版本GPT-4,通過大量的互聯網文本訓練,具備理解和生成人類式文本的能力,執行自然語言處理任務,如文本生成、語言翻譯、摘要、情感分析、實體識別和問題回答等[4]。在醫療衛生領域,ChatGPT已展現出廣泛的應用潛力,包括電子病歷整理、臨床決策支持、數據分析和科研論文撰寫等。其對醫療報告、診斷和治療計劃的改進,為醫療實踐和患者體驗帶來了顯著增益。然而,在廣泛應用于研究和臨床之前,需要進一步提高其準確性和原創性,并解決存在的偏見和濫用風險,同時應對學術誠信、隱私和倫理挑戰。
2 ChatGPT在臨床實踐中的應用
2.1 臨床病史采集
ChatGPT在醫療領域的應用展示了顯著優勢,其不僅能夠理解人類語言,還能生成接近自然對話的文本。在臨床問診上,患者的自述往往包含復雜的醫學術語和非結構化信息,而ChatGPT能夠有效提取并分析這些信息,協助醫生更深入了解患者的病情和需求。通過模擬對話的形式,ChatGPT可以與患者互動,詢問相關癥狀、疾病發展歷程、既往病史等,從而提取出患者描述中的關鍵信息,轉化為醫療人員可用的關鍵信息。這種互動方式不僅豐富了患者問診的維度,還能為后續病歷書寫奠定基礎,可以有效減輕醫療人員的工作負擔,并通過確保在初步評估階段不遺漏任何關鍵信息,提高患者護理的整體質量[5-6]。然而,由于ChatGPT缺乏實際的臨床經驗和醫學判斷能力,其問診結果及生成的臨床文本仍需由專業醫生進行最終的確認和解讀。
2.2 電子病歷書寫
處理電子健康記錄(electronic health records,EHR)中的醫療文檔是導致醫務工作者職業倦怠的關鍵因素。盡管這些文檔工作對于收集和傳遞護理決策信息、推動醫療服務改進至關重要,但它們繁復的性質給醫務人員帶來了極大壓力。采用生成式AI,如ChatGPT,可以通過生成標準化的模板并自動填入相關臨床信息來優化醫療記錄的工作流程,從而提升醫療文檔處理的效率。這不僅可以幫助緩解職業倦怠,也有助于保存珍貴的醫療保健人力資源[7]。展望未來,ChatGPT在自動化生成臨床文本方面的應用預示著可以減輕醫療人員的工作負擔,使他們能夠更加專注于對患者的實際護理。然而,將ChatGPT與EHR系統集成不僅需要確保醫療文件的精確性,還要做到嚴格保護患者隱私,防止對患者護理產生不利影響[8]。
2.3 臨床輔助決策
在醫療領域中,EHR和研究報告等文本數據蘊含著豐富的信息資源。ChatGPT借助其文本分析能力,可以有效地從這些數據中提取關鍵信息,進而輔助識別疾病模式、評估治療效果以及預測患病風險,這對于臨床輔助決策和個性化治療方案的制定具有重要意義。ChatGPT可以基于患者的癥狀和病史,生成全面的潛在診斷列表,并通過與龐大的醫學知識庫和指南進行對比,排除相關性較低的疾病,從而提供更準確的鑒別診斷[9]。此外,其通過結合年齡、性別、家族病史、生活方式及相關病史等多個與疾病診斷相關的風險因素,輔助風險分層和診斷決策。在整個過程中,ChatGPT通過收集和分析患者數據,以指導臨床醫生作出及時、準確的診斷。
2.4 優化門戶網站
隨著醫療保健行業的數字化,在線健康門戶網站已經成為患者獲取健康數據的主要渠道。這些門戶網站提供了包括預約掛號、查看個人健康記錄、向醫療人員咨詢信息等一系列功能。其中,與醫療人員交流是患者門戶網站中既實用又繁瑣的功能之一。通過對一家醫療機構進行隨訪評估,在6個月內,有近萬條消息被發送給外科醫生,其中大部分涉及醫療決策[10]。盡管健康門戶網站提供了豐富的醫療服務,但所有與醫療人員的消息交流并未得到充分的回應。
將ChatGPT整合到這些平臺中,可能會改變患者與其醫療信息的交互方式。ChatGPT能幫助患者瀏覽其健康記錄、解釋檢驗結果或理解他們的診斷。這不僅使患者更好地掌控自己的健康狀況,還增進了對醫療保健的理解。此外,ChatGPT能夠更加有效地處理和回復患者消息。最近的研究[11]表明,ChatGPT生成的在線健康咨詢回答質量更高,更具同情心。
2.5 患者健康管理
患者健康管理虛擬助手是ChatGPT的一個重要應用方向。首先,ChatGPT在幫助患者有效管理藥物治療方面發揮關鍵作用。其所提供的用藥提醒、劑量指導及潛在副作用和藥物相互作用的信息至關重要。其次,ChatGPT通過分析患者數據并提出個性化治療建議來促進更有效的疾病管理和治療效果優化。此外,ChatGPT還有助于提高患者的健康意識。由于健康教育資源的普及程度不足,許多患者通過搜索引擎尋找醫療建議,可能會閱讀到不恰當的內容,從而導致錯誤的自我診斷。ChatGPT能夠作為一個寶貴的教育資源,為患者提供清晰、易于獲取的信息,幫助他們理解自己的病情,并回答患者的疑問,使患者能夠積極參與治療過程。同時,ChatGPT的回答可以根據患者的教育水平進行調整,提供個性化的信息[12-13]。
2.6 醫學教育
ChatGPT在醫學教育領域具有廣泛的應用潛力。其作為搜索引擎和參考資源,允許對同一個疑問提出無限的后續和澄清問題,這不僅加速了對知識的獲取,而且可以深化學習者對復雜醫學知識的理解[14]。并且ChatGPT可以通過引用醫學文獻和資源,為學習者提供學習材料的直接鏈接或摘要,通過與ChatGPT的互動,醫生和其他衛生專業人員能夠及時了解最新的醫學研究、臨床指南和治療方法,從而促進其學習和專業發展[15]。ChatGPT的另一關鍵優勢在于提供個性化的學習體驗,通過調整教學內容和難度,適應不同學習者的需求。這種個性化的學習方法不僅提高了學習效率,還確保每位學生都能從互動中獲得最大的學習效益。在教學方面,教育者可利用ChatGPT構建復雜的臨床案例,供學生分析。學生可以通過向ChatGPT提問,探索不同的診斷路徑和治療選擇,這不僅提升了他們的臨床推理能力,也提供了練習處理醫療問題的安全環境[16-17]。
2.7 臨床研究和科研寫作
ChatGPT的應用在科學研究領域引起了極大的興趣,特別是在醫學論文撰寫過程中展現出顯著的效用。其作為一種高效的文獻檢索工具,通過直接回應查詢而不只是鏈接到相關網站,顯著縮短研究人員文獻篩選時間,使研究者可以更專注于研究工作及方法學的開發。ChatGPT在協助撰寫初稿方面同樣表現出色,對于那些非英語母語的研究者以及對語法細節不那么敏感的作者來說,其價值尤為突出[18]。此外,ChatGPT在研究設計、表格創建和數據分析等方面也發揮重要作用,對于大多數研究人員而言,數據分析和掌握統計軟件的編程語言(如Stata、R、SAS或Python)往往具有挑戰。在這方面,ChatGPT能夠根據具體問題提供代碼解決方案,并在此過程中對提供的代碼進行解釋,對代碼中的語法錯誤進行優化。然而,ChatGPT的應用也存在一些挑戰。例如,有時可能需要經過多輪反饋和請求迭代才能生成正確的代碼[19-20],并隨著其更多地應用于科學寫作,倫理問題也受到更多的關注。因此,盡管ChatGPT功能強大,但不能完全取代醫學專業人員的專業判斷和創新能力。研究人員使用ChatGPT時,應確保研究成果的準確性和有效性,并遵守科學倫理和學術誠信標準[21]。
3 局限性
3.1 回答不準確
在醫學領域,信息準確性至關重要,因為錯誤的信息可能引發嚴重的后果。由于ChatGPT的訓練數據范圍廣泛且復雜,包括從科學文獻到在線論壇等各種來源,其生成的信息可能并非總是準確。此外,鑒于醫學研究和治療方法的不斷發展,ChatGPT可能無法實時反映最新的研究成果或臨床指南。因此,醫療人員和研究者在使用ChatGPT提供的信息時,應進行獨立驗證以確保信息符合當前的醫學標準。AI模型的性能依賴于大規模的樣本訓練[22]。然而,由于不同醫療機構的數據標準和結構存在差異,數據質量參差不齊,加上醫療數據中的敏感信息保護、法律法規約束等因素,導致醫療數據整合困難[23],使得ChatGPT的性能受限制,意味著其輸出在某些情況下可能不夠準確,從而引發醫療事故和法律問題[24]。
3.2 專業知識的限制
雖然ChatGPT在處理語言信息方面展現出顯著的能力,但其在醫學領域的應用面臨著專業知識和理解方面的限制。ChatGPT在自動生成信息時可能會產生醫療誤導,因為解決醫療問題要求從業者不僅具備深厚的理論知識,還需要具備臨床經驗和實踐智慧。然而,ChatGPT基于預先輸入的數據進行學習和響應,其本身并非專門為醫學領域設計,因此缺乏對疾病和治療機制等相關醫學知識的深度理解和臨床判斷力。這意味著在處理復雜的醫學概念、掌握最新研究成果或提供個性化患者護理方案時,ChatGPT的準確性可能不足[25-26]。因此,醫療專業人員在使用ChatGPT時應保持謹慎,不能完全依賴其提供的信息,而應結合自己的專業知識和經驗做出判斷。盡管生成式AI能夠提升醫生的工作效率和質量,但是,如何有效地將其整合進醫生的工作流程仍是一個挑戰。成功案例相對匱乏,許多AI模型仍處于試驗階段[27]。在醫療實踐中,決策通常需要考慮患者個體差異、病情復雜性及實際可行性等因素,ChatGPT在評估實際需求和可行性方面可能會遇到挑戰。
3.3 學術誠信和剽竊問題
使用ChatGPT等大語言模型在學術和研究領域中可能導致學術誠信和剽竊問題。由于ChatGPT能夠快速生成復雜的文本,雖然這一類文本可以通過虛構的引用來鑒別,但是,仍然有人擔心學生和研究人員可能會將ChatGPT生成的內容冒充為自己的工作,這不僅違反了學術誠信原則,還可能導致研究成果的可信度受損。應該強調的是,當前的大語言模型如ChatGPT尚未達到能完全替代人類作者的水平,特別是在需要深層理解和專業知識的醫學領域。因此,使用這些大語言模型時,必須認識到它們的局限性,并采取措施確保文本的準確性和可靠性[28]。在醫學研究中,原創性和確證性至關重要,任何剽竊行為都可能對研究結果和患者護理產生負面影響。因此,學術界需要制定明確的指導原則,監督和管理像ChatGPT這樣的AI工具在學術寫作中的應用,確保所有發布的研究成果均為原創且可信[29]。
3.4 倫理和責任問題
在醫學領域使用ChatGPT會引發倫理和責任方面的問題。作為一種AI工具,ChatGPT缺乏對其產生內容的責任感或倫理判斷能力。在醫學研究和實踐中,使用AI生成的內容可能引發關于作者身份和內容責任的爭議,尤其是在涉及患者護理和治療決策時,因為大語言模型被認為是“黑箱”模型,其結果生成的邏輯和基礎難以解釋,一旦發生必須追責。“黑箱問題”會導致無法找出錯誤預測或建議來源,從而引發責任和追溯性問題。當模型產生錯誤建議或決策時,如何確定責任和進行糾正是尚待解決的問題[30]。醫療機構和開發者應監測模型性能和安全性,并及時糾正和更新模型,以減少潛在風險和倫理問題。目前,關于AI在醫療領域應用所引發的倫理問題缺乏行業性的指導原則。此外,使用AI工具時,保障患者隱私和數據安全也至關重要,醫療數據包含大量敏感信息,一旦泄露會給患者精神和心理等造成極大損害。患者知情同意同樣值得關注,醫療機構有可能在未獲得患者知情同意的情況下將患者數據大規模用于AI模型訓練。因此在醫療機構層面,醫學專業人員和研究者在使用ChatGPT時必須充分意識到這些倫理和責任問題,確保在醫學實踐中維護高標準的道德和法律規范,以最大程度地保護患者權益和確保研究的可信性。
3.5 濫用和操縱的風險
隨著ChatGPT這類先進的生成式AI技術的發展,我們不應忽視其被濫用和操縱的潛在風險。在某些情況下,ChatGPT的建議可能會被誤解或錯誤地應用于醫學情境之外,對患者健康構成嚴重威脅[31]。此外,醫療專業人員在臨床實踐中對ChatGPT的過度依賴,可能導致其臨床技能退化。ChatGPT應被視為一種補充資源,而非絕對依賴的對象。我們應該批判性地驗證其生成的內容,并考慮其中的道德因素。然而,像其他技術一樣,高收入國家和特權學者可能會利用這些大語言模型來推進他們的研究,從而加劇不平等。研究應包含來自代表性不足和受研究影響群體的聲音[32-34]。在實際應用中,醫療專業人員需要對這些潛在風險有充分認識,并采取適當措施以確保ChatGPT安全、負責任和符合倫理地使用。通過持續監管、倫理審查和教育培訓,可以最大限度地發揮ChatGPT在醫療領域的積極作用,最小化其潛在的負面影響。
4 小結
ChatGPT是一種先進的大語言模型,在醫療保健領域具有眾多優勢和應用。其可以幫助醫療專業人員完成各種任務,如電子病歷錄入、醫學研究、輔助診斷、患者監護和醫學教育。然而,ChatGPT的使用也存在一些倫理考慮和限制,例如可信度、剽竊、侵犯版權和濫用等問題。因此,在使用ChatGPT之前,需要徹底評估和解決潛在的限制和倫理因素。未來的研究可以集中在開發方法來突破這些限制,同時進一步發揮ChatGPT在醫療保健領域的優勢。
利益沖突:無。
作者貢獻:潘高澗負責選題與研究設計,撰寫論文;葉冠志、方韶韓負責文獻篩選;朱曉雷、劉鴻鳴、李寧負責撰寫和修改論文;耿國軍、姜杰設計主題和審校文章。
隨著人工智能(artificial intelligence,AI)技術快速發展,其在醫療領域的應用逐漸成為焦點,特別是生成式AI,即一類通過學習大量數據來創建或生成新內容的AI技術。通過分析和處理大量的醫療數據,能夠輔助醫生進行更準確診斷,提高醫療服務效率和質量,在醫學教育、診斷輔助以及患者交流等領域顯示出廣泛的應用前景[1]。然而,生成式AI在臨床應用中的深入推廣也引發了倫理、法律和社會影響方面的問題,如數據隱私保護、算法透明度和責任歸屬等。此外,技術局限性和潛在偏見問題也引起公眾對其在醫療決策中角色的擔憂。本文旨在全面探討生成式AI,特別是ChatGPT及相關技術在醫療領域的應用現狀和發展趨勢,并分析其面臨的倫理、法律和社會問題。通過全面審視這些技術的潛力與挑戰,為技術進步、政策制定和倫理討論提供有益的參考和指導,并強調科技為醫療領域帶來便利和進步的同時,我們也應充分認識到并慎重對待其帶來的挑戰和風險。
1 ChatGPT
大語言模型在AI領域中代表了一項重要的技術突破,通過模仿人類的語言學習能力,從而理解和生成文本。這些模型基于深度學習和神經網絡來分析大量的文本資料,如書籍、文章和網站內容等,實現對語言的深刻理解[2]。其中,深度學習(deep learning,DL)是一種使計算機模仿人腦處理信息的方法,而神經網絡則是深度學習中用于數據處理和模式識別的算法,類似于人腦中的神經元網絡。這些技術使得計算機能夠通過大規模數據訓練,預測和生成連貫、逼真的文本[3]。ChatGPT自OpenAI于2022年發布以來,在多個領域包括醫學和學術研究中,引起了廣泛關注。基于生成預訓練架構(generative pre-trained transformer,GPT)開發的最新版本GPT-4,通過大量的互聯網文本訓練,具備理解和生成人類式文本的能力,執行自然語言處理任務,如文本生成、語言翻譯、摘要、情感分析、實體識別和問題回答等[4]。在醫療衛生領域,ChatGPT已展現出廣泛的應用潛力,包括電子病歷整理、臨床決策支持、數據分析和科研論文撰寫等。其對醫療報告、診斷和治療計劃的改進,為醫療實踐和患者體驗帶來了顯著增益。然而,在廣泛應用于研究和臨床之前,需要進一步提高其準確性和原創性,并解決存在的偏見和濫用風險,同時應對學術誠信、隱私和倫理挑戰。
2 ChatGPT在臨床實踐中的應用
2.1 臨床病史采集
ChatGPT在醫療領域的應用展示了顯著優勢,其不僅能夠理解人類語言,還能生成接近自然對話的文本。在臨床問診上,患者的自述往往包含復雜的醫學術語和非結構化信息,而ChatGPT能夠有效提取并分析這些信息,協助醫生更深入了解患者的病情和需求。通過模擬對話的形式,ChatGPT可以與患者互動,詢問相關癥狀、疾病發展歷程、既往病史等,從而提取出患者描述中的關鍵信息,轉化為醫療人員可用的關鍵信息。這種互動方式不僅豐富了患者問診的維度,還能為后續病歷書寫奠定基礎,可以有效減輕醫療人員的工作負擔,并通過確保在初步評估階段不遺漏任何關鍵信息,提高患者護理的整體質量[5-6]。然而,由于ChatGPT缺乏實際的臨床經驗和醫學判斷能力,其問診結果及生成的臨床文本仍需由專業醫生進行最終的確認和解讀。
2.2 電子病歷書寫
處理電子健康記錄(electronic health records,EHR)中的醫療文檔是導致醫務工作者職業倦怠的關鍵因素。盡管這些文檔工作對于收集和傳遞護理決策信息、推動醫療服務改進至關重要,但它們繁復的性質給醫務人員帶來了極大壓力。采用生成式AI,如ChatGPT,可以通過生成標準化的模板并自動填入相關臨床信息來優化醫療記錄的工作流程,從而提升醫療文檔處理的效率。這不僅可以幫助緩解職業倦怠,也有助于保存珍貴的醫療保健人力資源[7]。展望未來,ChatGPT在自動化生成臨床文本方面的應用預示著可以減輕醫療人員的工作負擔,使他們能夠更加專注于對患者的實際護理。然而,將ChatGPT與EHR系統集成不僅需要確保醫療文件的精確性,還要做到嚴格保護患者隱私,防止對患者護理產生不利影響[8]。
2.3 臨床輔助決策
在醫療領域中,EHR和研究報告等文本數據蘊含著豐富的信息資源。ChatGPT借助其文本分析能力,可以有效地從這些數據中提取關鍵信息,進而輔助識別疾病模式、評估治療效果以及預測患病風險,這對于臨床輔助決策和個性化治療方案的制定具有重要意義。ChatGPT可以基于患者的癥狀和病史,生成全面的潛在診斷列表,并通過與龐大的醫學知識庫和指南進行對比,排除相關性較低的疾病,從而提供更準確的鑒別診斷[9]。此外,其通過結合年齡、性別、家族病史、生活方式及相關病史等多個與疾病診斷相關的風險因素,輔助風險分層和診斷決策。在整個過程中,ChatGPT通過收集和分析患者數據,以指導臨床醫生作出及時、準確的診斷。
2.4 優化門戶網站
隨著醫療保健行業的數字化,在線健康門戶網站已經成為患者獲取健康數據的主要渠道。這些門戶網站提供了包括預約掛號、查看個人健康記錄、向醫療人員咨詢信息等一系列功能。其中,與醫療人員交流是患者門戶網站中既實用又繁瑣的功能之一。通過對一家醫療機構進行隨訪評估,在6個月內,有近萬條消息被發送給外科醫生,其中大部分涉及醫療決策[10]。盡管健康門戶網站提供了豐富的醫療服務,但所有與醫療人員的消息交流并未得到充分的回應。
將ChatGPT整合到這些平臺中,可能會改變患者與其醫療信息的交互方式。ChatGPT能幫助患者瀏覽其健康記錄、解釋檢驗結果或理解他們的診斷。這不僅使患者更好地掌控自己的健康狀況,還增進了對醫療保健的理解。此外,ChatGPT能夠更加有效地處理和回復患者消息。最近的研究[11]表明,ChatGPT生成的在線健康咨詢回答質量更高,更具同情心。
2.5 患者健康管理
患者健康管理虛擬助手是ChatGPT的一個重要應用方向。首先,ChatGPT在幫助患者有效管理藥物治療方面發揮關鍵作用。其所提供的用藥提醒、劑量指導及潛在副作用和藥物相互作用的信息至關重要。其次,ChatGPT通過分析患者數據并提出個性化治療建議來促進更有效的疾病管理和治療效果優化。此外,ChatGPT還有助于提高患者的健康意識。由于健康教育資源的普及程度不足,許多患者通過搜索引擎尋找醫療建議,可能會閱讀到不恰當的內容,從而導致錯誤的自我診斷。ChatGPT能夠作為一個寶貴的教育資源,為患者提供清晰、易于獲取的信息,幫助他們理解自己的病情,并回答患者的疑問,使患者能夠積極參與治療過程。同時,ChatGPT的回答可以根據患者的教育水平進行調整,提供個性化的信息[12-13]。
2.6 醫學教育
ChatGPT在醫學教育領域具有廣泛的應用潛力。其作為搜索引擎和參考資源,允許對同一個疑問提出無限的后續和澄清問題,這不僅加速了對知識的獲取,而且可以深化學習者對復雜醫學知識的理解[14]。并且ChatGPT可以通過引用醫學文獻和資源,為學習者提供學習材料的直接鏈接或摘要,通過與ChatGPT的互動,醫生和其他衛生專業人員能夠及時了解最新的醫學研究、臨床指南和治療方法,從而促進其學習和專業發展[15]。ChatGPT的另一關鍵優勢在于提供個性化的學習體驗,通過調整教學內容和難度,適應不同學習者的需求。這種個性化的學習方法不僅提高了學習效率,還確保每位學生都能從互動中獲得最大的學習效益。在教學方面,教育者可利用ChatGPT構建復雜的臨床案例,供學生分析。學生可以通過向ChatGPT提問,探索不同的診斷路徑和治療選擇,這不僅提升了他們的臨床推理能力,也提供了練習處理醫療問題的安全環境[16-17]。
2.7 臨床研究和科研寫作
ChatGPT的應用在科學研究領域引起了極大的興趣,特別是在醫學論文撰寫過程中展現出顯著的效用。其作為一種高效的文獻檢索工具,通過直接回應查詢而不只是鏈接到相關網站,顯著縮短研究人員文獻篩選時間,使研究者可以更專注于研究工作及方法學的開發。ChatGPT在協助撰寫初稿方面同樣表現出色,對于那些非英語母語的研究者以及對語法細節不那么敏感的作者來說,其價值尤為突出[18]。此外,ChatGPT在研究設計、表格創建和數據分析等方面也發揮重要作用,對于大多數研究人員而言,數據分析和掌握統計軟件的編程語言(如Stata、R、SAS或Python)往往具有挑戰。在這方面,ChatGPT能夠根據具體問題提供代碼解決方案,并在此過程中對提供的代碼進行解釋,對代碼中的語法錯誤進行優化。然而,ChatGPT的應用也存在一些挑戰。例如,有時可能需要經過多輪反饋和請求迭代才能生成正確的代碼[19-20],并隨著其更多地應用于科學寫作,倫理問題也受到更多的關注。因此,盡管ChatGPT功能強大,但不能完全取代醫學專業人員的專業判斷和創新能力。研究人員使用ChatGPT時,應確保研究成果的準確性和有效性,并遵守科學倫理和學術誠信標準[21]。
3 局限性
3.1 回答不準確
在醫學領域,信息準確性至關重要,因為錯誤的信息可能引發嚴重的后果。由于ChatGPT的訓練數據范圍廣泛且復雜,包括從科學文獻到在線論壇等各種來源,其生成的信息可能并非總是準確。此外,鑒于醫學研究和治療方法的不斷發展,ChatGPT可能無法實時反映最新的研究成果或臨床指南。因此,醫療人員和研究者在使用ChatGPT提供的信息時,應進行獨立驗證以確保信息符合當前的醫學標準。AI模型的性能依賴于大規模的樣本訓練[22]。然而,由于不同醫療機構的數據標準和結構存在差異,數據質量參差不齊,加上醫療數據中的敏感信息保護、法律法規約束等因素,導致醫療數據整合困難[23],使得ChatGPT的性能受限制,意味著其輸出在某些情況下可能不夠準確,從而引發醫療事故和法律問題[24]。
3.2 專業知識的限制
雖然ChatGPT在處理語言信息方面展現出顯著的能力,但其在醫學領域的應用面臨著專業知識和理解方面的限制。ChatGPT在自動生成信息時可能會產生醫療誤導,因為解決醫療問題要求從業者不僅具備深厚的理論知識,還需要具備臨床經驗和實踐智慧。然而,ChatGPT基于預先輸入的數據進行學習和響應,其本身并非專門為醫學領域設計,因此缺乏對疾病和治療機制等相關醫學知識的深度理解和臨床判斷力。這意味著在處理復雜的醫學概念、掌握最新研究成果或提供個性化患者護理方案時,ChatGPT的準確性可能不足[25-26]。因此,醫療專業人員在使用ChatGPT時應保持謹慎,不能完全依賴其提供的信息,而應結合自己的專業知識和經驗做出判斷。盡管生成式AI能夠提升醫生的工作效率和質量,但是,如何有效地將其整合進醫生的工作流程仍是一個挑戰。成功案例相對匱乏,許多AI模型仍處于試驗階段[27]。在醫療實踐中,決策通常需要考慮患者個體差異、病情復雜性及實際可行性等因素,ChatGPT在評估實際需求和可行性方面可能會遇到挑戰。
3.3 學術誠信和剽竊問題
使用ChatGPT等大語言模型在學術和研究領域中可能導致學術誠信和剽竊問題。由于ChatGPT能夠快速生成復雜的文本,雖然這一類文本可以通過虛構的引用來鑒別,但是,仍然有人擔心學生和研究人員可能會將ChatGPT生成的內容冒充為自己的工作,這不僅違反了學術誠信原則,還可能導致研究成果的可信度受損。應該強調的是,當前的大語言模型如ChatGPT尚未達到能完全替代人類作者的水平,特別是在需要深層理解和專業知識的醫學領域。因此,使用這些大語言模型時,必須認識到它們的局限性,并采取措施確保文本的準確性和可靠性[28]。在醫學研究中,原創性和確證性至關重要,任何剽竊行為都可能對研究結果和患者護理產生負面影響。因此,學術界需要制定明確的指導原則,監督和管理像ChatGPT這樣的AI工具在學術寫作中的應用,確保所有發布的研究成果均為原創且可信[29]。
3.4 倫理和責任問題
在醫學領域使用ChatGPT會引發倫理和責任方面的問題。作為一種AI工具,ChatGPT缺乏對其產生內容的責任感或倫理判斷能力。在醫學研究和實踐中,使用AI生成的內容可能引發關于作者身份和內容責任的爭議,尤其是在涉及患者護理和治療決策時,因為大語言模型被認為是“黑箱”模型,其結果生成的邏輯和基礎難以解釋,一旦發生必須追責。“黑箱問題”會導致無法找出錯誤預測或建議來源,從而引發責任和追溯性問題。當模型產生錯誤建議或決策時,如何確定責任和進行糾正是尚待解決的問題[30]。醫療機構和開發者應監測模型性能和安全性,并及時糾正和更新模型,以減少潛在風險和倫理問題。目前,關于AI在醫療領域應用所引發的倫理問題缺乏行業性的指導原則。此外,使用AI工具時,保障患者隱私和數據安全也至關重要,醫療數據包含大量敏感信息,一旦泄露會給患者精神和心理等造成極大損害。患者知情同意同樣值得關注,醫療機構有可能在未獲得患者知情同意的情況下將患者數據大規模用于AI模型訓練。因此在醫療機構層面,醫學專業人員和研究者在使用ChatGPT時必須充分意識到這些倫理和責任問題,確保在醫學實踐中維護高標準的道德和法律規范,以最大程度地保護患者權益和確保研究的可信性。
3.5 濫用和操縱的風險
隨著ChatGPT這類先進的生成式AI技術的發展,我們不應忽視其被濫用和操縱的潛在風險。在某些情況下,ChatGPT的建議可能會被誤解或錯誤地應用于醫學情境之外,對患者健康構成嚴重威脅[31]。此外,醫療專業人員在臨床實踐中對ChatGPT的過度依賴,可能導致其臨床技能退化。ChatGPT應被視為一種補充資源,而非絕對依賴的對象。我們應該批判性地驗證其生成的內容,并考慮其中的道德因素。然而,像其他技術一樣,高收入國家和特權學者可能會利用這些大語言模型來推進他們的研究,從而加劇不平等。研究應包含來自代表性不足和受研究影響群體的聲音[32-34]。在實際應用中,醫療專業人員需要對這些潛在風險有充分認識,并采取適當措施以確保ChatGPT安全、負責任和符合倫理地使用。通過持續監管、倫理審查和教育培訓,可以最大限度地發揮ChatGPT在醫療領域的積極作用,最小化其潛在的負面影響。
4 小結
ChatGPT是一種先進的大語言模型,在醫療保健領域具有眾多優勢和應用。其可以幫助醫療專業人員完成各種任務,如電子病歷錄入、醫學研究、輔助診斷、患者監護和醫學教育。然而,ChatGPT的使用也存在一些倫理考慮和限制,例如可信度、剽竊、侵犯版權和濫用等問題。因此,在使用ChatGPT之前,需要徹底評估和解決潛在的限制和倫理因素。未來的研究可以集中在開發方法來突破這些限制,同時進一步發揮ChatGPT在醫療保健領域的優勢。
利益沖突:無。
作者貢獻:潘高澗負責選題與研究設計,撰寫論文;葉冠志、方韶韓負責文獻篩選;朱曉雷、劉鴻鳴、李寧負責撰寫和修改論文;耿國軍、姜杰設計主題和審校文章。