Blog

Google醫生?AI可能是口袋裡的醫生,但該公司的衛生官員仍對其極限提出警告。

Blog Image
Google醫生?AI可能是口袋裡的醫生,但該公司的衛生官員仍對其極限提出警告。

July 24, 2023

卡倫·德薩爾沃博士對人工智慧的到來感到興奮,但警告說它有其局限性,並且只能成為醫療專業人士的“工具箱”中的一種工具。

人工智慧進入醫療保健,意味著每個人可能都會有一個口袋裡的醫生,但是Google的首席健康官員對AI可以做什麼,以及其應有的限制提出警告。

“人們將有機會更好地獲得服務,並且獲得高品質的服務。”卡倫·德薩爾沃博士上週在接受《衛報》澳大利亞版訪問時說。



“但我們要到那裡還有一段路要走。我們有很多事情需要解決,以確保這些模型適當地受到限制,確保他們是事實且一致的,並且確保他們遵循我們想要採取的這些道德和平等的方法 - 但是我對潛力感到非常興奮,即使作為一位醫生。”

身為奧巴馬政府的前衛生官員的德薩爾沃,自2021年以來一直領導Google的健康部門,並在上週首次以此角色訪問澳大利亞。她說,AI將是醫生的“工具箱”中的一種工具,可以幫助支援人力短缺問題,並提高人們獲得的護理品質。她補充說,它將填補空缺,而不是取代醫生。

“有時候作為一個醫生,我必須說:'哦,我的天,我的工具箱裡有這個新的聽診器叫做大型語言模型,它將做很多驚人的事情。'但它不會取代醫生 - 我相信它是工具箱中的一種工具。”

上週,《Nature》雜誌發表的一項Google研究報告分析了大型語言模型(LLMs)如何回答醫學問題,研究中包括了它自己的Med-PaLM LLM。

LLMs被提供了網上搜尋的最常見的3173個醫學問題,結果顯示,Med-PaLM系統生成的答案與醫生的答案在92.9%的時間內處於同等水平。被評為可能導致有害結果的答案的發生率為5.8%。作者說進一步的評估是必要的。

德薩爾沃說,它仍然處於“測試和學習階段”,但是LLM可能成為醫生的最好的實習生,將世界上的每一本教科書放在他們的指尖上。

“我認為,這裡有潛力,我們在考慮潛在的使用方式時應該大膽,以幫助世界各地的人。”

但是,她說,它絕不應該在診斷和治療病人中取代人類,並指出,會有對可能出現誤診的潛在疾病的擔憂,早期的LLM容易產生所謂的“AI幻覺”,創造源材料以適應所需的反應。

“我們在Google真正關注的一件事是調整模型和限制模型的方式,使其傾向於事實。”她說。“無論是對醫生還是對病人,你都不想要一首關於你化療的十四行詩,你會想知道的是文獻說了什麼,而且是正確的嗎?”

德薩爾沃說,最終的目標是解決醫療行業與公眾之間的資訊不平衡,並將盡可能多的權力交給患者。

“資訊是健康的決定因素。這從人們理解和了解潛在病況開始……我們希望確保人們擁有這樣的知識和權力。”她說。

“當我在實習時,我喜歡當患者帶著打印的單子或一本有所有他們的葡萄糖的筆記本出現在我面前,我們可以有一個真正的對話。”


新聞原址: Dr Google? AI could be doctor in the pocket, but company’s health officer urges caution about its limits | Google | The Guardian