根據昨日的一項同行評審研究,谷歌(Google)的人工智慧(AI)醫療聊天機器人在難度極高的美國USMLE執業醫師資格考試中及格,但其答案仍遠比不上人類醫師。
▲Google醫療AI機器人通過美國USMLE執業醫師資格考試。(示意圖/翻攝自Pixabay)
法新社報導,去年,Chat GPT由谷歌競爭對手Microsoft(微軟)資助的OpenAI開發上市,為科技巨頭在快速發展的人工智慧領域競爭拉開序幕。
儘管對於人工智慧未來的可能性和危險性已經引起廣泛討論,但在健康領域,這項技術已經展現了具體進展,包括能夠像人類一樣解讀某些醫學掃瞄。
去年12月,谷歌首次在學術著作預印本中,展示了回答醫學問題的人工智慧工具Med-PaLM。與Chat GPT不同,谷歌尚未公布於眾。
這家美國科技巨頭說,Med-PaLM是第一個通過美國醫師執照資格考試(USMLE)的大型語言模型,該模型的人工智慧技術透過大量人類生成的文本訓練。
這項考試的受試者為美國醫學生和受訓醫師,及格分數約為60分。
在二月,一項研究指出Chat GPT已經達到及格或接近及格的結果。
在昨天發表於自然雜誌(journal Nature)的同行評審研究中,谷歌研究人員表示,Med-PaLM在具有美國USMLE執業醫師資格考試風格的選擇題中取得67.6分。
該研究寫道:「Med-PaLM的表現令人鼓舞,但仍比臨床醫師差。」
為了辨識並減少「錯覺」(用於稱作AI模型提供錯誤資訊的情況),谷歌說已經開發一套新的評估指標。
谷歌研究人員及這份新研究報告的主要作者辛格霍(Karan Singhal)告訴法新社,團隊已使用這一套評估指標測試他們新版本的模型,並取得了「非常令人興奮的」結果。
一份發布於5月的學術著作預印本中的研究指出,Med-PaLM 2在美國USMLE執業醫師資格考試中取得86.5分,比前一個版本提高了近20%。
未參與研究的英國巴斯大學(University of Bath)電腦科學家達芬波特(James Davenport)說,這些人工智慧醫療聊天機器人正面臨一個棘手問題,「但人們故意視而不見」。
他表示,「醫學問題與實際醫學」間存有很大的差異,醫學實際上包含診斷和治療真正的健康問題。
英國里茲大學(Leeds University)人工智慧專家寇恩(Anthony Cohn)說:「錯覺大概會永遠是這些大型語言模型的問題,因為他們具有統計學上的本質。」
因此,寇恩指出:「這些模型應該始終被視為輔具,而非最終的決策者。」(中央社巴黎13日電)