DoNews6月14日消息,微軟研究人員日前展示了 LLaVA-Med 模型,該模型主要用于生物醫(yī)學(xué)方面的研究,可根據(jù) CT、X 光圖片等推測出患者的病理狀況。
據(jù)悉,微軟研究人員與一批醫(yī)院合作,獲得了使用生物醫(yī)學(xué)圖像文本對應(yīng)大型數(shù)據(jù)集來訓(xùn)練多模態(tài) AI 模型。該數(shù)據(jù)集包括胸部 X 光、MRI、組織學(xué)、病理學(xué)和 CT 圖像等,覆蓋范圍相對全面。
微軟使用 GPT-4,基于 Vision Transformer 和 Vicuna 語言模型,在八個英偉達(dá) A100 GPU 上對 LLaVA-Med 進(jìn)行訓(xùn)練,其中包含“每個圖像的所有預(yù)分析信息”,用于生成有關(guān)圖像的問答,以滿足“可自然語言回答有關(guān)生物醫(yī)學(xué)圖像問題”的助手愿景。
在學(xué)習(xí)過程中,模型主要圍繞“描述此類圖像的內(nèi)容”以及“闡述生物醫(yī)學(xué)概念”而展開。據(jù)微軟稱,該模型最終具有“出色的多模式對話能力”、“在用于回答視覺問題的三個標(biāo)準(zhǔn)生物醫(yī)學(xué)數(shù)據(jù)集上,LLaVA-Med 在部分指標(biāo)上領(lǐng)先于業(yè)界其他先進(jìn)模型”。
目前該模型已經(jīng)開源。