健康保衞戰:深度學習在使用胸部X光照片預測疾病上的應用

雷鋒網 於 12/05/2016 發表 收藏文章
想用智能算法分析一張胸腔的X光片嗎?美國的一羣研究者們最近在這方面做出了一個相當有益的探索,可能對未來的應用和普及起到非常大的幫助。

貝塞斯達(美國馬里蘭州中部城市)國立衞生研究院的研究者們開發出了一套基於深度學習的用來從胸腔X光照片中檢測疾病的算法框架。檢測完成後這套系統會在X光照片下附上詳細的説明,以便醫生向病人展示,以及更早的檢測出那些危險的疾病。

研究小組使用了NVIDIA的CUDA(統一計算設備架構)程序設計模型,並且是使用GPU來運行和提升他們的算法的,這些設備能幫助算法來定位疾病並且描述它當前的如位置、嚴重性、病灶大小和影響的器官等狀態。之所以使用GPU來進行計算,是因為GPU的運作原理非常符合深度學習程序所需要的特點:執行命令很有效率,並且能承擔巨量的並行計算,這使得程序可以同時開始大量的分析進程,加快學習的速度。

讓深度學習學會識別醫療圖片信息

圖像信息識別在深度學習方法得到進步後已經取得了巨大的進展。但是目前的大多數程序都是在利用公開可用的圖像來訓練那些可以給“自然”的圖片做上標註的神經網絡,比如説像寵物、自然景觀或者城市地標這樣的圖片——但沒有用醫療圖片的。

因為相比較起來,帶有詳細標註的醫療圖片構成的數據庫是很難得到的,而公開徵集X光片信息顯然也不可能。而一般人可以很明顯的從圖片中標記出樹、動物和建築這樣的信息。但識別出像心臟肥大症或者鈣化肉芽腫這樣的心肺疾病是需要專業知識的。

深度學習的基本應用結構

NIH研究者們開發的系統使用了一套結合了卷積神經網絡(CNNs)和時間遞歸神經網絡(RNNs)的組合來幫助整個系統識別並註釋X光照片代表的疾病/健康信息。首先是卷積神經網絡,由於其對大型圖像處理有着出色表現,所以研究者們使用它來初步判斷照片的信息。研究者們使用了一份公開的,包含了一萬份左右X光照片和報告的數據庫。從中提取出了17種大量出現的醫學名詞組合(也就是常出現的疾病)。試圖找出這些詞語與圖片之間的聯繫,以便CNNs在掃描圖像後能進行準確的歸類。

在進行分類後,時間遞歸神經網絡會接手,通過特定的算法為圖像加上標籤。這可能是時間遞歸神經網絡第一次被應用於檢測X光照片。

這幅圖是算法應用的幾個案例,其中綠色框內展現的是算法判斷的健康狀況,而黃色框內是真正的狀況,很顯然,越稀有的疾病由於用於學習的數據不足,會越難以判斷出來,圖片來源,NIH paper/NVIDIA's blog

這兩個用NVIDIA的cuDNN庫(NVIDIA開發的一個用於深度神經網絡的GPU加速庫)和火炬深度學習框架編寫出來的神經網絡程序產生了更豐富、更準確的圖像標註結果。

研究團隊開發的程序現在需要更進一步的訓練和更高的預測準確率,這樣醫院和診所才會被説服來採用它們。不過一旦這種自動註釋系統開始上線運行,醫生們的負擔不僅能夠得到有效的降低,還能任意搜索某種特定疾病的全部電子版X光照片了。

這套系統甚至可以幫助醫療資源有限的國家診斷大量患者的疾病或健康狀況,減輕他們的負擔。

via NVIDIA官方博客


資料來源:雷鋒網
作者/編輯:黃鑫

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→