U-Net網絡在醫學圖像分割任務中取得了很好的成績。近年來,眾多學者針對U-Net結構不斷地進行研究和擴展,比如編、解碼器的改進和跳躍連接的改進。本文針對基于U-Net網絡結構改進的醫學圖像分割技術從以下角度進行總結:首先,闡述U-Net網絡在醫學圖像分割領域中的應用;然后,總結U-Net的七大改進機制:密集連接機制、殘差連接機制、多尺度機制、集成機制、膨脹機制、注意力機制以及Transformer機制;最后,探討U-Net結構改進的思路和方法,為相關研究提供參考,對U-Net的進一步發展具有一定的積極意義。
乳腺腫瘤的精準分割是病變判定的重要前提,現有的分割方法存在參數量大、推理速度慢、內存資源消耗大等問題。針對上述問題,本文在Attention U-Net的基礎上提出一種融合雙路徑聯合蒸餾的乳腺癌超聲影像輕量化語義分割模型T2KD Attention U-Net。首先,根據良惡性乳腺病灶不同的特征表示和上下文語義信息設計兩個教師模型來學習每一類圖像的細粒度特征;其次,采用聯合蒸餾的方法訓練輕量化的學生模型;最后,構造權重損失均衡函數來聚焦小目標的語義特征表示,解決數據前景和背景像素不平衡問題。該模型在Dataset BUSI和Dataset B兩個數據集上取得了良好的性能,Dataset BUSI上的準確率、召回率、精確度、Dice系數和mIoU分別為95.26%、86.23%、85.09%、83.59%和77.78%;在Dataset B上分別為97.95%、92.80%、88.33%、88.40%和82.42%,模型的整體性能有顯著提升。相比教師模型,學生模型參數量、模型大小和計算復雜度顯著降低(2.2×106 vs. 106.1×106,8.4 MB vs. 414 MB,16.59 GFLOPs vs. 205.98 GFLOPs)。總體而言,該模型在保證精度的同時大幅降低了計算量,對臨床醫學場景的部署提供了新的思路。
目的 提出一種融合形狀和位置先驗的肺動脈分割方法,旨在解決CT影像下肺動脈與周圍組織相似性高、尺寸差異小所導致的分割不精確等問題。方法 基于三維U-Net網絡架構,依托PARSE 2022數據庫影像數據,引入形狀和位置先驗知識,設計特征提取和融合策略,以增強肺動脈分割能力。將患者數據分為3組:訓練集、驗證集和測試集。評估模型性能指標包括Dice相似系數(DSC)、靈敏度、精度和豪斯多夫距離(HD95)。結果研究共納入203例患者的肺動脈影像數據,包括訓練集100例、驗證集30例和測試集73例。通過主干網絡對肺動脈進行粗分割,獲得完整的血管結構;利用融合形狀和位置信息分支網絡提取肺內小動脈特征,減少肺動脈干和左右肺動脈的干擾。實驗結果表明,所構建的基于形狀和位置先驗的分割模型與傳統三維U-Net和V-Net方法相比,具有較高的DSC(82.81%±3.20% vs. 80.47%±3.17% vs. 80.36%±3.43%)、靈敏度(85.30%±8.04% vs. 80.95%±6.89% vs. 82.82%±7.29%)和精度(81.63%±7.53% vs. 81.19%±8.35% vs. 79.36%±8.98%)。HD95可達(9.52±4.29)mm,較傳統方法短6.05 mm,在分割邊界上具有優秀的表現。結論 基于形狀和位置先驗的肺動脈分割方法能夠實現肺動脈血管的精確分割,在構建支氣管鏡或經皮穿刺手術導航任務中具有潛在的應用價值。
皮膚是人體最大的器官,很多內臟疾病會直接體現在皮膚上,準確分割皮膚病灶圖像具有重要的臨床意義。針對皮膚病灶區域顏色復雜、邊界模糊、尺度信息參差不齊等特點,本文提出一種基于密集空洞空間金字塔池化(DenseASPP)和注意力機制的皮膚病灶圖像分割方法。該方法以U型網絡(U-Net)為基礎,首先重新設計新的編碼器,以大量殘差連接代替普通的卷積堆疊,在拓展網絡深度后還能有效保留關鍵特征;其次,將通道注意力與空間注意力融合并加入殘差連接,從而使網絡自適應地學習圖像的通道與空間特征;最后,引入并重新設計的DenseASPP以擴大感受野尺寸并獲取多尺度特征信息。本文所提算法在國際皮膚影像協會官方公開數據集(ISIC2016)中得到令人滿意的結果,平均交并比(mIOU)、敏感度(SE)、精確率(PC)、準確率(ACC)和戴斯相似性系數(Dice)分別為0.901 8、0.945 9、0.948 7、0.968 1、0.947 3。實驗結果證明,本文方法能夠提高皮膚病灶圖像分割效果,有望能為專業皮膚病醫生提供輔助診斷。
結合正電子發射斷層掃描(PET)和計算機斷層掃描(CT)的PET/CT成像技術是目前較先進的影像學檢查手段,主要用于腫瘤篩查、良惡性鑒別診斷和分期分級。本文提出了一種基于PET/CT雙模態圖像的乳腺癌病灶分割方法,設計了一種雙路U型網絡框架,主要包括編碼器模塊、特征融合模塊和解碼器模塊三個組成部分。其中,編碼器模塊使用傳統的卷積進行單模態圖像特征提取;特征融合模塊采用協同學習特征融合技術,并使用轉換器(Transformer)提取融合圖的全局特征;解碼器模塊主要采用多層感知機以實現病灶分割。本文實驗使用實際臨床PET/CT數據評估算法的有效性,實驗結果表明乳腺癌病灶分割的精確率、召回率和準確率分別達到95.67%、97.58%和96.16%,均優于基線算法。研究結果證明了本文實驗設計的卷積與Transformer相結合的單、雙模態特征提取方式的合理性,為多模態醫學圖像分割或分類等任務的特征提取方法提供參考。
針對醫學圖像分割中U型網絡(U-Net)及其變體下采樣過程中單尺度信息丟失、模型參數量較大的問題,本文提出了一種基于像素編碼和空間注意力的多尺度醫學圖像分割方法。首先,通過重新設計變換器(Transformer)結構輸入策略,提出了像素編碼模塊,使模型能夠從多尺度圖像特征中提取全局語義信息,獲取更豐富的特征信息,同時在Transformer模塊中引入可變形卷積,加快收斂速度的同時提升模塊性能。其次,引入空間注意力模塊并加入殘差連接,使模型能夠重點關注融合后特征圖的前景信息。最后,通過消融實驗實現網絡輕量化并提升分割精度,加快模型收斂。本文所提算法在國際計算機醫學圖像輔助協會官方公開多器官分割公共數據集——突觸(Synapse)數據庫中得到令人滿意的結果,戴斯相似性系數(DSC)和95%豪斯多夫距離系數(HD95)分別為77.65和18.34。實驗結果表明,本文算法能夠提高多器官分割結果,有望完善多尺度醫學圖像分割算法的空白,并為專業醫師提供輔助診斷。