|
重磅干貨,第一時間送達 摘要 與計算機視覺中的其他應用一樣,醫(yī)學圖像分割最成功的解決方法是使用深度學習模型,該模型依賴于卷積操作作為其主要構(gòu)建模塊。卷積具有一些重要的特性,比如稀疏交互、權(quán)值共享和平移均衡性。這些特性使卷積神經(jīng)網(wǎng)絡(CNNs)在視覺任務中具有強大而有用的誘導偏差。在這項工作中,作者證明了完全基于相鄰圖像塊之間的自我注意,而不需要任何卷積操作的不同方法可以獲得競爭或更好的結(jié)果。給定一個3D圖像塊,作者的網(wǎng)絡將其分成n 3個3D patch,其中n = 3或5,計算每個patch的1D嵌入量。該網(wǎng)絡根據(jù)各patch嵌入之間的自我注意度預測塊中心patch的分割圖。作者表明,在三個數(shù)據(jù)集上,所提出的模型可以達到比最先進的cnn更好的分割精度。作者還提出了在未標記圖像的大型語料庫上對該模型進行預訓練的方法。作者的實驗表明,在預先訓練的情況下,當標記的訓練數(shù)據(jù)很小時,作者提出的網(wǎng)絡相對于cnn的優(yōu)勢是顯著的。 本研究的目的是探討基于自我注意的深度神經(jīng)網(wǎng)絡在三維醫(yī)學圖像分割中的潛力。作者提出了一種基于三維圖像塊線性嵌入之間的自我注意的網(wǎng)絡結(jié)構(gòu),不需要任何卷積操作。作者在三個醫(yī)學圖像分割數(shù)據(jù)集上訓練網(wǎng)絡,并將其性能與最先進的CNN進行比較。本工作的貢獻如下:
框架結(jié)構(gòu) 提出的一種用于三維醫(yī)學圖像分割的無卷積網(wǎng)絡 實驗結(jié)果 所提出的網(wǎng)絡和最先進的CNN預測的樣本分割 用該方法和UNet++預測的樣本分割
卷積運算在哺乳動物初級視覺皮層的結(jié)構(gòu)中有很強的基礎(chǔ),適合于開發(fā)強大的圖像建模和圖像理解技術(shù)。近年來,cnn已被證明在解決各種計算機視覺問題方面非常有效。然而,沒有理由相信沒有其他模型能在特定的視覺任務上勝過cnn。特別是醫(yī)學圖像分析應用,帶來了特定的挑戰(zhàn),如圖像的3D性質(zhì)和少量的標記圖像。在這樣的應用中,其他模型可能比cnn更有效。本文提出了一種新的三維醫(yī)學圖像分割模型。與最近所有使用卷積作為主要構(gòu)建塊的模型不同,作者的模型是基于相鄰3D補丁之間的自我注意。作者的結(jié)果表明,在三個醫(yī)學圖像分割數(shù)據(jù)集上,所提出的網(wǎng)絡可以優(yōu)于最先進的CNN。通過對未標記圖像進行去噪和繪畫任務的預訓練,作者的網(wǎng)絡在只有5-15個標記的訓練圖像可用時也比CNN表現(xiàn)更好。作者期望本文提出的網(wǎng)絡能夠有效地用于醫(yī)學圖像分析的其他任務,如異常檢測和分類。 每日堅持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學。 - END - ![]() #投 稿 通 道# 讓你的論文被更多人看到 如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認識的人。 總有一些你不認識的人,知道你想知道的東西。深度學習愛好者 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。 深度學習愛好者 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學習心得或技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。 ?? 來稿標準: · 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向) · 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接 · 深度學習愛好者 默認每篇文章都是首發(fā),均會添加“原創(chuàng)”標志 |
|
|