<samp id="ffp3e"><ins id="ffp3e"><ruby id="ffp3e"></ruby></ins></samp>

<menuitem id="ffp3e"><strong id="ffp3e"></strong></menuitem>

    <tbody id="ffp3e"></tbody>

    <tbody id="ffp3e"><bdo id="ffp3e"></bdo></tbody>
    1. <menuitem id="ffp3e"></menuitem>
    2. <progress id="ffp3e"><bdo id="ffp3e"></bdo></progress>

      <tbody id="ffp3e"></tbody>

    3. <progress id="ffp3e"><bdo id="ffp3e"><dfn id="ffp3e"></dfn></bdo></progress><tbody id="ffp3e"><nobr id="ffp3e"></nobr></tbody>
      華西醫學期刊出版社
      作者
      • 標題
      • 作者
      • 關鍵詞
      • 摘要
      高級搜索
      高級搜索

      搜索

      找到 作者 包含"田翩" 2條結果
      • 一種用于心拍分類的可解釋機器學習方法

        目的探討Tsetlin Machine(TM)在心拍分類中的應用。 方法運用TM對中國生理信號挑戰賽2020數據集中正常、室性早搏和室上性早搏心拍圖片進行三分類,并對分類結果進行解釋性分析。該數據集包括10例心律失常患者的單導聯心電圖數據,排除1例心房顫動患者,最終納入9例患者數據。 結果分類結果表明,TM的九折平均識別準確率達84.3%,并且能通過位模式解釋圖展示分類判別的依據。 結論TM在分類心拍的同時能對分類結果作出解釋,對分類結果的合理解釋便于人們理解模型在進行心拍圖分類時的判決依據,進而增加模型的可信度。

        發表時間: 導出 下載 收藏 掃碼
      • 基于多特征融合網絡的心音分割方法研究

        目的提出一種基于多特征融合網絡的心音分割方法。方法研究資料來源于2016 CinC/PhysioNet數據集(來自764例患者的3 153段記錄,男性約占91.93%,平均年齡30.36歲)。首先從時域與時頻域中分別對心音進行特征提取,再通過特征降維的方法減少輸入的冗余特征;然后經過特征選擇分別找到兩個特征空間中性能最佳的特征;利用多尺度空洞卷積、協同融合和通道注意力機制實現多特征融合;最后,將得到的融合特征送入雙向門控循環網絡(BiGRU)實現心音分割。結果本方法在測試集上得到的心音分割精確率、召回率與F1值分別能達到96.70%、96.99%與96.84%。結論 本文提出的多特征融合網絡具有較好的心音分割性能,能夠為設計以心音為基礎的心臟疾病自動分析提供高準確率的心音分割技術支持。

        發表時間: 導出 下載 收藏 掃碼
      共1頁 上一頁 1 下一頁

      Format

      Content

      小泉真希