原创 顯著性分析-秩和檢驗與校正

我錄了一個講解視頻:https://www.bilibili.com/video/BV1Yz411z7j2?pop_share=1 一、理論概括介紹 顯著性分析通常分爲參數檢驗方法和非參數檢驗方法,參數檢驗法中常用的是t檢驗,但是t檢驗需

原创 Attention機制和SE-net論文總結

我錄了一個講解視頻:https://www.bilibili.com/video/BV1SA41147uA/   Attention機制 注意力機制(Attention Mechanism)源於對人類視覺的研究。在認知科學中,由於信息處理

原创 反捲積實現卷積層特徵的可視化

前言與背景: 很多論文都提到可視化卷積層的特徵圖,如這篇SCI二區的IEEE論文,最早提出可視化卷積層工作的好像是2014年的一篇頂會。 這篇論文有一部分的工作就是可視化卷積層的輸出,它選擇了可視化第一層卷積層和最後一層池化層,認爲這樣

原创 【遷移學習】兩種是否加載網絡層的預訓練參數方法

前言:我最近在研究遷移學習在醫學圖像中的應用,通過摸索掌握了兩種是否加載網絡層的預訓練參數方法,具體而言就比如A卷積神經網絡一共有a、b、c、d四個有權重參數的網絡層,我可以任意選擇遷移網絡層的個數,比如我可以只遷移a或者c網絡層的參數,

原创 Batch Normalization (BN)簡潔介紹

提出BN的文獻: Ioffe, S., & Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal

原创 Endnote軟件改變文獻引用格式報錯-解決方案

錯誤信息:EndNote X8 can not be formatted because it is no longer open. Please chose another document. 前言——自己管理和閱讀文獻一直用的是men

原创 iPhone導入電腦圖片視頻報錯(系統沒有發揮作用)

前言:把視頻從iphone設備拷貝至PC時出現錯誤:連接到系統上的設備沒有發揮作用           嘗試了更換USB口和USB線後還是沒有解決這個問題,後來發現是iPhone本身設置的原因。   解決辦法:打開設置—點開圖片—找到傳輸

原创 在GitHub上只下載單個文件或者單個文件夾而不是整個項目到本地

(1)下載單個文件 點開文件夾,找到自己需要的文件 右鍵Raw——鏈接另存爲,就完成了。 (2)下載單個文件夾 直接在github上是不能下載單個文件夾的,需要藉助外部插件 如圖所示,把需要下載的文件夾的網址輸入框中,點擊下載即可

原创 基於TensorFlow的圖片數據增強代碼實現

TensorFlow常用的數據增強主要分爲3部分:裁剪、翻轉、變色 另外還可以用過opencv實現圖片的旋轉 和 仿射變換 第一部分裁剪: (1)如果目標圖像尺寸小於原始圖像尺寸,則在中心位置剪裁,反之則用黑色像素進行填充。 image

原创 “小世界”網絡理解

1998年Watts和Strogatz在Nature上發表了《Collective dynamics of ‘small-world’ networks》,首次提出了小世界網絡。 論文地址:http://worrydream.com/re

原创 查看tensorflow安裝的地方

背景: 由於是太久之前安裝的TensorFlow,現在想手動下載幾個文件到slim文件夾中,但不記得TensorFlow安裝的位置了,所以需要通過代碼找到TensorFlow安裝的位置。 解決方案: 在控制行中調用python,由於我使用

原创 python編程中的一些小知識點總結

1. 列表的清除 用L=[],並不能清空L指向的內存,L[:]=[]可以把L對應的內存清空   del L[:],速度很快,也徹底,效果等於L[:]=[] 2. 保存爲. mat格式 import scipy.io as sio si

原创 神經網絡的ROC曲線繪製代碼

ROC曲線的橫軸爲假正例率(FPR), 縱軸爲真正例率(TPR),其曲線下面的面積爲AUC FPR = FP/(FP+TN) TPR = TP/(TP+FN) 繪製ROC曲線的關鍵是弄懂ROC曲線的含義,然後改變分類概率的閾值。 代碼說

原创 python實驗os.walk的用法

[x[0] for x in os.walk(test_root)][1:] 先組織好文件路徑在  'D:/python'下建立一個名爲test的文件夾。 …… 然後建立如圖所示的文件結構: 實驗: 由於方法2和方法3都會引入空元素

原创 tensorflow的四個交叉熵函數寫法區別

1. tf.nn.sparse_softmax_cross_entropy_with_logits()與tf.nn.softmax_cross_entropy_with_logits的區別 區別就是sparse的labels是int類型,