原创 linux和Windows文件不兼容(shell腳本執行錯誤 $'\r': command not found)

背景 將linux通過samba服務映射到windows平臺,在win平臺下建立一個腳本,然後切換到linux下執行,報錯$’\r’: command not found。 原因 win平臺下的換行是:回車符 + 換行符,也就是\r\

原创 linux鏈接.a庫時error adding symbols: file format not recognized

問題:編譯ARM端程序需要鏈接一個.a庫,報錯: error adding symbols file: format not recognized. 解決:用readelf工具查看目標端ARM端需要32位程序,因此用的編譯鏈是32位,

原创 linux系統中進程被killed內存不足

進程被系統killed,一個常見原因是內存不足。如果查看對應日誌? 答: dmesg | egrep -i -B100 ‘killed process’

原创 神經網絡的計算量和

1. 神經網絡的利用率 當一個CNN網絡做forward時,對於硬件資源的利用情況,稱之爲利用率。 如何計算利用率? 計算網絡的計算量,通常是乘累加的次數 測量網絡運行耗時 乘累加次數除以耗時, 計算該網絡的GFLOPS 用計算的網

原创 Win7_X64 + VS2013 + CUDA + Caffe 配置記錄

目錄1. 背景2. CUDA2.1 CUDA & cuDNN2.2 安裝問題3. Caffe3.1 caffe-windows源碼3.2 VS下編譯caffe3.3 測試caffe3.4 擴展caffe 1. 背景 因項目需要,在Wi

原创 浮點數和定點數的相互轉換(浮點數量化爲定點)

目錄1. 這篇博客將要討論什麼?2. 浮點數的表示法2.1 IEEE 754標準2.2 浮點數的“浮”字體現在哪裏?3. 定點數的表示法4. 浮點數 & 定點數4.1 爲何要把浮點數轉換爲定點數呢?4.2 如何將浮點數轉換爲定點數?4

原创 程序/進程執行時間分析(user cpu time, system cpu time, elpapsed time)

1. 背景 近日做程序優化任務,代碼不長,時間測試起來需要在for循環里加,破壞了程序執行的流水線,導致時間不準。網上查看了些相關資料,學到了一些東西,雖然對本任務沒用,但對於程序/進程執行時間可加深理解。 首先,需要明白的是: 我

原创 論文的參考文獻,作者的姓名次序如何寫?

之前寫論文(英文)時,最後列舉參考文獻時,通過百度學術搜索出來信息,然後複製即可。發現一個問題:作者的姓和名,存在順序問題。 例如,何凱明的論文《Deep Residual Learning for Image Recognition》,

原创 1.0 深度學習面目初窺

2017年4月,花了一個多月時間,學習了斯坦福大學李菲菲老師的 CS231n 課程(Convolutional Neural Networks for Visual Recognition),主要是通過研究課程筆記,對這幾個問題有了認識:

原创 西電碩士論文 Latex 模板使用說明

節前離校前計劃撰寫大論文的一、二章。西電研究生院官網去下載模板,發現官網提供了論文模板的Latex庫包,很nice啊。果斷放棄word模板。下載後使用遇到一些問題,記錄下來,供同學們參考。 西電碩士論文模板 Latex 庫包 下載點擊這裏

原创 OpenCV 2.4.X + vs 2015 配置及使用

背景 本科畢設和研究生畢設都用到了OpenCV,庫確實很好用,功能很強大。研究生項目是CRF算法中需要提取ROI,提取紋理特徵,計算直方圖等,接口調用很方便。潛意識以爲OpenCV庫是在linux平臺上做。 目前項目中需要將圖片轉化爲單通

原创 6. 深度學習實踐:深度前饋網絡

前饋神經網絡:爲了實現統計泛化而設計出的函數近似機。它偶爾從大腦中提取靈感,但並不是大腦功能的模型。 1. 爲什麼線性模型(單層感知機)不能解決異或(XOR)問題? 左圖中,x1=0 時,模型的輸出必須隨着x2 的增大而增大。x1=

原创 收官:論文 IEEE ACCESS 期刊錄取

自己做事,好做個記錄。 上:努力:論文CCCV 2017錄取通知 去年10月,將CCCV 2017會議論文擴充爲期刊論文。那會兒心還野着,沒想着弄這事,應付周任務,隨便加了點東西,擴充了幾百來字。例會上張老師不滿,批評曰:沒有以前認真了。

原创 12. 深度學習實踐:應用篇

儘管深度學習的目標是設計能夠處理各種任務的算法,但截至目前,其應用仍需一定程度的特化,我們重點關注CV,語音識別,NLP,以及其他商業領域的應用。 1. 大規模深度學習 DL基於聯結主義,大量神經元作用在一起往往能夠表示智能。神經元數量必

原创 7. 深度學習實踐:正則化(續)

接上篇:7. 深度學習實踐:正則化 7. 參數綁定和參數共享 表達對模型參數的先驗知識:經常想要表達的一種常見依賴是某些參數應當彼此接近。例如,兩個模型執行相同的分類任務,但輸入分佈稍有不同,因此我們認爲模型參數應彼此靠近。可通過正則化利