原创 python super()的用法

我用的是python2.7,看了看菜鳥教程的例子: class A(object): def add(self,x): y = x+1 print(y) class B(A):

原创 系統性的學習東西

有時候的學習吧真的像是“走馬觀花”,看到這個不錯也想看一看,看一會看到困難處便又放棄繼續追究下去因爲往往這時候纔想起自己的主業還沒去做,再深究下去恐完成主業就遙遙無期了;但是其實到這個時候你已經浪費了許多時間,而往往總是這樣的學習情況會導

原创 tensorflow 優化網絡採坑記①:

1、如果損失遲遲不降,應該檢查一下輸入數據的形狀,即使你覺得你輸入的數據的形狀能在計算的時候對的上,網絡程序性運行沒有錯誤的運行。我就是把標籤輸入從一維升到2維,計算的過程也都能正常運行,但是損失就是很難優化,一直搞不明白是怎麼回事。我拿

原创 實驗中GPU利用率低的可能的原因:

最近做實驗利用率不知道爲什麼那麼低,只有8%左右,固然有因爲我每個批次的數據佔用空間不大的原因,但是後來跑着跑着還莫名其妙的保錯(之前用大batch做過驗證試驗,能跑完,沒毛病),回溯問題如下: Traceback (most rece

原创 tensorflow 初始化未初始化的變量

今日在Stack Overflow上看到一個問如何只初始化未初始化的變量,有人提供了一個函數,特地粘貼過來共大家品鑑: import tensorflow as tf def initialize_uninitialized(sess

原创 .mat文件和numpy .npy文件的相互轉換:

# 讀取.mat文件所用到的包:scipy.io 或 h5py import h5py matr = h5py.File('file_name.mat','w') #使用keys()方法查看字典有幾個主鍵 print(matr.keys

原创 論文中常見的argmin,argmax是什麼意思?

arg    是變元(即自變量argument)的英文縮寫。 arg min 就是使後面這個式子達到最小值時的變量的取值 arg max 就是使後面這個式子達到最大值時的變量的取值 例如 函數F(x,y): arg  min F(x,y)

原创 探索HDF5文件(一般後綴爲.h5的文件)

最近看有關lua的代碼看別人用的數據集是.h5文件,在keras裏我還以爲是保存的權重等變量,其實.h5(HDF5,hierarchical data format,5)是一種數據文件格式,其第一層相當於python中的字典,比如打開一個

原创 import click 用於裝飾某些函數以使該函數能從命令行獲取執行參數;還可以獲取參數執行文檔

原文出處:http://funhacks.net/2016/12/20/click/ 本篇只是轉載 Click 的使用大致有兩個步驟: 使用 @click.command() 裝飾一個函數,使之成爲命令行接口; 使用 @click.opt

原创 Word 2016 通過尾註插入參考文獻和修改尾註編碼方式:

1.把光標移動到要插入尾註的地方,點擊Word菜單欄的“引用”——>“插入尾註”,然後會自動跳轉到文章末尾,你只要把要引用的參考文獻按一定格式附在後面就可以了,我是直接上Google學術查找到相關文獻後複製相關的文獻格式直接粘貼就可以了,

原创 關於tensorboard可視化過程的中遇到的問題:

1,最近在cd到log所在目錄後啓動命令“tensorboard --logdir=log --port=8008” 後打開瀏覽器輸入本地網址:127.0.0.1:16006 後tensorboard 總是打不開顯示效果而且在命令行後面還

原创 使用命令行查詢服務器上tensorflow GPU的版本

看了許多介紹查詢tensorflow的版本的,感覺都顯得太囉嗦了,就一句: pip list | grep tensorflow 就搞定了:

原创 對於tensorflow學習率的理解:global_step;decay_steps

tf.train.exponential_decay( learning_rate, global_step, decay_steps, decay_rate, staircase=False,

原创 tensorboard 服務器轉發顯示:同時訪問多種網絡的日誌文件

首先從服務器端說起:一般服務器tensorboard通過本地計算機顯示端口轉發內容時在服務器上使用命令: 首先從服務器上cd命令到tensorflow的日誌所在目錄,注意是在event文件的上一級目錄,我的是“log”,裏面有兩個eve

原创 tensorflow 初始化單個參數的方式

有時候在訓練網絡的時候我們需要運用之前訓練好的結果但是又不想經歷 “訓練-存儲模型-加載模型-應用”這樣繁瑣的過程時,同時 在循環過程中我們可以在幾次for循環時避免初始化所有變量在循環中使用網絡中已訓練好的參數如權重、偏置值b等,只初始