原创 tensorflow_gpu相關接口及多gpu訓練及相關注意

多gpu訓練使用keras multi_gpu_model(model, gpus, cpu_merge=True, cpu_relocation=False) 這個函數有個極其重要的參數,cpu_merge和cpu_relocati

原创 tensorflow-gpu1.13-python環境搭建記錄

安裝python   1,https://www.python.org/ftp/python/3.6.4/python-3.6.4-amd64.exe 安裝到一個如python\python1目錄中 2,添加環境變量 3以管理員運行cmd

原创 各個訓練數據集讀取操作

Mnist https://github.com/zhaoyue3513247/reasddsad/blob/master/mnist_read_data Cifar10 https://github.com/zhaoyue351

原创 yolov4學習記錄

YOLOv4採用的優化方法 activation Activations: ReLU, leaky-ReLU, parametric-ReLU, ReLU6, SELU, Swish, or Mish 論文中採用Mish,實驗驗證

原创 C++調python流程

用的是Visual Studio 2019;python3.6 安裝Visual Studio 2019時就安裝了最基本的那個,沒安python,python是自己安的。 我在未了解環境時弄了半天各種bug,因此首先應該看環境如何搭建。

原创 強化學習2(dqn)

說一下看了博客和論文後,在實現算法過程中有哪些疑問與答案。 1,離散表格形式的強化學習重點 強化學習更新表格時,每走一步都要更新表格,但是在一開始時,表格數值都爲0,因此一般前面的很多行動都無法更新表格中的值,最後只會更新勝利或失敗的前一

原创 tensorflow 多gpu實現學習記錄

理論與概念 不看網上教程了,直接看官網的介紹。也不用keras,keras一點都不靈活,還各種bug。 直接看源碼,地址爲https://github.com/tensorflow/models/blob/master/tutorials

原创 Deep Layer Aggregation實現

             

原创 核方法迴歸

參考論文-DENSITY ESTIMATION FOR STATISTICS AND DATA ANALYSIS 給定數據集,來估計概率密度函數  Histograms The naive estimator 也是分成段的平行x軸直線連

原创 SPECTRAL NORMALIZATION FOR GENERATIVE ADVERSARIAL NETWORKS閱讀記錄

1,A number of works (Ue-hara et al., 2016; Qi, 2017; Gulrajani et al., 2017) advocate the importance of Lipschitz conti

原创 無偏估計、有效性、相合性

定義: 在已知概率分佈函數構造的情況下,概率分佈的一些參數未知,如高斯分佈的namda、方差,而利用採集到的參數來對未知參數進行估計就是參數估計。比較基礎的有矩估計、最大似然估計。而不同的方法對未知參數估計可能有優劣之分,因此引出瞭如何評

原创 VC維

簡單通俗的說。 VC維是模型的複雜程度,模型假設空間越大,VC維越高。 shatter和break point是VC維理論中的概念。shatter是指模型假設把數據打碎了,也就是區分開了。而break point是指當模型複雜度變的足夠高

原创 tensorflow 代碼轉keras記錄

函數匹配記錄: (1)keras的model必須是keras.Input,如果不是,則model時會報錯。但是卷積操作什麼的,tensorflow的可以用keras.Input。 (2)原來tensorflow的輸入可能是有batch_s

原创 focal loss 學習記錄

上圖:   圖中的pt 橫軸的取值範圍是0-1,接近1時有兩種可能情況,(1)y是1,logit接近1(2)y是0,logit接近0. 因爲pt是隨着y變的。所以以上兩種情況來說都是預測的比較好的情況,在目標檢測中,大部分都是背景,因

原创 retina_net訓練記錄

學習率0.08 [[2.8720347804407917, 0, "2019-04-04-19 18:38:33"], [2.263864836385173, 10, "2019-04-04-19 19:13:26"], [2.0282