原创 tensorflow2.1中的一些shape問題

tf.nn.sigmoid_cross_entropy_with_logits(labels,logits)與tf.keras.losses.BinaryCrossentropy()中shape的區別 假設輸入和輸出都是(bat

原创 數據結構之哈希表/散列表——python應用(字典)

文章目錄1. 什麼是哈希表?2. 哈希表爲何如此高效?3. 哈希表的衝突現象3.1 衝突現象3.2 如何解決哈希衝突現象4. 哈希函數的構造方法4.1 構造哈希函數的準則4.2 構造方法4.2.1 直接定址法4.2.2 除留餘數法

原创 Manifold Learning——流型學習概念

寫在前面 最近讀論文老師遇到manifold這個詞,必須得解決解決,看看到底啥意思。 正文 總結 流型學習假設數據是均勻採樣於一個高維歐氏空間中的低維流形,流形學習就是從高維採樣數據中恢復低維流形結構,即找到高維空間中的低

原创 LeetCode2——三數之和

class Solution: def threeSum(self, nums: List[int]) -> List[List[int]]: n = len(nums) res = [

原创 《統計學基礎》——第五章(決策樹)

1. 什麼是決策樹? 決策樹是一種分類和迴歸的基本模型。有結點和有向邊組成。內部節點表示一個屬性或者特徵,葉子節點表示一個類。可以從if-then的角度理解它。 2. 和其他模型比,它的優點? 模型具有可解釋性,容易向業務部門

原创 讀論文——Variational inference with Gaussian mixture model and householder flow

1. 標題:在變分推斷中使用GMM和householder 2. 摘要精讀 3. 文中需要掌握的知識點 3.1 什麼是Normalizing Flow 3.2 通過NF得到了什麼樣得變分下界 通過NF,我們得後驗分佈可以變爲

原创 python3中super()的參數傳遞問題

1、 super([type[, object-or-type]]) super() 在使用時至少傳遞一個參數,且這個參數必須是一個類。 通過super()獲取到的是一個代理對象,通過這個對象去查找父類或者兄弟類的方法。 2、su

原创 python中的MRO順序

寫在前面 一個類可以有多個父類, 在類的多繼承中,如果繼承多個父類方法,調用父類方法時(父類名.方法),會造成父類方法中某些數據被重複調用,所以建議使用super()方法,那麼,多繼承在python解釋器中時怎樣調用它的各個父類

原创 如何解決plt.savefig()保存圖片一片空白

plt.show() plt.savefig("1.png") 用該代碼保存圖片之後,打開圖片發現是白色的 解決辦法: 交換順序,先保存再顯示 plt.savefig("1.png") plt.show() Done!

原创 Keras文檔解讀——Making new layers and models via subclassing

參考原文鏈接 Making new layers and models via subclassing 1. 準備工作 import tensorflow as tf from tensorflow import keras 2

原创 模型訓練中遇到的問題——梯度消失/爆炸(Loss爲nan)

可能出現的原因 Learning_rate過大,導致梯度較大,導致梯度爆炸 激活函數、損失函數選取不當,在這種情況很少出現 當網絡的層數比較多,模型的數值穩定性容易變差,容易產生梯度消失和梯度爆炸,這會導致我們的loss在訓練時

原创 如何在tf.layers.dense中使用leaky_relu

因爲leaky_relu不支持字符形式,即 # this is wriong tf.layers.Dense(units,activation='leaky_relu') # right operation import t

原创 python中得裝包與拆包

def run(a,*args): #第一個參數傳給了a print(1,a) # args是一個元組,裏面是2和3兩個參數 print(2,args) # *args是將這個元組中的元素依次取出來 print

原创 《統計學基礎》——第二章(感知機)

1. 寫在前面 感知機時神經網絡和SVM的基礎,瞭解他很重要,但不作面試重點,一般這個會作爲Baseline。 2. 求解什麼問題 感知機求解二分類的線性分類問題,一般數據集爲線性可分的。 3. 模型(function) 輸

原创 tensorflow2.1.0——Dense文檔解讀

知識點 重點解讀shape 當我們在Squential中的第一層使用Dense時,一定要注意是否我們的train_data.shape被展平了。例如,當我們使用MNIST數據集時,原始的train_data.shape=(6