原创 吳恩達深度學習筆記(61)-訓練調參中的準確率和召回率

單一數字評估指標(Single number evaluation metric) 無論你是調整超參數,或者是嘗試不同的學習算法,或者在搭建機器學習系統時嘗試不同手段,你會發現,如果你有一個單實數評估指標,你的進展會快得多,它可以快速

原创 吳恩達深度學習筆記(59)-什麼是機器學習策略?

什麼是ML策略?(Why ML Strategy?) 如何構建你的機器學習項目也就是說機器學習的策略。我希望通過這門課程你們能夠學到如何更快速高效地優化你的機器學習系統。那麼,什麼是機器學習策略呢? 我們從一個啓發性的例子開始講,假

原创 吳恩達深度學習筆記(60)-深度學習中的正交化

正交化(Orthogonalization) 搭建建立機器學習系統的挑戰之一是,你可以嘗試和改變的東西太多太多了。 包括,比如說,有那麼多的超參數可以調。 我留意到,那些效率很高的機器學習專家有個特點,他們思維清晰,對於要調整什麼來達

原创 個人親試:opencv videocapture無法讀取視頻,cap.isOpened 輸出false,快速解決,出現這個先試下這個~

環境Ubuntu16.04LTS, Anacodna3安裝的opencv,python3.6.8 cap.isOpened 輸出false, 整個文件報錯或者無法進入循環, 當然這個是由於前面的cv2.VideoCapture(fil

原创 吳恩達深度學習筆記(58)-深度學習框架Tensorflow

TensorFlow 有很多很棒的深度學習編程框架,其中一個是TensorFlow,很期待幫助你開始學習使用TensorFlow,我想在這個筆記中向你展示TensorFlow程序的基本結構,然後讓你自己練習,學習更多細節 先提一個啓發

原创 吳恩達深度學習筆記(56)-訓練一個 Softmax 分類器

訓練一個 Softmax 分類器(Training a Softmax classifier) 上一個筆記中我們學習了Softmax層和Softmax激活函數,在這個筆記中,你將更深入地瞭解Softmax分類,並學習如何訓練一個使用了

原创 吳恩達深度學習筆記(57)-深度學習框架Deep Learning frameworks

深度學習框架(Deep Learning frameworks) 如果你已經差不多從零開始學習了使用Python和NumPy實現深度學習算法,很高興你這樣做了。但你會發現,除非應用更復雜的模型,例如卷積神經網絡,或者循環神經網絡,或者

原创 吳恩達深度學習筆記(55)-Softmax 迴歸(Softmax regression)

Softmax 迴歸(Softmax regression) 到目前爲止,我們講到過的分類的例子都使用了二分分類,這種分類只有兩種可能的標記0或1,這是一隻貓或者不是一隻貓,如果我們有多種可能的類型的話呢? 有一種logistic迴歸

原创 吳恩達深度學習筆記(53)-Batch Norm 爲什麼奏效

Batch Norm 爲什麼奏效?(Why does Batch Norm work?) 爲什麼Batch歸一化會起作用呢? 一個原因是,你已經看到如何歸一化輸入特徵值x,使其均值爲0,方差1. 它又是怎樣加速學習的,有一些從0到1而

原创 吳恩達深度學習筆記(54)-測試時的 Batch Norm

測試時的 Batch Norm(Batch Norm at test time) Batch歸一化將你的數據以mini-batch的形式逐一處理,但在測試時,你可能需要對每個樣本逐一處理,我們來看一下怎樣調整你的網絡來做到這一點。

原创 吳恩達深度學習筆記(52)-將 Batch Norm 擬合進神經網絡

Batch Norm 擬合進神經網絡(Fitting Batch Norm into a neural network) 你已經看到那些等式,它可以在單一隱藏層進行Batch歸一化,接下來,讓我們看看它是怎樣在深度網絡訓練中擬合的吧。

原创 吳恩達深度學習筆記(51)-歸一化網絡的激活函數(重要!)

歸一化網絡的激活函數(Normalizing activations in a network) 在深度學習興起後,最重要的一個思想是它的一種算法,叫做Batch歸一化,由Sergey loffe和Christian Szegedy兩

原创 吳恩達深度學習筆記(50)-超參數訓練的實踐

超參數訓練的實踐:Pandas VS Caviar(Hyperparameters tuning in practice: Pandas vs. Caviar) 到現在爲止,你已經聽了許多關於如何搜索最優超參數的內容,在結束我們關於超

原创 吳恩達深度學習筆記(49)-爲超參數選擇合適的範圍

爲超參數選擇合適的範圍(Using an appropriate scale to pick hyperparameters) 在上一個筆記中,你已經看到了在超參數範圍中,隨機取值可以提升你的搜索效率。 但隨機取值並不是在有效範圍內的

原创 吳恩達深度學習筆記(47)-神經網絡局部最優的問題

局部最優的問題(The problem of local optima) 在深度學習研究早期,人們總是擔心優化算法會困在極差的局部最優,不過隨着深度學習理論不斷髮展,我們對局部最優的理解也發生了改變。我向你展示一下現在我們怎麼看待局部