原创 深度學習筆記(19):結構化機器學習項目的一般策略總結(1)

調優 很多時候,我們的系統在搭建出來之後並不是最優的,我們需要去優化,可能會有很多想法,我們可以調整的地方也很多:比如我們增加訓練的數據,使用正則化方法,使用更加大的神經網絡,調整學習率,改善優化策略等。但是其實這些方法的採取是需

原创 深度學習筆記(40):第五課第三週第二次作業

這一部分的實驗我覺得挺跳躍的,突然就到語音識別了 時間重疊判定 # GRADED FUNCTION: is_overlapping def is_overlapping(segment_time, previous_segmen

原创 深度學習筆記(36):第五課第一週第三次作業

前言 本週使用LSTM創作一首爵士小歌。 代碼 djmodel # GRADED FUNCTION: djmodel def djmodel(Tx, n_a, n_values): """ Implement t

原创 深度學習筆記(30):RNN循環神經網絡模型總結

本週的深度學習課程進入了第五課,也就是最後一課。學完這一段,我們應該就會開組會然後討論下一步的安排了。。。無論如何,該將重心重新挪回到算法,軟構,自動機等考試的準備上了。 前言 RNN循環神經網絡實際上是一種處理序列的專用網絡結構

原创 深度學習筆記(29):第四課第三週作業

佔坑 軟件構造太多啦!!!! 寫不動了下週再寫這個YOLO

原创 深度學習筆記(27):殘差網絡ResNet50簡介

前言 想要訓練足夠強大的神經網絡,我們就需要搭建足夠深度的網絡,但是深的網絡會不可避免地產生梯度爆炸或者梯度消失問題,使得訓練緩慢亦或者根本見不到明顯的下降。如下圖 我們的Relu函數和Batchnorm等都在解決這種問題,使得

原创 深度學習筆記(26):卷積神經網絡CNN簡介

前言 對於海量信息的高清圖像,如果我們使用傳統的全連接神經網絡,會造成所需要訓練的參數過多以致於無法訓練成功。這時候一種新的網絡模型被提出來,即CNN(Cov-Nerual-Network)。我們在下面對於其基本原理和需要注意的細

原创 深度學習筆記(28):目標探測

前言 我們再更多的情況下不僅僅想要將圖像分類,我們還想判斷這個物體到底在圖像的哪個部位上,所以說這時候目標探測應運而生。 目標探測,除了要使用softmax判斷類別外,還需要一個邊界框(以中心點的x,y和寬和高四個參數來體現)。

原创 軟件構造心得(12):關於JFrame、動態顯示、與交互界面製作的入門級心得

前言 GUI雖然不是我們軟件構造課程的核心思想所在,但是卻往往代表着一個軟件設計者外在而直接的品味。當然拋開這些不談,初次接觸GUI如我,因爲毫無基礎,面對網上魚龍混雜的說法真的嘗試而且崩潰了好久,多虧陶神佬相助爲我仙人指路,讓我

原创 深度學習筆記(24):第四課第二週第一次作業

前言 本次作業講了一些keras的基本用法,允許搭建自由度很高的CNN。 代碼 (參數是參考的) Keras非常適合快速製作原型,你可以在很短的時間內,建立一個能夠獲得出色結果的模型。 這是Keras中的模型構建示例: def m

原创 深度學習筆記(25):第四課第二週第二次作業

前言 本次實驗實現了殘差網絡ResNet。殘差網絡的一個重要的思想是skip,這樣可以加深神經網絡,使得深層次的神經網絡能夠下降,進而訓練出更好的神經網絡來。這次實驗我們可以從中瞭解到Reg50殘差網絡的結構,他的基本構成,並且使

原创 深度學習筆記(23):第四課第一週第二次作業

前言 在這次實驗,我們使用tensorflow搭建了一個前人實踐出來的CNN模型,參考了一下他們的各種超參數的設置和Conv的位置等。然後將代碼實現出來。總體來說還是不難的。 TensorFlow新學習的代碼條 tf.nn.con

原创 深度學習筆記(22):第四課第一週第一次作業

前言 本次作業練習了卷積神經網絡的一些基本操作,比如padding,卷積(convolution),還有池化(pooling),以及額外拓展了一下卷積神經網絡的反向傳播。其中,多個數據和多個頻道使得維數還是蠻多的比較容易混亂,我們

原创 深度學習筆記(20):結構化機器學習項目的一般策略總結(3)

手工分析的必要性:誤差分析 比如我們在分類貓模型中,得到了error是10%。我們去查看了判斷錯誤的測試集,嘗試去優化,使得模型更加準確。我們發現,模型將一些長得像貓的狗的照片分類出來了。那麼問題就來了,我們應不應該爲此專門地去設

原创 深度學習筆記(20):結構化機器學習項目的一般策略總結(下)

爲什麼是人的表現 爲什麼我們要把人的指標(準確度等)作爲機器學習準確度的標準,是因爲: 一方面,在很多領域,人的識別度是可以近似於貝葉斯誤差的,也就是所謂的誤差的最小值。所以我們實際上的bias判斷也並不是基於在train上的錯誤