原创 CNN
CNN cnn 特點 優勢 局部卷積 有利於提取局部特徵 權值共享 更少的參數量 容易操作 pooling層 降維,低層次特徵提取出高層次特徵 多層級結構 可建模出複雜模型 Parameters、FLOPs 對於一個卷積層,假
原创 排序總結
文章目錄基於比較操作交換排序冒泡排序快速排序插入排序直接插入排序希爾排序選擇排序簡單選擇排序堆排序歸併排序普通歸併排序基於比較排序的算法複雜度理論下界非比較排序計數排序算法穩定性詳解 基於比較操作 交換排序 冒泡排序 clas
原创 神經網絡
神經網絡線性迴歸(單層迴歸問題)邏輯迴歸(單層二分類問題)函數集損失函數梯度下降(Gradient Descent)定義SGD(Stochastic Gradient Descent)隨機梯度下降極值點、駐點、鞍點、拐點模型選擇B
原创 機器學習理論分析
文章目錄機器學習內在劃分邏輯誤差來源 機器學習內在劃分邏輯 Scenario 訓練場景 由拿到的數據決定 task 任務類型 由想得到的輸出決定 method 所選擇的function set 只是specialize了Clas
原创 學習率優化方式
學習率優化 優化方法學習率衰減自適應學習率調整(學習率優化)Momentum 動量法Nesterov牛頓動量法(根據累計梯度計算提前點)Adagrad(累計梯度反比)RMSprop(滑動窗口)AdaDelta(自適應學習率)Ada
原创 刷題哇
Vector 一維 vector<int> a(10, 1); a.push_back(2); a.size() ; 二維 vector<vector<int> > v(3); for(int i = 0;i < v.siz
原创 原碼 反碼 補碼
負數反碼相當於:要求正數和相反數相加=0 負數補碼相當於: 先向最高位(溢出位)借一,計算出結果 因爲這一位是溢出位,在計算機中表示不出來,所以再進行計算的時候即使因爲借的這一位導致了進一,也是溢出的,表示不出來, 所以補碼是複數
原创 Muti-scale related papers
PAPERSOmni-Scale說明問題創新點Omni-ScaleAG gateResidual 解釋Light weight對比對象Ablation study可視化Multi-Level Factorisation Net f
原创 Life Long Learning
Life Long Learning與其他方法區別Evaluation學了新的不忘舊新舊知識互相輔助模型不夠用咋擴張待解決問題: 與其他方法區別 Muti-task Learning 每個任務的訓練資料都需要囊括,且要訓練每一個
原创 Adversarial Attack
Adversarial AttackAttackWhite-box attackloss funcconstraint定義與實現Black-Box Attack可獲得訓練樣本不可獲得訓練樣本More Attack 嘗試解釋:在某個
原创 Explainable machine learning
Explainable machine learningLocal ExplanationGlobal Explanation 可解釋性和網絡能力一般難兩全 Local Explanation 爲什麼你認爲這個圖片屬於類別y?
原创 機器學習的下一步 筆記 -1 總覽
知道“我不知道” -Anomaly Detection 解釋爲什麼“我知道” - Explainable AI 惡意攻擊 - Adversarial Attack 終身學習 - Life-long Learning 學習如何學習
原创 Anomaly Detection
Anomaly Detection背景帶標籤異常檢測不帶標籤異常檢測Evaluation 背景 定義:找出異常(與訓練資料相異 的data) 應用:欺詐檢測、網絡入侵檢測、癌症檢測 與二分類的區別: 異常數據不能被簡單視爲一類
原创 經典深度分類網絡
經典深度分類網絡AlexNetVGGInception v1Resnet AlexNet 特徵 開山之作,使用ReLU、LRN、Dropout、Overlapping pooling(stride<kernel) 架構圖 V