原创 機器學習(十六)---機器學習算法總結(1)
監督學習KNN算法計算測試樣本與訓練集的各樣本的距離,按從小到大取前k個距離排序,然後選擇這k個最相似數據中出現次數最多的分類作爲新數據的分類。 樸素貝葉斯實現的是概率量化計算的模型,它的解釋是通過對樣本的統計,然後算出某件事A發生的概率
原创 深度學習(十三)神經網絡基礎總結
sorry,筆記正在上傳。。。
原创 深度學習(十)優化器與損失函數
sorry,筆記正在上傳中。。。
原创 深度學習(十四)動手實現神經網絡
sorry,筆記正在上傳。。。
原创 深度學習(十一)神經網絡設計
sorry,筆記正在努力上傳。。。
原创 C++調試幫助--__func__的使用
__func__是編譯器定義的一個局部靜態變量(const char的一個靜態數組),用於存放函數的名字。#include<iostream> using namespace std; const char* hello() {ret
原创 深度學習(十六)遞歸神經網絡RNN(2)---網絡原理
sorry,筆記正在上傳。。。
原创 深度學習(六)batch_size和epoch
sorry,正在及時上傳筆記。。。
原创 函數指針和回調函數以及返回指向函數的指針
函數指針指向的是函數而非對象。和其他類型一樣,函數指針指向某種特定類型。因爲函數的類型由它的返回類型和形參類型共同決定,與函數名無關,所以想要聲明一個函數指針,只需要用指針替換函數名即可,例如:比較字符串長度的函數:bool
原创 error: stray ‘\200’ in program
此類錯誤基本上是由從網頁複製代碼因包含中文的空格和字符之類的東西導致的錯誤,linux下可以通過cat file.cpp -A 查看出
原创 深度學習(一)數據增強
sorry,正在努力整理上傳。。。
原创 深度學習(十五)卷積神經網絡CNN(1)---網絡簡介
從連接方式看,全連接網絡的好處是每個輸入維度的信息都會傳播到其後任何一個節點中去,會最大程度的讓整個網絡的節點都不會“漏掉”這個維度所貢獻的因素。不過全連接網絡的缺點是w和b參數格外多,即訓練中要更新的權重非常多,整個網絡的
原创 深度學習(九)正則化懲罰項
在機器學習特別是深度學習中,我們通過大量數據集希望訓練得到精確、泛化能力強的模型,對於生活中的對象越簡潔、抽象就越容易描述和分別,相反,對象越具體、複雜、明顯就越不容易描述區分,描述區分的泛化能力就越不好。 比如
原创 深度學習(七)激活函數與梯度消失
sorry,正在努力上傳筆記。。。。
原创 機器學習(十六)---機器學習算法總結(2)
sorry,正在努力整理上傳。。。