原创 深度學習基礎之-1.5交叉熵損失函數

交叉熵 交叉熵(Cross Entropy)是Shannon信息論中一個重要概念,主要用於度量兩個概率分佈間的差異性信息。在信息論中,交叉熵是表示兩個概率分佈p,q的差異,其中p表示真實分佈,q表示非真實分佈,那麼H(p,q)就稱

原创 深度學習基礎之-1.3梯度下降

從自然現象中理解梯度下降 在絕大多數文章中,都以“一個人被困在山上,需要迅速下到谷底”來舉例,這個人會“尋找當前所處位置最陡峭的地方向下走”。這個例子中忽略了安全因素,這個人不可能沿着最陡峭的方向走,要考慮坡度。 在自然界中,梯度

原创 子數組求和問題(python)+貝葉斯

連續子數組和最大,返回子數組的開始和結束的索引 例如: a = [6,-3,-2,7,-15,1,2,2],a[0:3]的和最大爲8,返回(0,3) 思路:首先,因爲求和最大的連續子數組,所以子數組的第一個值不能爲負;其次。如果,

原创 深度學習基礎之-1.2非線性反向傳播

非線性的例子 在上面的線性例子中,我們可以發現,誤差一次性地傳遞給了初始值w和b,即,只經過一步,直接修改w和b的值,就能做到誤差校正。因爲從它的計算圖看,無論中間計算過程有多麼複雜,它都是線性的,所以可以一次傳到底。缺點是這種線

原创 校招算法崗面試

文章目錄機器學習CV算法崗面試-基礎知識部分:機器學習CV算法崗面試-代碼部分 機器學習CV算法崗面試-基礎知識部分: MobileNet的特點,以及v1-v3的提升點 Yolo系列特點及每次的改進,多尺度體現在哪裏,損失函數的

原创 深度學習基礎之-1.1線性反向傳播

線性的例子 z=x⋅yz = x \cdot yz=x⋅y 其中: x=2w+3bx = 2w + 3bx=2w+3b y=2b+1y = 2b + 1y=2b+1 計算圖如下: 注意這裏x, y, z不是變量,只是計算結果。w

原创 深度學習基礎之-1.4損失函數

損失函數 損失就是所有樣本的誤差的總和,亦即: 損失=∑i=1m誤差i損失 = \sum^m_{i=1}誤差_i損失=i=1∑m​誤差i​ 在黑盒子的例子中,我們如果說“某個樣本的損失”是不對的,只能說“某個樣本的誤差”,如果我們

原创 csdn-markdonwn

原文鏈接:https://mp.csdn.net/mdeditor/98848595 這裏寫自定義目錄標題歡迎使用Markdown編輯器新的改變功能快捷鍵合理的創建標題,有助於目錄的生成

原创 深度學習基礎-從感知機(神經元)說起

1 感知機 1.1代數理論 在機器學習中,感知機(perceptron)是二分類的線性分類模型,屬於監督學習算法。輸入爲實例的特徵向量,輸出爲實例的類別(取+1和-1)。感知機對應於輸入空間中將實例劃分爲兩類的分離超平面。感知機

原创 深度學習基礎之-3.4神經網絡多分類

分類函數 - Softmax 爲什麼叫做Softmax? 假設輸入值是:[3,1,-3],如果取max會變成:[1,0,0],這符合我們的分類需要。但是max操作本身不可導,無法用在反向傳播中,所以加了個"soft"來模擬max的

原创 深度學習基礎之-6.1卷積神經網絡

卷積的數學定義 (1)h(x)=(f∗g)(x)=∫−∞∞f(t)g(x−t)dth(x)=(f*g)(x) = \int_{-\infty}^{\infty} f(t)g(x-t)dt \tag{1}h(x)=(f∗g)(x)=

原创 深度學習基礎之-3.2線性二分類

二分類原理 分類函數 對率函數Logistic Function,本身是激活函數,又可以當作二分類的分類函數。 公式 a(z)=11+e−za(z) = \frac{1}{1 + e^{-z}}a(z)=1+e−z1​ 導數 a′

原创 深度學習基礎之-5.1非線性分類-二分類(神經元解決異或問題)

邏輯異或門 樣本 1 2 3 4 x1 0 0 1 1 x2 0 1 0 1 y 0 1 1 0 理想分類結果 實踐證明兩層神經網絡可以解決問題。我們可以模擬這個思路,用兩層神經網絡搭建如下模型: 輸

原创 深度學習基礎之-1.6均方差損失(MSE)

均方差函數(MSE Mean Square Error) 計算預測值和真實值之間的歐式距離。預測值和真實值越接近,兩者的均方差就越小 均方差函數常用於線性迴歸(linear regression),即函數擬合(function f

原创 深度學習基礎之-0.0寫在前面

摘要 筆者涉及深度學習不到一年時間,入手的時候直接從幾大經典的卷積神經網絡入手,AlexNet,GoogLeNet,FCN入手,有點空中造樓閣的意味。很是不結實,建議從讀者們不要像我這樣,基本的知識是需要搞清楚的。 趁着最近有點時