原创 Python的 numpy中 meshgrid 和 mgrid 的區別和使用

原文鏈接:https://www.cnblogs.com/shenxiaolin/p/8854197.html 一、meshgrid函數 meshgrid函數通常使用在數據的矢量化上。 它適用於

原创 anaconda中的指定虛擬環境python版本升級/切換

網上搜到很多博客都只有conda create/remove,也看見一些網友說複製site-packages,但終究太麻煩.... 但是!!!!我發現了一個懶人妙計!!!!!!!!!!↓ 對於anaconda中新建的虛擬環境,不想卸載重新

原创 anaconda中的指定虛擬環境python版本升級

  對於anaconda中新建的虛擬環境,不想卸載重新安裝,直接升級python版本:   首先anacode prompt進入該虛擬環境,試了下update python不行,輸入指令conda install python=3.6(3

原创 python時間序列ARIMA的實現及原理(預測茅臺股票數據)

原文鏈接:https://blog.csdn.net/qq_36523839/article/details/80191243 由(AR模型    I差分    MA模型)三部分組合

原创 python科學計算——scipy.optimize

SciPy的optimize模塊提供了許多數值優化算法,下面對其中的一些記錄。 非線性規劃(scipy.optimize.minimize) 一.背景: 現在項目上有一個用python 實現非線性規劃的需求。非線性規劃可以簡單

原创 numpy.stack最通俗的理解

原文鏈接:https://blog.csdn.net/qq_17550379/article/details/78934529 numpy.stack(arrays, axis=0

原创 python matplotlib contour畫等高線圖

原文鏈接:https://blog.csdn.net/Mr_Cat123/article/details/80677525 函數畫圖 以z=x2+y2z=x2+y2z=x2+y

原创 np.stack/hstack/vstack函數解析

在Python中,經常會用到關於數組的堆疊,如np.stack函數就是一個用於numpy數組堆疊的函數,關於該函數的用法,大都是給出了示例,而沒有分析其中原理,下面會舉例關於np.stack函數的用法,示例和原理。 np.stac

原创 深入理解卷積層,全連接層的作用意義

有部分內容是轉載的知乎的,如有侵權,請告知,刪除便是,但由於是總結的,所以不一一列出原作者是who。再次感謝,也希望給其他小白受益。首先說明:可以不用全連接層的。理解1:卷積取的是局部特徵,全連接就是把以前的局部特徵重新通過權值矩陣

原创 tensorflow中 tf.reduce_mean函數

tf.reduce_mean 函數用於計算張量tensor沿着指定的數軸(tensor的某一維度)上的的平均值,主要用作降維或者計算tensor(圖像)的平均值。 reduce_mean(input_tensor,          

原创 如何理解卷積神經網絡中的1*1卷積

我們都知道,卷積核的作用在於特徵的抽取,越是大的卷積核尺寸就意味着更大的感受野,當然隨之而來的是更多的參數。早在1998年,LeCun大神發佈的LetNet-5模型中就會出,圖像空域內具有局部相關性,卷積的過程是對局部相關性的一種抽取

原创 如何理解卷積神經網絡中的權值共享

權值共享這個詞最開始其實是由LeNet5模型提出來,在1998年,LeCun發佈了LeNet網絡架構,就是下面這個: 雖然現在大多數的說法是2012年的AlexNet網絡是深度學習的開端,但是CNN的開端最早其實可以追溯到LeN

原创 OpenCV座標體系+minMaxLoc的使用細節

  相信很多朋友在使用OpenCV的時候會遇到一個小問題,且有時候對這樣的小問題沒有引起足夠的重視,或者通過表面想當然的去編程,所以調試代碼時出現一些莫名其妙的問題,最後發現問題時時間已經過去了一大把。最近我在調試一個項目時就遇到過這種情

原创 ReLU爲什麼比Sigmoid效果好,有何不同?

非線性激活函數 • Sigmoid • ReLU (Rectified Linear Unit) ReLU: f(x)=max(0,x)。顯然,輸入信號<0時,輸出都是0;輸入信號>0 的情況下,輸出等於輸入。   ReLU激活函數 R

原创 【Deep Learning 】深度模型中的優化問題(六)之RMSprop(自適應算法2)

本文是Deep Learning 之 最優化方法系列文章的RMSprop方法。主要參考Deep Learning 一書。 以下節選自個人深度學習筆記。 內容整合來源於網絡與個人理解。   RMSprop 口RMSprop是一種改進的Ada