原创 關於Python中groupby,merge,concat的運用和這幾個函數之間的區別

https://blog.csdn.net/qq_34071917/article/details/82192441

原创 卡方檢驗解釋

https://blog.csdn.net/ludan_xia/article/details/81737669

原创 python __slots__方法使用

__slots__:作用是限制實例的屬性     正常情況下,當我們定義了一個class,創建了一個class的實例後,我們可以給該實例綁定任何屬性和方法,這就是動態語言的靈活性。先定義class: class Student(obje

原创 支持向量機SMO算法

https://blog.csdn.net/willbkimps/article/details/54697698

原创 神經網絡的 batch normalition

https://blog.csdn.net/meanme/article/details/48679785 1:背景 由於在訓練神經網絡的過程中,每一層的 params是不斷更新的,由於params的更新會導致下一層輸入的分佈情況發生改變

原创 機器學習的歸一化和標準化

一般做機器學習應用的時候大部分時間是花費在特徵處理上,其中很關鍵的一步就是對特徵數據進行歸一化,爲什麼要歸一化呢? 很多同學並未搞清楚,維基百科給出的解釋: 1)歸一化後加快了梯度下降求最優解的速度, 主要是加快梯度下降法收斂速度。 2)

原创 python函數中的*args,**kw參數

https://blog.csdn.net/maliao1123/article/details/52152989 *args是非關鍵字參數,用於元組,**kw是關鍵字參數,用於字典 def foo(*args, **kwargs):

原创 2020年攜程算法工程師(1卷)第一題,每個不同字符最長字符串長度

s='aabbcddc' 要求輸出 2,2,4 s = 'aabbcddc' dic = {} lis = [] new_start = 0 for index,i in enumerate(s): if index <= ne

原创 python學習動態規劃

動態規劃是什麼,意義在哪裏: 今天花了幾個小時,重新理解了一下dp。。。 首先我們要知道爲什麼要使用dp,我們在選擇dp算法的時候,往往是在決策問題上,而且是在如果不使用dp,直接暴力效率會很低的情況下選擇使用dp. 那麼問題來了,什麼時

原创 Dijkstra算法最清楚的講解

https://blog.csdn.net/heroacool/article/details/51014824

原创 關於機器學習集成算法

2019年8月24開始跟新 決策樹(decesion tree) https://blog.csdn.net/HUNXIAOYI561/article/details/89406610(決策樹) 隨機森林(RF) adaboost 提升樹

原创 協同過濾推薦算法總結

https://blog.csdn.net/u011095110/article/details/84403564

原创 機器學習常見的損失函數

https://blog.csdn.net/heyongluoyao8/article/details/52462400

原创 方差,協方差

在機器學習PCA,ARIMA中涉及到了方差var和協方差cov,這裏簡單總結下。  首先:均值,樣本方差,樣本協方差的公式爲: 均值:             方差:   樣本方差:    樣本協方差 :    首先我們應該清楚的區分兩個