原创 關於Python中groupby,merge,concat的運用和這幾個函數之間的區別
https://blog.csdn.net/qq_34071917/article/details/82192441
原创 卡方檢驗解釋
https://blog.csdn.net/ludan_xia/article/details/81737669
原创 python __slots__方法使用
__slots__:作用是限制實例的屬性 正常情況下,當我們定義了一個class,創建了一個class的實例後,我們可以給該實例綁定任何屬性和方法,這就是動態語言的靈活性。先定義class: class Student(obje
原创 支持向量機SMO算法
https://blog.csdn.net/willbkimps/article/details/54697698
原创 神經網絡的 batch normalition
https://blog.csdn.net/meanme/article/details/48679785 1:背景 由於在訓練神經網絡的過程中,每一層的 params是不斷更新的,由於params的更新會導致下一層輸入的分佈情況發生改變
原创 機器學習的歸一化和標準化
一般做機器學習應用的時候大部分時間是花費在特徵處理上,其中很關鍵的一步就是對特徵數據進行歸一化,爲什麼要歸一化呢? 很多同學並未搞清楚,維基百科給出的解釋: 1)歸一化後加快了梯度下降求最優解的速度, 主要是加快梯度下降法收斂速度。 2)
原创 python函數中的*args,**kw參數
https://blog.csdn.net/maliao1123/article/details/52152989 *args是非關鍵字參數,用於元組,**kw是關鍵字參數,用於字典 def foo(*args, **kwargs):
原创 2020年攜程算法工程師(1卷)第一題,每個不同字符最長字符串長度
s='aabbcddc' 要求輸出 2,2,4 s = 'aabbcddc' dic = {} lis = [] new_start = 0 for index,i in enumerate(s): if index <= ne
原创 python學習動態規劃
動態規劃是什麼,意義在哪裏: 今天花了幾個小時,重新理解了一下dp。。。 首先我們要知道爲什麼要使用dp,我們在選擇dp算法的時候,往往是在決策問題上,而且是在如果不使用dp,直接暴力效率會很低的情況下選擇使用dp. 那麼問題來了,什麼時
原创 Dijkstra算法最清楚的講解
https://blog.csdn.net/heroacool/article/details/51014824
原创 關於機器學習集成算法
2019年8月24開始跟新 決策樹(decesion tree) https://blog.csdn.net/HUNXIAOYI561/article/details/89406610(決策樹) 隨機森林(RF) adaboost 提升樹
原创 協同過濾推薦算法總結
https://blog.csdn.net/u011095110/article/details/84403564
原创 機器學習常見的損失函數
https://blog.csdn.net/heyongluoyao8/article/details/52462400
原创 方差,協方差
在機器學習PCA,ARIMA中涉及到了方差var和協方差cov,這裏簡單總結下。 首先:均值,樣本方差,樣本協方差的公式爲: 均值: 方差: 樣本方差: 樣本協方差 : 首先我們應該清楚的區分兩個