原创 leetcode數組中的問題(八)

  目錄 1013. 將數組分成和相等的三個部分 697. 數組的度 896. 單調數列 1232. 綴點成線 面試題53 - II. 0~n-1中缺失的數字 1018. 可被 5 整除的二進制前綴 54. 螺旋矩陣 1346. 檢查整數

原创 leetcode數組中的問題(六)

目錄 1266. 訪問所有點的最小時間 258. 各位相加 1252. 奇數值單元格的數目 面試題 01.01. 判定字符是否唯一 1051. Height Checker 1064. 不動點 561. 數組拆分 I 1217. 玩籌碼

原创 傳統機器學習-神經網絡學習(吳恩達機器學習筆記)

非線性假設 爲什麼要引入神經網絡算法?         因爲若在邏輯迴歸模型的基礎上僅僅通過增加特徵(比如增加高階多項式項數)來建立複雜的非線性分類器,可能會造成過擬合,而且在原有特徵個數n很大的時候,即是隻包含平方項或立方項,最終特徵數

原创 125. 揹包問題 II

寫在前面,如果有更好的方法可以給博主分享一下麼,木有vip,看不到lintcode的題解,謝謝啦 題目描述: lintcode: https://www.lintcode.com/problem/backpack-ii/descripti

原创 傳統機器學習-線性迴歸(吳恩達機器學習筆記)

目錄 模型的定義 損失函數 參數的求解 梯度法 正規方程解 模型的定義 將m個樣本,n個特徵的訓練集表示爲: 對於線性迴歸,我們假設(爲了方便起見,我們令) 其中是待學習的參數,即是我們取的n個特徵,其中第一項,即是表示截距。 損失函數

原创 92. 揹包問題

寫在前面,如果有更好的方法可以給博主分享一下麼,木有vip,看不到lintcode的題解,謝謝啦 題目描述 https://www.lintcode.com/problem/backpack/description 在n個物品中挑選若干物

原创 傳統機器學習-正則化(吳恩達機器學習筆記)

解決過擬合的方法 1、減少特徵數                人工挑選留下的特徵           模型選擇算法 2、正則化      會保留所有的特徵,但是會控制每一個參數的幅度(參數值較小意味着一個更簡單的假設模型。參數值越小,

原创 562. 揹包問題 IV

寫在前面,如果有更好的方法可以給博主分享一下麼,木有vip,看不到lintcode的題解,謝謝啦 題目描述 https://www.lintcode.com/problem/backpack-iv/description 給出 n 個物品