原创 HDU 小兔的棋盤(卡特蘭數)

小兔的棋盤Problem Description小兔的叔叔從外面旅遊回來給她帶來了一個禮物,小兔高興地跑回自己的房間,拆開一看是一個棋盤,小兔

原创 CNN——卷積、池化與誤差反向傳播

卷積神經網絡(CNN) 組成:輸入層、卷積層、激活函數、池化層、全連接層 卷積神經網絡中重要概念就: 深度:深度大小就等於所用的filter的個數[卷積層],也可以理解爲提取的層數。 權值共享:給一張輸入的圖片用同一個filter

原创 機器學習前期知識點整理(已停更)

一、貝葉斯公式 二、後驗概率,最大後驗概率 三、激活函數(rule,sigmid,tanh) 四、BP算法思想 五、損失函數(均方誤差mse、自定義損失函數、交叉熵) 六、K近鄰算法(曼哈頓距離、歐式距離、夾角餘弦、卡爾德相似係數

原创 Python 數組

原文鏈接:https://blog.csdn.net/zydz/article/details/78149982 1、Python的數組分三種類型: (1) list 普通的鏈表,初

原创 Crazy Rows(2009 Round2 A)

Problem You are given an N x N matrix with 0 and 1 values. You can swap any two adjacent rows of the matrix. Your g

原创 最小生成樹之最大生成樹

原文鏈接:https://www.yuanmas.com/info/jmaNlegeOq.html poj 3723 Conscription 【最大生成樹|最大權森林】 題目

原创 2019算法從頭來

1.DFS 1.1部分和問題 1.2LakeCounting (POJ 2386) 2.BFS 2.1迷宮之最短路徑 2.2剪枝問題 3.貪心算法 3.1 硬幣問題 3.2 區間問題 3.3 字典序最小問題 3.4 其他(POJ

原创 0-1揹包與完全揹包的區別

0-1揹包 重要部分:每次每個物品最多隻能選擇一次。 題面:有n個重量和價值分別爲 Wi 與 Vi 的物品,現在從這些物品中挑選出總重量不超過 s 的物品,並且要求總價值最大。 輸入: n=4 S=5 (w,v) = {(2,3

原创 JAVA知識點總結(更新中)

一、類與對象 1、概念 類:一種事物的統稱,比如:人類、鳥類······ 對象:指一個具體實物,比如:桌子、狗······ 2、面向對象的三大特徵:封裝、繼承、多態。 3、對象中只含屬性跟方法兩個方面,屬性的話可以理解爲字面意思,

原创 HTML知識點總結(更新中)

一、各個標籤的作用 1、&lt;hr&gt;&lt;hr&gt;<hr>&lt;/hr&gt;&lt;/hr&gt;</hr>:畫一條橫線 2、&lt;br/&gt;&lt;br/&gt;<br/>:單標籤換行符 3、空格符:&

原创 機器學習測試二總結

1、卷積神經網絡計算公示: 卷積層與池化層輸出矩陣大小 C=[(T-F+2*P)/S]+1 C爲輸出矩陣尺寸,T爲待處理矩陣的尺寸,F爲濾波器矩陣尺寸,P爲填充矩陣(pooling),S爲步長 2、MLP是完全連通的有向圖,連接數

原创 CNN——池化與誤差反向傳播

卷積神經網絡(CNN) 組成:輸入層、卷積層、激活函數、池化層、全連接層 卷積神經網絡中重要概念就: 深度:深度大小就等於所用的filter的個數[卷積層],也可以理解爲提取的層數。 權值共享:給一張輸入的圖片用同一個filter

原创 L1 L2正則化

原文鏈接:https://www.cnblogs.com/lyr2015/p/8718104.html 正則化項L1和L2的區別 https://blog.csdn.net/

原创 python中yield的用法

原文鏈接:https://blog.csdn.net/mieleizhi0522/article/details/82142856 首先,如果你還沒有對yield有個初步分認識,那麼你先

原创 機器學習——決策樹

在看了大佬的博客以後我再這裏來說一下自己的理解,有不對的地方希望大家能夠指正,謝謝 一、決策樹的分類 決策樹按照數據類型可以分爲分類決策樹跟迴歸決策樹,二者的區別在於:分類決策樹是對離散的數據變量來進行決策的,迴歸決策樹是對連續