原创 Pytorch 獲取神經網絡權重、偏執等參數

方法一:提取各層的參數 output_1=model.fc1.bias.data output_1=model.fc1.weight.data 方法二:提取模型中所有weight的參數(bias一樣) for name, paramete

原创 匈牙利算法-ACM

趣寫算法系列之--匈牙利算法(點擊打開鏈接):   【書本上的算法往往講得非常複雜,我和我的朋友計劃用一些簡單通俗的例子來描述算法的流程】   匈牙利算法是由匈牙利數學家Edmonds於1965年提出,因而得名。匈牙利算法是基於Hall定

原创 理解損失函數(理論)

數學準備   連續隨機變量的期望:假設X是連續的隨機變量,f(X)是其概率密度函數,那麼X的期望是: 0-1損失函數:當f(x)=y時,等於1,當f(x)≠y時,等於0。     性能度量與損失函數   機器學習的三要素就是:表示,評估

原创 POJ1651:Multiplication Puzzle(區間DP) -ACM

                                                                 POJ - 1651 Multiplication Puzzle(區間DP)   Time Limit: 1

原创 C++ 隨機生成具有上下限的整數或小數、字符串

當我們要使用隨機生成數時,可以直接調用cstdlib庫裏面的rand(  )函數,但是如果只用這一個函數的時候,每次運行程序的生成樹都是相同的(可自行測試),因爲隨機生成樹的種子默認爲1; 所以我們可以自己來定義一個隨機生成數種子sran

原创 損失函數分類

損失函數 機器學習模型關於單個樣本的預測值與真實值的差稱爲損失。損失越小,模型越好,如果預測值與真實值相等,就是沒有損失。 損失函數(Loss function)是用來估量模型的預測值 f(x) 與真實值 Y 的不一致程度,它是一個非負實

原创 SKlearn概述

SKlearn簡介 scikit-learn,又寫作sklearn,是一個開源的基於python語言的機器學習工具包。它通過NumPy, SciPy和Matplotlib等python數值計算的庫實現高效的算法應用,並且涵蓋了幾乎

原创 機器學習 嶺迴歸和lasso中乘調優參數λ的確定

轉自:https://blog.csdn.net/weixin_43374551/article/details/83688913 一、嶺迴歸 1.參數推導 線性迴歸模型的目標函數J(β)=∑(y−Xβ)2J(β)=∑(y−Xβ

原创 機器學習 Sparsity and Some Basics of L1 Regularization

轉載:http://freemind.pluskid.org/machine-learning/sparsity-and-some-basics-of-l1-regularization/#67364f6b44ff80f9f952

原创 KKT 直觀理解

KKT最優化條件是Karush[1939],以及Kuhn和Tucker[1951]先後獨立發表出來的。這組最優化條件在Kuhn和Tucker發表之後才逐漸受到重視,因此許多情況下只記載成庫恩塔克條件(Kuhn-Tucker con

原创 顯著性檢驗,T-test,P-value

備註: 源:https://www.cnblogs.com/hdu-zsk/p/6293721.html 顯著性檢驗,判定實驗結果是否由隨機誤差導致的。舉例很好,很清楚 雖然樣本中,均值蘇州銷售額大於鄭州,但T-test發現

原创 最小二乘法 幾何意義

上次寫了篇文章來闡述幾何投影與傅里葉級數的聯繫,今天我想談談幾何投影與最小二乘法的聯繫,這種聯繫的好處是不管多複雜的公式,又可以被瞬間記住了。本文的中心思想是:最小二乘法中的幾何意義是高維空間中的一個向量在低維子空間的投影。這個思

原创 機器學習 常用算法導讀

【新智元導讀】本文將帶你遍歷機器學習領域最受歡迎的算法。系統地瞭解這些算法有助於進一步掌握機器學習。當然,本文收錄的算法並不完全,分類的方式也不唯一。不過,看完這篇文章後,下次再有算法提起,你想不起它長處和用處的可能性就很低了。本文還附有

原创 機器學習 最小角迴歸法 LARS

在介紹最小角迴歸算法前,我們需要了解兩個相關算法,一個是前向選擇算法(Foward Selection),一個是前向梯度算法(Forward Statgewise)。 1.前向選擇算法(Foward Selection)   假設有Y=X

原创 機器學習 最小角迴歸 LARS

推薦閱讀:http://mlnotes.com/2013/08/21/lars.html