原创 <機器學習><基礎>leave one out Cross Validation 和 k-fold Cross Validation的區別

  Assume數據集樣本總量爲n LOOCV每次驗證集的樣本數量爲1,而K-fold驗證集的樣本數量爲n/k

原创 <機器學習><目標檢測>YoloV3詳解

PS: https://pjreddie.com/media/files/papers/YOLOv3.pdfyolov3的paper是我讀過所有paper裏最不像papaer的.像一篇journal article....  

原创 ubuntu18 ,matplotlib畫圖失敗,plt.show,不顯示

  因爲plt默認畫圖工具爲agg,而在ubuntu18中我們需要換爲tk才行. $ sudo apt-get install tcl-dev tk-dev python-tk python3-tk $ workon plo

原创 python數據預處理小技巧

1.數據中心化 將數據規整到[0,1]間: def normalize(arr):   arr = arr - arr.min()   arr = arr / arr.max()   return arr   將數據規整到[-1,1]間

原创 xxx

https://neurips.cc/Conferences/2019/CallForCompetitions

原创 python, pip install下載慢,超時,網絡問題解決

pip從pypi下載第三方庫存在網絡問題,下載慢,超時,可以通過換源解決: 阿里鏡像源是所有鏡像源中最高效的,我們採用阿里鏡像源. 1.從pip配置中修改下載源:(一勞永逸的方法) 將文件 ~/.pip/pip.conf 文件添加或修改:

原创 linux/ubuntu,python3,pip3用起來不舒服

我的ubuntu18同時有python3.6和python2.7兩個python版本,所以用起來有python &pip 和python3&pip3兩個存在導致很不舒服,因爲python2.7的存在只是爲了給某應用提供background支

原创 <強化學習>無模型下計算給定策略對應的價值函數,Model free Prediction,評估一個給定策略的表現

一、Intro   Prediction只是評估給定策略的表現,直白的說它是找 “在環境ENV下,AGENT按照給定的策略pai,AGENT的價值函數”。   這篇blog只介紹三種計算方法,沒有涉及到 “求取ENV下的最優AGENT”!

原创 <組合數學>幻方

我們小時候都玩過數獨,數獨就是以幻方爲基礎的遊戲。     行/列的整數和爲該幻方的幻和。 我們用s表示幻和。 對於一個n階的幻方,幻和   s = n*(n*n+1) /2   容易證明,二級幻方不存在。 三十多年前,有人已證明:n>=3

原创 <強化學習> on policy VS off policy

默認價值函數爲Q(s,a),策略迭代更新爲pai <—— epsilon-greedy(Q)   policy是agent的屬性,決定了agent面對某狀態s時會選擇哪個行爲a   value是agent的感覺,代表着agent對某個(s,

原创 <組合數學>開門帖

現在是2020年2月9號。開始跟清華馬昱春老師的“組合數學”課程。https://next.xuetangx.com/course/THU08091000450/1511794   數學的發展史,從16世紀的初等數學,到以高等數學和線性代數

原创 <強化學習>馬爾可夫決策過程MDP

    一.MDP  / NFA    :馬爾可夫模型和不確定型有限狀態機的不同 狀態自動機:https://www.cnblogs.com/AndyEvans/p/10240790.html MDP和NFA唯一相似的地方就是它們都有狀態轉

原创 <組合數學>排列組合(1)/格路模型,範德蒙德恆等式

  1.排列(permutation):   從n個不同的元素中,取出r個不重複的元素,按次序排列,稱爲從n箇中取r個的無重排列。   排列的個數用P(n,r)表示或Prn     n>=r       //高中的時候教材教我們Arn ,跟

原创 <組合數學>排列組合(2)/可重組合,不相鄰組合,SJT算法

  1.圓排列和項鍊排列   我記得上高中的時候,做題的時候就遇到過圓形排列組合的題,我們高中不學圓排列和項鍊排列,當時也不敢問這是怎麼回事,老師講課的時候就照本宣章,我們就按照套路解題。   圓排列問題最早出現在中國《易經》的四象八卦組

原创 <強化學習>從傳統方法到現代方法

在過去,使用一個表格來存儲V(s)或Q(s,a)   如果已知完整MDP,V(s),也就是有完整模型,也有狀態轉移概率矩陣,那DP求狀態價值期望解貝爾曼最優方程就🆗了   如果MDP不完整,Q(s,a),沒有狀態轉移概率矩陣,這是大多數情況