原创 基礎:常見的參數估計方法——MLE和MAP

抽樣、樣本數據 -->觀察數據趨勢 -->選擇模型 -->模型參數估計 -->假設檢驗 類別 名稱 核心函數 求解目標 點估計 最小二乘法 模型參數的誤差平方和函數 求偏導數,使誤差平方和最小 點估計 最大似然法 似然函數→平均對數似然函

原创 最大似然估計,最大後驗估計,貝葉斯估計聯繫與區別

           參考文獻:  1.https://blog.csdn.net/baimafujinji/article/details/51374202  2.https://blog.csdn.net/yt71656/articl

原创 貝葉斯推斷中的後驗概率、似然函數、先驗概率以及邊際似然定義

  全部定義 邊際似然  marginal likelihood (ML) 邊際似然計算算法實例 《Marginal likelihood calculation with  MCMC methods 》   參考 Haasteren

原创 MCMC 改進粒子濾波算法及其在目標跟蹤中的應用

1、粒子濾波算法 粒子濾波是一種貝葉斯次優估計算法,它擺脫瞭解決非線性濾波問題時隨機量必須 滿足高斯分佈的制約條件,並在一定程度上解決了粒子樣本匱乏問題,因此,近年來該算法在許多領域得到成功應用。 但是,粒子濾波中的粒子退化問題嚴重地限制

原创 遞歸貝葉斯濾波框架

遞歸貝葉斯濾波=預測+更新  預測: 更新:

原创 python實現Metropolis採樣算法實例

馬爾可夫鏈蒙特卡羅(Markov Chain Monte Carlo ,MCMC )方法主要算法有:Metropolis-Hastings (MH)算法、Metropolis採樣算法,以及吉布斯採樣方法,後兩者都可以看作是MH算法的特例。

原创 貝葉斯線性迴歸文章彙總

  一、常規線性迴歸及其求解方法 核心提煉 1、普通最小二乘法(OLS)的解析解可以用 Gaussian 分佈以及極大似然估計解釋; 2、Ridge 迴歸可以用 Gaussian 分佈和最大後驗估計解釋 ; 3、LASSO 迴歸可以

原创 從高斯過程(GP)到高斯過程迴歸

高斯過程 高斯過程迴歸 高斯過程迴歸的應用步驟 1、選取合適的核函數,並計算核矩陣; 2、將核矩陣作爲聯合高斯分佈的協方差矩陣,與歷史數據聯合計算條件概率分佈; 3、由條件概率分佈做線性迴歸預測。   文章列表 1、說說高斯過程迴歸 h

原创 tensorflow模型fintue、restore代碼技巧

Finetune or restore model In Tensorflow 打印模型參數名 import tensorflow as tf import logging import numpy as np logging.bas

原创 LSTM構建步驟以及static_rnn與dynamic_rnn之間的區別

1.構建LSTM  在tensorflow中,存在兩個庫函數可以構建LSTM,分別爲tf.nn.rnn_cell.BasicLSTMCell和tf.contrib.rnn.BasicLSTMCell,最常使用的參數是num_units,表

原创 深度學習論文中常見loss函數彙總(tensorflow代碼實現)

  1、Softmax交叉熵損失函數(多分類) 參考 (1)定義 def get_softmax_loss(features,one_hot_labels): prob = tf.nn.softmax(features + 1

原创 LSTM的訓練和測試長度(batch_size)不一樣報錯的解決方案

 問題: 在使用tf搭建lstm時,無論訓練還是測試時,都必須保持batch_size不變,否則會報錯,但搭建純CNN時並不會出現這種情況,有什麼解決方案嗎? 下面代碼是最開始模型的定義,由於這裏對init_state進行了zero初始化

原创 tensorflow使用LSTM代碼彙總

使用單個靜態rnn處理時序數據 import tensorflow as tf from tensorflow.contrib import rnn x=tf.placeholder("float",[None,time_steps,

原创 Tensorflow和keras使用預訓練模型進行Finetune的方法及步驟詳解

  目的        想直接在pretrain的模型上進行finetune,使用的框架分別是tensorflow和keras。 (1)預訓練權重的作用: 預測 特徵提取 微調 (2)Finetune過程: 構建圖結構,截取目標張量,添加