原创 docker 安裝hadoop2.8.5和spark2.4.0

win7 + docker+ubuntu+java-1.8+hadoop-2.8.5+spark-2.4.0 win7系統下,docker的安裝,本人是利用Docker Toolbox進行安裝 參考博客:https://blog.csdn

原创 條件隨機場CRF(Conditional Random Field)

       ⼀個重要的要求是,我們保留了推斷的⾼效算法,它與鏈的長度是線性關係。例如,這要求,在給定觀測的條件下,表⽰的後驗概率分佈的量在與轉移概率和發射概率相乘然後在上求和或積分之後,我們得到的上的概率分佈與上的概率分佈具有相同的函數

原创 python深度學習---生成式對抗網絡(GAN)

 生成式對抗網絡(GAN,generative adversarial network)由 Goodfellow 等人於 2014 年提出,它可以替代VAE來學習圖像的潛在空間。 ''' # 它能夠迫使生成圖像與真實圖像在統計上幾乎無

原创 梯度提升樹GBDT-XGBoost

目錄 一、構造目標函數:  二、目標函數的近似 三、把樹的結構引入目標函數(參數化) 1.參數化 2.參數化 3.利用定義的變量整合目標函數 四、生成樹的過程,利用貪心算法     主要根據貪心科技李文哲老師直播視頻記錄 Bagging與

原创 UEFI模式創建Grub2引導ubuntu16.04和windows10,並安裝Linux Nvidia驅動

目錄 說明:正如EasyBCD官網文檔https://neosmart.net/wiki/easybcd/uefi/ 說的那樣:                       ​ 1.Linux的安裝 2.下載DiskGenius 3.製作

原创 CRF(Conditional Random Field)

       ⼀個重要的要求是,我們保留了推斷的⾼效算法,它與鏈的長度是線性關係。例如,這要求,在給定觀測的條件下,表⽰的後驗概率分佈的量在與轉移概率和發射概率相乘然後在上求和或積分之後,我們得到的上的概率分佈與上的概率分佈具有相同的函數

原创 HMM(Hidden Markov Model)

HMM定義 上圖爲HMM的貝葉斯網絡,【不可觀察的前提下,都不獨立,不滿足條件獨立判定條件(tail-to-tail)】         隱馬爾科夫模型(HMM, Hidden Markov Model)可用於標註問題,在語音識別、NL

原创 採樣

--------七月在線機器學習筆記 目錄   帶拒絕的採樣分析 對某概率分佈函數進行採樣的意義  用採樣改造EM算法本身  馬爾科夫連模型 概率轉移矩陣 馬爾科夫隨機過程的平穩分佈 馬爾科夫隨機過程與採樣 細緻平穩條件 設定接受率 MC

原创 EM算法和GMM高斯混合模型

---------------七月在線機器學習筆記 通過極大似然估計詳細推導EM 似然函數:找出與樣本的分佈最接近的概率分佈模型,即找到可能分佈模型的最佳參數 假設分佈爲,每個樣本相互獨立,則 爲了簡化求導,這裏取對數似然函數:   

原创 SVM and SMO(Sequencial Minimal Optimization)

主要參考博客 1.SVM_SMO-Python代碼實現   https://blog.csdn.net/zouxy09/article/details/17292011 2.通俗講解SVM  SVM---https://blog.csdn

原创 貝葉斯網絡

條件概率: 全概率公式: 貝葉斯(Bayes)公式: 樸素貝葉斯的假設            1.一個特徵出現的概率,與其他特徵(條件)獨立(特徵獨立性)-------對於給定分類的條件下,特徵獨立            2.每個特

原创 python深度學習--LSTM生成文本

import numpy as np import pandas as pd import matplotlib.pyplot as plt import pylab from pandas import DataFrame, Seri

原创 python深度學習--神經風格遷移

 神經風格遷移(neural style transfer) 神經風格遷移(neural style transfer)它由 Leon Gatys 等人於 2015 年夏天提出[“A neural algorithm of artist

原创 python深度學習--DeepDream

 #DeepDream 是一種藝術性的圖像修改技術,它用到了卷積神經網絡學到的表示 ''' #DeepDream 算法與前面的卷積神經網絡過濾器可視化技術幾乎相同,都是反向運行一個cnn:對cnn的輸入做梯度上升,以便將cnn靠頂部的某一

原创 Adaptive basis function models -----Adaboost

Adaptive basis function models ------七月算法*機器學習筆記 核方法:一個函數可以表示爲多個基函數的加權求和              --當時,爲線性基函數,這會給模型帶來巨大的侷限性,因此將輸⼊變量