原创 Kaggle入門之基於CNN的數字識別

Digital Recognizer Gang Ma 9/10/2018 1. 介紹 2. 數據預處理 2.1 加載數據 2.2 檢查是否有null和缺失值 2.3 標準化和歸一化 2.4 修改數據到指定維度 2.5 編碼標籤

原创 nlp-bert

BERT 來自於 transformer seq2seq 輸入是什麼? 兩個損失函數任務的計算介紹 一些應用方法:

原创 nlp-transformer

需要學習的知識點: Transformer中的encoder是幹嘛的?怎麼做的? Self的計算方式 向量化計算 多頭注意力 組合多頭生成的z 整個流程的簡介 多頭注意力實際解釋 位置編碼是什麼? 實例解釋 直

原创 胃不好,胃酸多,喫什麼養胃?

養胃開場: 古人云:治胃三七分,三分治,七分養。七分養應該在三分治的基礎上進行,經全面檢查確診後進行系統治療,並配合精神方面進行調養,才能達到理想的治療效果。胃就像一部每天不停工作的機器,食物在消化的過程中會對黏膜造成機械性的損傷

原创 keras自定義loss的兩個例子

Lookahead和LazyOptimizer和AccumOptimizer lookahead用法: model.compile(optimizer=Adam(1e-3), loss='mse') # 用你想用的優化器 look

原创 tf.keras一些操作和問題(不斷補充)

1. tf.keras下載的預訓練模型位置: 對於windows10,位置在:C:\Users\USER.keras\models 1.修改下載好的權重路徑 提前下好對應的預訓練模型,然後修改路徑爲從本地讀取 例如:從VGG進入定

原创 Loaded runtime CuDNN library: 7101 (compatibility version 7100) but source was compiled with 7005解決

主要是cudnn版本不兼容問題: 首先找到對應文件下cuda的位置: 本人電腦配置有兩個cuda 一個適用與tf2.0及其以上版本, v10.0 一個適用與tf2.0以下版本, v9.0 其實這個版本不影響,主要是路徑(C:\P

原创 稀疏貝葉斯推斷:基礎之高斯與正態

摘要 高斯分佈,被譽爲“上帝的分佈”,具有強悍的建模能力和優美的數學性質,在現實中有廣泛的作用。 由中心極限定理我們知道, 大量獨立同分布的隨機變量的均值在做適當標準化之後會依分佈收斂於高斯分佈, 這使得高斯分佈具有普適性的建模能

原创 稀疏貝葉斯相關代碼和論文

論文:Structured Bayesian Gaussian process latent variable model: applications to data-driven dimensionality reduction

原创 [keras使用出現] model.save() raise NotImplementedError 調節(ModelCheckpoint)函數

在更改resnet時保存最優模型出現的問題 是因爲在使用檢查點時,默認還是使用了 paralleled_model.save() ,進而導致錯誤。爲了解決這個問題,我們需要自己定義一個召回函數。 三種方法: 法一 original

原创 稀疏貝葉斯推斷:推導

簡介 稀疏貝葉斯學習(sparse bayesian learning,SBL)是稀疏信號重構的方法之一,其性能相當於重加權的ℓ1範數恢復方法,並且不需要設置正則化參數,在目標定位,生物醫學信號提取等方面被廣泛應用。 設計知識包括

原创 CRF條件隨機場

softmax與條件隨機場 逐幀softmax CRF主要用於序列標註問題,可以簡單理解爲是給序列中的每一幀都進行分類,既然是分類,很自然想到將這個序列用CNN或者RNN進行編碼後,接一個全連接層用softmax激活,如下圖所示

原创 英語寫作: 替換詞

經典替換詞: individuals, characters, folks 替換 people , persons. positive, favorable, rosy, promising, perfect, pleasura

原创 keras之自定義層和部分loss

層的自定義 Keras中自定義層及其一些運用技巧,在這之中我們可以看到Keras層的精巧之處。 基本定義方法 在Keras中,自定義層的最簡單方法是通過Lambda層的方式: from keras.layers import *

原创 NLP:自迴歸(Autoregressive LM)與自編碼語言模型(Autoencoder LM)

鏈接:https://zhuanlan.zhihu.com/p/70257427 自迴歸 根據上文內容預測下一個可能跟隨的單詞,就是常說的自左向右的語言模型任務,或者反過來也行,就是根據下文預測前面的單詞,這種類型的LM被稱爲自迴