原创 自然語言幾個重要的模型

自然語言幾個重要的模型。 循環神經網絡 (序列模型序列依賴問題) 雙向循環神經網絡(輸入序列正向和反向依賴問題) 深度雙向循環神經網絡 LSTM(梯度消失問題) GRU text CNN(一維卷積和池化) seq2seq(序列到

原创 模型實踐(二)bert 中文語料分類

1.下載bert源代碼和中文預訓練模型 bert代碼 模型下載 Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameter

原创 小白來看:java反射與註解

1.反射獲取對象的變量和方法等信息。 Class c = user.getClass(); Field field = c.getDeclaredField("id"); Method method = c.getDeclared

原创 關鍵詞提取-TFIDF 自定義逆文檔IDF的值

TF-IDF 用於提取關鍵詞,那麼如何從多個文檔中提取出關鍵詞。文章的關鍵詞可能有什麼規律,表示文章主要意思,那這個詞應該在該文章中出現多次,但是在其他文章中出現次數不多。 TF 詞頻 (Term Frequency)表示w在文檔

原创 模型實踐(一)RNN LSTM 中文分類

對之前一節部分進行實踐,使用keras進行實現,keras關於循環神經網絡有多個方法。https://keras.io/zh/layers/recurrent/ SimpleRNN LSTM+CNN 樣本 使用ai挑戰賽用戶評

原创 小白Bert系列-生成pb模型,tfserving加載,flask進行預測

bert分類模型使用tfserving部署。 bert模型服務化現在已經有對應開源庫部署。 例如:1.https://github.com/macanv/BERT-BiLSTM-CRF-NER 該項目支持三種不同的任務 2.使用

原创 算法常見概念筆記

1.歸一化,標準化 歸一化:把數據投影到(0,1)或者(-1,1)之間的小數。 標準化:數據變成平均值爲0,標準差爲1的數。 中心化:均值爲0 區別:歸一化是將樣本的特徵值轉換到同一量綱下把數據映射到[0,1]或者[-1, 1]

原创 機器學習實戰(基於Sklearn和tensorflow)第二章學習筆記

機器學習實戰 書籍第二章例子學習筆記 書中源碼,here文中還有很多擴展知識和更新方法,很值得學習 本文地址here 注: 1.增加CustomLabelBinarizer轉換器解決參數傳遞問題(出現args參數數量錯誤) 2.

原创 小白bert參數計算

針對上圖分別從每個部分進行計算。 BERT-Base, Uncased 12層,768個隱單元,12個Attention head,110M參數 BERT-Large, Uncased 24層,1024個隱單元,16個head

原创 numpy常用筆記

1.降維 ravel()、flatten()、squeeze()、reshape(-1) ravel 如果沒有必要,不會產生源數據的副本 flatten 返回源數據的副本 源數據不會變化 squeeze 只能對維數爲1的維度降維

原创 小白gpu概述

GPU 之前看到一個用畫師的比喻感覺蠻好的。 GPU架構 一般來說越新性能越好,架構越好水平越好,類比畫師的水平。 流處理器 渲染管,流處理器數量越多,顯卡畫圖的能力越強,速度也越快。一般是同型號比較流處理器個數。類比畫師的個

原创 小白循環神經網絡RNN LSTM 參數數量 門單元 cell units timestep batch_size

小白循環神經網絡RNN LSTM 參數數量 門單元 cell units timestep batch_size RNN循環神經網絡 timestep batch_size LSTM及參數計算 keras中若干個Cell例如LS

原创 從零搭建一個tf2.0的web服務,包含mysql redis操作

從零搭建一個tf2.0的web服務,包含mysql redis 使用anaconda 來管理 https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/找一個使用自己環境的安裝包安

原创 小白來看:linux 下CPU && GPU && 磁盤信息查看

linux 下CPU && GPU && 磁盤信息查看 cpu cat /proc/cpuinfo 獲取全部cpu信息,其中physical id是物理cpu個數,也就是實際CPU個數。 core id cpu的核id cpu c

原创 小白來看:cpu核數、邏輯處理器及java和python如何跑滿CPU

cpu的四核 八邏輯處理器 這樣的處理器使用了超線程技術,所以每個核心是兩個線程,所以4個物理核心就是8個線程。 所以在操作系統的設備管理器裏面看到的CPU數量是實際物理CPU數量的兩倍 例如八個邏輯處理器 ,出去系統主線程。以w