原创 java學習二:Serializable序列化(20190404)

1.Serializable:將對象的狀態信息轉換爲可以存儲或傳輸的形式的過程,在序列化期間,對象將其當前狀態寫入到臨時存儲區或持久性存儲區,之後,便可以通過從存儲區中讀取或反序列化對象的狀態信息,來重新創建該對象 2. private

原创 summaRuNNer算法解讀,用於提取式和生成式摘要提取

https://blog.csdn.net/qq_25222361/article/details/78667850 上面這個哥們對算法的解讀還是很不錯的,看完了文章我補充一點: 在訓練提取式摘要時,由於數據集基本都是人工標註的生成式摘要

原创 簡單粗暴python3.幾安裝pyltp庫,不要相信那些亂七八糟的了!!!!

參考了這個哥們的,謝啦!我又補充了兩點!!! 1、安裝wheel   下面兩個文件針對不同的python版本下載一個即可 pyltp-0.2.1-cp35-cp35m-win_amd64.whl pyltp-0.2.1-cp36-cp36

原创 BERT破的11項紀錄具體都是什麼?

百度也百度不到,自己看論文歸納了一下,有問題可以指出: 1.  MultiNLI(multi-genre natural language inference,文本蘊含識別)      文本間的推理關係,又稱爲文本蘊含關係。樣本都是文本

原创 maven的作用與解讀

https://www.cnblogs.com/hongwz/p/5456578.html

原创 python2中的編碼問題

https://blog.csdn.net/apache0554/article/details/53889253 這個博主寫得很詳細啊,這下算是徹底明白了哈哈哈哈哈哈   前言:中文編碼問題一直是程序員頭疼的問題,而Python2中的字

原创 tensorboard畫loss及acc曲線

轉載 https://blog.csdn.net/weixin_39674098/article/details/79242073  

原创 通俗理解glove詞向量,較word2vec的區別

寫得這麼通俗易懂,不僅是公式推導(雖然這個也沒啥推導的),加入例子更好理解整個過程。整個過程相較於word2vec的訓練過程來說,只是對真值做了改變和對損失函數的推導過程,當然裏面也有一些巧妙的思路,不僅僅是湊巧。還有就是較word2ve

原创 黎曼函數

https://bbs.hupu.com/23711286.html http://www.doc88.com/p-5995843773768.html 首先對這個TODD函數一臉懵逼,查了點資料說是和精細結構常數(但是,問題來了,阿蒂亞

原创 通俗理解數學的七大難題及希爾伯特23個數學問題

1.P=NP?  首先引用《嫌疑人X的獻身》裏面的內容,假設把其中的謀殺案這個結果看做是一個方程,x^2+y^3+z=78,那麼石神爲湯川設計了一個答案是x=3,y=4,z=5,湯川去證明這個解是正確的是很簡單的(P),也符合常理的,但如

原创 lstm訓練推導過程及代碼詳細實現(轉載)

https://zybuluo.com/hanbingtao/note/581764 寫的真的很仔細,有興趣的可以自己再推導一遍,並實現一下代碼

原创 n-gram language model

http://www.cnblogs.com/taojake-ML/p/6413715.html

原创 ptr_network實現詳細講解

Ptr_Network處理的是以下的問題,輸入的樣本分爲三個部分,part1爲隨機生成6到10個元素,每個元素值在1到5之間;part2爲隨機生成6到10個元素,每個元素值在6到10之間;part3爲隨機生成6到10個元素,每個元素值在1

原创 初學python、anaconda和pycharm安裝時的問題及解決方案

1、本人python的安裝的版本爲3.6,可以在這裏下載 python3.6下載,windows 64位記得下載下面這個2、 系統環境的配置根據你的安裝目錄添加到環境變量即可。3、anaconda下載地址,與上面的python版本相對應,

原创 HMM算法分詞訓練及測試過程

首先是訓練,HMM的訓練只是對有標籤的數據進行了統計處理。 1. StatusSet爲狀態矩陣,狀態值集合爲(B, M, E, S): {B:begin, M:middle, E:end, S:single}。 2.  統計每個句子的開頭