原创 又見貝葉斯算法--ython

目錄 貝葉斯要解決的問題: 爲什麼要使用貝葉斯: 理解貝葉斯例子: 計算過程: 貝葉斯公式: 貝葉斯公式推導  python經典取球實例:  python拼寫糾正實例: 模型比較理論 求解:argmaxc P(c|w) -> ar

原创 2019年計算機會議

1、CVPR 2019: IEEE Conference on Computer Vision and Pattern Recognition Deadline:Nov 16, 2018 (6) Conference Date:Jun

原创 java解析json的方法

JSON數據解析的有點在於他的體積小,在網絡上傳輸的時候可以更省流量,所以使用越來越廣泛,下面介紹使用JsonObject和JsonArray的兩種方式解析Json數據。 使用以上兩種方式解析json均需要依賴json-lib.j

原创 BERT-深度模型的里程碑

今天看到了一則令NLP人振奮的消息,谷歌發佈了遷移學習之最強模型-BERT,該模型一舉打破了11項紀錄,尤其是在斯坦福大學的SQuAD數據集上再次超越了人類評測專家標準,包括將GLUE基準推至80.4%(絕對改進7.6%),Multi

原创 word2vec訓練中文語料

最近在做一個問答系統,看了很多論文,主要學習作者是如何進行做問答的,大都是這個過程: 1、構建語料庫; 2、訓練詞向量; 3、問題間和問答間的相似度對比; 4、在線搜索答案。 5、信息抽取; 6、生成答案。 網上大都是對wiki百科開

原创 Linux配置深度學習環境

今天在阿里雲上申請了一個深度學習服務器,碰到了很多坑,在網上查了好多資料,大都是自己電腦可以別的電腦就不可以的那種,整合了多個博客的文章才把環境配置好,現在寫一個完整的配置方案,以後用起來就方便多了,也供大家參考。 一、首先安裝nvi

原创 正則表達式實現添加、刪除、替換三種功能

本文的一段實例代碼實現了通過用正則表達式來對某一個句子的添加、替換、刪除三種操作,本文給大家介紹的非常詳細,具有一定的參考借鑑價值,需要的朋友參考下吧 最近呢,公司讓寫一個組件,要求用正則表達式構建一箇中文的匹配組

原创 BiDAF筆記

本文轉載於http://www.shuang0420.com/2018/04/01/%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%20-%20Bi-Directional%20Attention%20Flo

原创 python3 pdf轉成txt

這兩天在做一個pdf轉txt文檔的工作,真是搞的頭大,pdf本來就不好搞,還要轉成txt文檔,在網上和github上查了一番資料,好的是關於python轉txt文檔的還不少,不好的是大都是關於python2.x版本的,無奈。。。。。

原创 python封裝成exe

最近寫了一個小小的程序,需要進行封裝exe,爲了簡單,就直接用了pyinstaller這個模塊,對於python3.6版本的童鞋來說,簡直方便的不要。下面就給大家介紹一下如何用pyinstaller去封裝程序爲exe程序。 首先,需要

原创 "GET /CPIS/static/css/index.css HTTP/1.1" 404 2389

今天在引入css靜態文件的時候發現前端的根本加載不出來效果,感覺很鬱悶,以前直接引入就可以的,後來度了很多網站,總結了很多,這才改好了。 我們默認的setting中最後這是這樣的 沒有明確的引入css文件,所以在setti

原创 句子相似度實現算法

句子相似度–顧名思義就是兩個句子之間相似的程度。 句子相似度在NLP中有很大的用處,譬如文本分類、信息檢索、語義分析等,它可以爲我們提供檢索信息更快的方式,並且得到的信息更加準確。 基於傳統的相似度算法,可以分爲以下幾個步驟:

原创 吳恩達之神經網絡和深度學習-2.9logistic迴歸中的梯度下降算法

本節課是按照三個函數來進行的,由3個函數進行梯度下降算法的計算。 z=wTx+bz=wTx+b y^=a=σ(z)=11+e−zy^=a=σ(z)=11+e−z L(a,y)=−(ylog(a)+(1−y)log(1−a))L(a,

原创 吳恩達之神經網絡和深度學習-2.14python中的廣播機制

關於廣播機制,小編我也是入門級別的,只能把吳學閥的東西來給大家展現一下,有什麼不足或者需要補充的地方,希望大家可以踊躍留言,小編必定虛心接受、改進。 ⎡⎣⎢⎢⎢                 apple beef eggs potato

原创 吳恩達之神經網絡和深度學習-2.13向量化正向傳播

這節課將會看到向量化是如何對正向傳播進行實現,並且完全避免for循環的使用,首先,回顧一下兩個公式: z(i)=wTx(i)+bz(i)=wTx(i)+b a(i)=σ(z(i))a(i)=σ(z(i)) wTwT 是一個1*m的矩