原创 keras使用callback造自己的monitor函數

fit_generator函數 callback類 keras.callbacks.ModelCheckpoint是一個常見的callback類,其重寫了on_epoch_end函數,在每個epoch結束保存模型數據進入文件。

原创 A Unified MRC Framework for Named Entity Recognition | ACL2020

論文地址: https://arxiv.org/pdf/1910.11476.pdf 1.論文目的 該論文主要解決 ""嵌套型"的NER(Nested NER) 的問題.往常的工作中主要是針對非嵌套型”的NER(Flat NER)

原创 二值化方法

一、全局閾值法 1.固定閾值方法 該方法是對於輸入圖像中的所有像素點統一使用同一個固定閾值。其基本思想如下: 其中,T爲全局閾值。   缺點:很難爲不同的輸入圖像確定最佳閾值。   2.Otsu算法 Otsu算法又稱最大類間方差法 先明

原创 CHAPTER 14 -Recurrent Neural Networks

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Recurrent Neurons   到目前爲止,我們主要關注的是前饋神經網絡,其中激活僅從輸入層到輸出層的一個方向流動(附錄E中的幾個網絡除外)。 循環神經網絡看起來非常像一個前饋

原创 Bert模型結構——源碼

昨天同事突然問我"BERT論文中的圖,雖然畫了多個transformer block,但一層是不是相當於只有一個??",我當時也有點懵逼,後來看了源碼弄清楚了,今天就寫一下 Bert整個代碼 class BertModel(Be

原创 Docker:Ubuntu容器中中文亂碼的解決辦法

查看容器語言環境 $ locale LANG= LANGUAGE= LC_CTYPE="POSIX" ...... 查看容器支持的語言 $ locale -a C C.UTF-8 POSIX 修改

原创 nvidia驅動升級和nvidia-docker2安裝

1.nvidia驅動安裝 (1)移除舊驅動 sudo apt-get purge nvidia\* #部分 Debian 系發行版版本可能不支持 apt-get purge ,可嘗試使用 apt-get remove –pur

原创 matplotlib——對座標的控制,加圖例註釋

我們可以使用matplotlib.pyplot.locator_params()來控制刻度線定位器的行爲。 即使通常會自動確定標記點的位置,但是如果我們想要繪製較小的標記,則可以控制標記點的數量並使用緊密的視圖: from pylab

原创 CHAPTER 9 -Up and Running with TensorFlow part2

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. 存儲和回覆模型 一旦你訓練了你的模型,你應該把它的參數保存到磁盤,所以你可以隨時隨地回到它,在另一個程序中使用它,與其他模型比較,等等。 此外,您可能希望在培訓期間定期保存檢查點,以便

原创 怎麼啓動tensorboard呢?之anaconda版(轉載請聲明)

網上面看了一大堆自己摸索出來了個方法: 我之前在cmd運行的時候找不到tensorboard. 後來我是直接在anaconda prompt進去的.注意這裏要進去TensorFlow的環境下才行.你可以 activate TensorF

原创 CHAPTER 11-Training Deep Neural Nets-part4

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Avoiding Overftting Through Regularization 有四個參數,我可以fit一個大象,五個我可以讓他擺動他的象鼻。 —John von Neumann

原创 Chapter 13. Convolutional Neural Networks

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Convolutional Layer CNN最重要的組成部分是卷積層:第一卷積層中的神經元不是連接到輸入圖像中的每一個像素(就像它們在前面的章節中那樣),而是僅僅連接到它們的局部感受

原创 CHAPTER 11-Training Deep Neural Nets-part3

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Faster Optimizers  訓練一個非常大的深度神經網絡可能會非常緩慢。 到目前爲止,我們已經看到了四種加速培訓的方法(並且達到更好的解決方案):對連接權重應用良好的初始化策

原创 CHAPTER 11-Training Deep Neural Nets-part1

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Vanishing/Exploding Gradients Problems 正如我們在第10章中所討論的那樣,反向傳播算法的工作原理是從輸出層到輸入層,傳播錯誤梯度。 一旦該算法已

原创 CHAPTER 11-Training Deep Neural Nets-part2

本篇文章是個人翻譯的,如有商業用途,請通知本人謝謝. Reusing Pretrained Layers (重用預訓練層) 從零開始訓練一個非常大的DNN通常不是一個好主意,相反,您應該總是嘗試找到一個現有的神經網絡來完成與您正在嘗試解