原创 GPU相關

Tensorflow如何配置和使用GPU tf.GPUOptions() gpu_options = tf.GPUOptions(allow_growth=True) gpu_options =tf.GPUOptions(per_proc

原创 PyTorch實現一個簡單的二分類網絡模型

import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt

原创 PyTorch簡單入門實戰--一個簡單的迴歸模型

一、用PyTorch做一個簡單的神經網絡迴歸模型 import torch from torch.autograd import Variable import torch.nn.functional as F import ma

原创 KERAS和tensroflow實現Attention機制

一、Keras實現Attention from keras import backend as K from keras.engine.topology import Layer class Position_Embedding_Atte

原创 有監督的關係抽取任務之PCNN

有監督的關係抽取任務:   PCNN的實現過程: 1)數據預處理:首先對數據進行位置編碼,按句子中各個詞離entity的距離進行編碼。 例如:“As we known,Steve Jobs was the co-founder of Ap

原创 python快排算法原理與實踐

一、快排算法原理 快排算法採用了分而治之的策略。它的基本思想是:通過一趟排序將要排序的數據分割成獨立的兩部分,其中一部分的所有數據都比另外一部分所有數據都要小,然後再按照此方法對這兩部分數據分別進行快速排序,整個排序過程可以遞歸進行,以此

原创 注意力Attention機制

一、注意力機制的提出背景和思想,解決哪方面的問題 attention機制:一種能讓模型對重要信息重點關注,並充分學習吸收的技術,它不是一個完整的模型,是一種機制,能夠作用於任何序列模型中。 計算相似度(score) 二、有哪幾種注意力機制

原创 charCNN、textCNN、BI-lstm、textRNN

一、charCNN 1. 要解決什麼問題 2.模型結構與設計思想(爲什麼這樣設計) 二、textCNN 1. 要解決什麼問題 輸入一個[sequence, embedding_size]句子,對其進行分類; 2.模型結構與設計思想(爲什

原创 循環神經網絡模型系列總結

一、RNN 1.1 模型結構: 1.2 多層RNN 通過num_layers設置循環神經網絡隱含層的層數,例如2。 對於一個多層循環神經網絡,當前時刻隱含層的輸入來自同一時刻輸入層(如果有)或上一層隱含層的輸出。每一層的隱含狀態只沿着

原创 NLP複習

二、embedding           NNLM->Word2vec->Doc2vec->FastText->ELMO ->GPT->Bert           1. word2vec的原理,爲何使用哈夫曼樹,如何構建哈夫曼,

原创 keras的三種模型實現與區別

前言 一、keras提供了三種定義模型的方式 1. 序列式(Sequential) API 序貫(sequential)API允許你爲大多數問題逐層堆疊創建模型。雖然說對很多的應用來說,這樣的一個手法很簡單也解決了很多深度學習網絡結構的構

原创 任務式對話系統

引言 原理 任務式聊天機器人的模塊包括: 1)NLU(understanding): 2)對話管理(Diaglog mangement) 3)NLG(Generation) 構建聊天機器人的三大模塊:   一、有哪些知識點 1.1 自然

原创 一條typical的文本預處理流程

raw_text ----> Tokenize(分詞)  ---> Lemma/Stemming -----> stopwords -----> word_list

原创 tensorflow調參方法及深度學習調參經驗

一、tensorflow調參方法 (1)Grid Search:網格搜索,在所有候選的參數選擇中,通過循環遍歷,嘗試每一種可能性,表現最好的參數就是最終的結果。 (2)Random Search: (3)Bayesin Optimizat

原创 NLP的四大類任務

具體包括: