原创 基因表達式編程——GEP

近年來,一些新的研究方法,如蟻羣算法、人工神經網絡、細胞自動機、人工免疫算法、進化算法等,它們通過模擬某一自然現象或過程(“擬物”或“仿生”)來求得問題解決的辦法,具有高度並行與自組織、自適應和自學習等特徵,已經在人工智能、機器學習、數據

原创 深度學習中 的 Attention機制

注意力機制即 Attention mechanism在序列學習任務上具有巨大的提升作用,在編解碼器框架內,通過在編碼段加入Attention模型,對源數據序列進行數據加權變換,或者在解碼端引入Attention 模型,對目標數據進行加權變

原创 兩篇論文中的 ConvLSTM 對比

【這篇重點在分析一下改變了的網絡模型,其他的寫的並不全面】 1、《Deep Learning Approach for Sentiment Analysis of Short Texts》 learning long-term depen

原创 CNN for NLP——Convolutional Neural Networks for Sentence Classification

又要開始一段看論文的調研生活了。那我開始翻譯整理論文了。 《Convolutional Neural Networks for Sentence Classification》 這是一篇很經典的用卷積神經網絡做文本分類的文章。 作者是

原创 C語言 使用內置快排函數——qsort(),以及結構體兩元素的話

【 #很容易忘記怎麼寫# 系列】 #include<stdlib.h> 是在這個頭文件中的函數! #include<stdio.h> #include<stdlib.h> int cmp(const void *a,const void

原创 Python編程知識_系列 II ——邊寫代碼邊寫筆記,備忘!

在 DataFrame 後添加一行並且保存爲 csv 文件 s = pd.Series({'acc':"min_loss", 'loss':log.loc[log['loss'].idxmin]['loss'], 'lr':"val_ac

原创 測試用例的幾種常見設計方法

測試用例常見的設計方法有:等價類劃分法、邊界值分析法、錯誤推測法、判定表法、正交實驗法。 一、等價類劃分法 顧名思義,顧名思義,等價類劃分,就是將測試的範圍劃分成幾個互不相交的子集,他們的並集是全集,從每個子集選出若干個有代表性的值作爲測

原创 Keras 深度學習代碼筆記——模型保存與加載

你可以使用model.save(filepath)將Keras模型和權重保存在一個HDF5文件中,該文件將包含: 模型的結構,以便重構該模型 模型的權重 訓練配置(損失函數,優化器等) 優化器的狀態,以便於從上次訓練中斷的地方開始 使

原创 Xgboost與GBDT

· 傳統GBDT以CART作爲基分類器,xgboost還支持線性分類器 · xgboost工具支持自定義代價函數,只要函數可一階和二階求導 · 傳統GBDT在優化時只用到一階導數信息,xgboost則對代價函數進行了二階泰勒展開,同時用到

原创 模型融合與集成

介紹 堆疊(也稱爲元組合)是用於組合來自多個預測模型的信息以生成新模型的模型組合技術。通常,堆疊模型(也稱爲二級模型)因爲它的平滑性和突出每個基本模型在其中執行得最好的能力,並且抹黑其執行不佳的每個基本模型,所以將優於每個單個模型。因此,

原创 BB_twtr 使用CNNs+LSTMs做SemEval-2017 Task 4

paper: BB twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs Abstract: Our system leverages a

原创 Softmax迴歸(softmax regression)

http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html 我們用 MNIST數據集當例子。 60000行的訓練數據集(mnist.t

原创 Time-Series Classification with COTE: The Collective of Transformation-Based Ensembles

1 INTRODUCTION Our second hypothesis was that we can improve TSC performance through ensembling. Although the value

原创 Python編程知識——邊寫代碼邊寫筆記,備忘!

for中的範圍是 [a, b) for i in range(1,10): print(i) 輸出: 1 2 3 4 5 6 7 8 9 定義空的數組(numpy中的array; list) X = np.empty(0,dt

原创 自然語言處理中的多模型深度學習

這裏先分享兩個分享: 一個是用深度學習(CNN RNN Attention)解決大規模文本分類問題 - 綜述和實踐,另一個是 brightmart 的 text_classification,裏面用 Keras 實現了很多文本分類的模型