原创 5分鐘瞭解受限玻爾茲曼機(RBM)

聲明:譯自A Beginner’s Guide to Restricted Boltzmann Machines (RBMs) Definition & Structure 受限玻爾茲曼機(RBM)由深度學習先驅Geoffrey

原创 自然語言處理中的Word Embedding簡介

本文參考自What Are Word Embeddings for Text 簡介 Word Embedding可以將word轉化爲數值型詞向量,便於後續機器學習和深度學習模型的訓練。並且,word之間的相似性越大,詞向量之間的距

原创 馬氏距離(Mahalanobis Distance)介紹與實例

本文介紹馬氏距離(Mahalanobis Distance),通過本文,你將瞭解到馬氏距離的含義、馬氏距離與歐式距離的比較以及一個通過馬氏距離進行異常檢測的例子(基於Python的sklearn包)。 目的 計算兩個樣本間的距離時

原创 瞭解一下Sklearn中的文本特徵提取

文本特徵提取 基於詞袋的向量化 要知道,原始文本是不能直接被機器學習到的,因爲機器通常需要以數值型的、定長的數據作爲輸入。 原始文本是字符串或字符串集合。 數值型、定長的數據是浮點型或整型的向量。 爲了讓原始爲本轉化成數值型地

原创 給模型熱身——深度學習中的warm up

Warm up是BERT 中一項重要的trick,它是什麼,它究竟能帶給我們什麼,以及如何實現。 它是什麼 Warm up是一種學習率的設置方法,其學習率的變化如下圖所示。 假設我們使用隨訓練衰減的學習率設置方法,學習率的最大值

原创 Tensorflow中的masking和padding

聲明: 需要讀者對tensorflow和深度學習有一定了解 tf.boolean_mask實現類似numpy數組的mask操作 Python的numpy array可以使用boolean類型的數組作爲索引,獲得numpy ar

原创 reuse tf.keras.layers

本文介紹如何重用tf.keras.layers中的層。 在tensorflow中,我們可以通過variable_scope和reuse參數控制變量的初始化和重用。但當我們在tensorflow中使用tf.keras.layers時

原创 Attention入門及其在Tensorflow中實現

翻譯自Tensorflow官方教程Neural machine translation with attention 聲明: 本文將實現一個將西班牙語翻譯成英語的seq2seq模型; 需要讀者對seq2seq模型有了解; 需要讀

原创 【論文閱讀】對CNN進行序列分類的理解或者說是使用指南

論文:A Sensitivity Analysis of (and Practitioners’ Guide to) Convolutional Neural Networks for Sentence Classificatio

原创 SQL創建表

SQL創建表的代碼很簡單,就是CREATE TABLE語句,但是在敲鍵盤之前,我們應該花更多的時間和經歷來設計表的結構,想想一下幾個方面: 表裏會包含什麼數據(即字段的名稱),它們都是什麼類型的數據(即字段的數據類型)? 表的名

原创 IDEA版本控制——同步本地和遠程倉庫

原文鏈接:https://www.jetbrains.com/help/idea/sync-with-a-remote-repository.html 同步本地和遠程倉庫 當我們在本地

原创 NLP之詞袋模型二

在NLP之詞袋模型一中介紹了最基本利用詞袋模型(Bag of Words)進行詞向量表達對方法,本文介紹幾種提升詞袋模型性能的方法。 提升詞袋模型性能的方法主要在以下幾個方面: 詞袋的管理 詞向量表達方法的選擇 詞袋的管理 管

原创 NLP之詞袋模型一

聲明:參考A Gentle Introduction to the Bag-of-Words Model 詞袋模型 目的:將不定長的文本型數據轉化爲定長的數值型數據,以便用作機器學習模型的輸入。 用處:常用於文本建模和分類。 優點

原创 Python中的時間顯示(time模塊相關)

  Python提供了time模塊來幫助我們處理時間,但是剛剛接觸這個模塊時,會發現time模塊中的時間類型有很多,也有各種轉換函數,難以讓人把握住重點。下面本文將介紹time模塊中最常用的部分,有了它,在處理大多是python時

原创 超全面的協方差矩陣介紹

閱讀本文需要具備一定的線性代數基礎,通過本文,你將對協方差矩陣有全面的理解。 定義 n個隨機向量: X=(X1,X2,...,Xn)T\mathbf{X}=(X_1,X_2,...,X_n)^TX=(X1​,X2​,...,X