原创 2.0 自動梯度 - PyTorch學習筆記

自動梯度 (AUTOGRAD: AUTOMATIC DIFFERENTIATION) 導入 torch 包 import torch 新建一個需要的2x2張量,並設置梯度記錄爲開啓狀態 x = torch.ones(2,

原创 3.0 神經網絡 - PyTorch學習筆記

神經網絡 (NEURAL NETWORK) 神經網絡可以通過 torch.nn 包來構建 上節課已經學習了 autograd ,nn 是在 autograd 的基礎上定義和區分模型。一個 nn.Module 包含了層,和一個 fo

原创 2.3 詞嵌入的特性-深度學習第五課《序列模型》-Stanford吳恩達教授

詞嵌入的特性 (Properties of Word Embeddings) 到現在,你應該明白了詞嵌入是如何幫助你構建自然語言處理應用的。詞嵌入還有一個迷人的特性就是它還能幫助實現類比推理,儘管類比推理可能不是自然語言處理應用中

原创 2.9 情感分類-深度學習第五課《序列模型》-Stanford吳恩達教授

情感分類 (Sentiment Classification) 情感分類任務就是看一段文本,然後分辨這個人是否喜歡他們在討論的這個東西,這是NLP中最重要的模塊之一,經常用在許多應用中。情感分類一個最大的挑戰就是可能標記的訓練集沒

原创 2.10 詞嵌入除偏-深度學習第五課《序列模型》-Stanford吳恩達教授

詞嵌入除偏 (Debiasing Word Embeddings) 現在機器學習和人工智能算法正漸漸地被信任用以輔助或是制定極其重要的決策,因此我們想盡可能地確保它們不受非預期形式偏見影響,比如說性別歧視、種族歧視等等。本節視頻中

原创 3.2 選擇最可能的句子-深度學習第五課《序列模型》-Stanford吳恩達教授

選擇最可能的句子 (Picking the most likely sentence) 在seq2seq機器翻譯模型和我們在第一週課程所用的語言模型之間有很多相似的地方,但是它們之間也有許多重要的區別,讓我們來一探究竟。 你可以把

原创 2.7 負採樣-深度學習第五課《序列模型》-Stanford吳恩達教授

負採樣 (Negative Sampling) 在上個視頻中,你見到了Skip-Gram模型如何幫助你構造一個監督學習任務,把上下文映射到了目標詞上,它如何讓你學到一個實用的詞嵌入。但是它的缺點就在於softmax計算起來很慢。在

原创 2.8 GloVe詞向量-深度學習第五課《序列模型》-Stanford吳恩達教授

Glove 詞向量 (GloVe Word Vectors) 你已經瞭解了幾個計算詞嵌入的算法,另一個在NLP社區有着一定勢頭的算法是GloVe算法,這個算法並不如Word2Vec或是Skip-Gram模型用的多,但是也有人熱衷於

原创 3.7 注意力模型直觀理解-深度學習第五課《序列模型》-Stanford吳恩達教授

注意力模型直觀理解 (Attention Model Intuition) 在本週大部分時間中,你都在使用這個編碼解碼的構架(a Encoder-Decoder architecture)來完成機器翻譯。當你使用RNN讀一個句子,

原创 2.4 嵌入矩陣-深度學習第五課《序列模型》-Stanford吳恩達教授

嵌入矩陣 (Embedding Matrix) 接下來我們要將學習詞嵌入這一問題具體化,當你應用算法來學習詞嵌入時,實際上是學習一個嵌入矩陣,我們來看一下這是什麼意思。 和之前一樣,假設我們的詞彙表含有10,000個單詞,詞彙表裏

原创 3.9 語音識別-深度學習第五課《序列模型》-Stanford吳恩達教授

語音識別 (Speech Recognition) 現今,最令人振奮的發展之一,就是seq2seq模型(sequence-to-sequence models)在語音識別方面準確性有了很大的提升。這門課程已經接近尾聲,現在我想通過

原创 3.12 總結-深度學習第五課《序列模型》-Stanford吳恩達教授

習題 第二週 - 自然語言處理與詞嵌入 第 151 題 假設你爲10000個單詞學習詞嵌入,爲了捕獲全部範圍的單詞的變化以及意義,那麼詞嵌入向量應該是10000維的。 A.正確 B.錯誤 第 152 題 什麼是t-SNE? A.一

原创 3.10 觸發字檢測-深度學習第五課《序列模型》-Stanford吳恩達教授

觸發字檢測 (Trigger Word Detection) 現在你已經學習了很多關於深度學習和序列模型的內容,於是我們可以真正去簡便地描繪出一個觸發字系統(a trigger word system),就像上節視頻中你看到的那樣

原创 3.8 注意力模型-深度學習第五課《序列模型》-Stanford吳恩達教授

注意力模型 (Attention Model) 在上個視頻中你已經見到了,注意力模型如何讓一個神經網絡只注意到一部分的輸入句子。當它在生成句子的時候,更像人類翻譯。讓我們把這些想法轉化成確切的式子,來實現注意力模型。 跟上個視頻

原创 2.2 使用詞嵌入-深度學習第五課《序列模型》-Stanford吳恩達教授

使用詞嵌入 (Using Word Embeddings) 上一個視頻中,你已經瞭解不同單詞的特徵化表示了。這節你會看到我們如何把這種表示方法應用到NLP應用中。 我們從一個例子開始,我們繼續用命名實體識別的例子,如果你要找出人名