機器學習與word

1、下面關於vector representations for words描述正確的是?

A. 基於words總數N將每一個word映射到一個N維vector,即1-of-N Encoding

B. 同樣性質的word用相同的word class vector表示即word cluster

C. 每一個word映射到高維空間的dimension reduction 過程,即word embedding

D. 可以通過auto encoder隱藏層來表示

答案:A, B, C

難易程度:中

題型:多選題

 

2、下面關於word Embedding的實現方法描述正確的是:

A. 基於word-word在同一文檔共現次數與-word vector-word vector內積間的接近程度來尋找word vector即count based method

B.給定句子中詞彙的上文基於Neuro-Network預測詞彙下文的方法(第一層隱藏層作爲輸入詞彙的word vector),即prediction based methon

C. 給定上下文去預測詞彙,即continuous bag of word(CBOW) model

D. 給定一個詞彙,去預測該詞彙的上下文,即skip-gram

答案:A, B, C, D

難易程度:中

題型:多選題

 

3、下面關於Neighbor Embedding描述正確的是:

A. 保持數據點間的關係,對數據點的空間進行降維,即Locally linear embedding

B. Locally linear embedding鄰居節點的個數不能過大或過小

C. 求解數據點間smooth程度矩陣的特徵向量,即Laplacian Eigenmaps

D. 相近的點降維後仍接近,不相近的點降維後不接近,即T-distributed stochastic Neighbor Embedding(t-SNE)

答案:A, B, C, D

難易程度:中

題型:多選題

 

4、Pre-training指預先設定______初始的______。

答案:Neuro Network;參數;

難易程度:中

題型:填空題

 

5、下面有關auto encoder描述正確的是

A. 目標是使output data和input data 越接近越好

B. 隱藏層的維數是對input data維數的降維

C. de-noising auto-encoder指output data 與加噪前的data越接近

D. de-noising auto-encoder指output data 與加噪後的data越接近

答案:A, C

難易程度:中

題型:多選題

 

6、下面關於anto-encoder for CNN描述正確的是

A. 輸入數據經過convolutional layer、max pooling layer反覆特徵提取再經過un-pooling layer、deconvolutional layer反變換直至恢復原始數據

B. un-pooling指依據最大特徵值及相應位置恢復卷積層的輸出

C. deconvolutional transform等價於convolutional transform

D. deconvolutional transform不同於convolutional transform,是convolutional transform的反變換

答案:A, B, C

難易程度:中

題型:多選題

 

7、變量服從均值爲,方差爲的高斯分佈,即,則下面屬於混合高斯模型(Gaussian Mixture Model)的是:

A. y1~N(5,1)+N(9,1)+N(14,2)

B. y2~1/3*N(5,1)+N(9,1)+N(14,2)

C. y3~0.9*N(5,1)+0.05*N(9,1)+0.05*N(14,2)

D. y4~0.2*N(5,1)+0.3*N(9,1)+N(14,2)

答案: C

難易程度:中

題型:單選題

 

8、下面關於KL散度(divergence)描述正確的是?

A. 指用一個分佈如均勻分佈或二項分佈等擬合另一個觀察到的分佈時,信息損失的度量

B. KL散度越大,表達效果越差

C. KL散度越大,表達效果越好

D. 

答案:A, B, D

難易程度:中

題型:多選題

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章