1、下面關於vector representations for words描述正確的是?
A. 基於words總數N將每一個word映射到一個N維vector,即1-of-N Encoding
B. 同樣性質的word用相同的word class vector表示即word cluster
C. 每一個word映射到高維空間的dimension reduction 過程,即word embedding
D. 可以通過auto encoder隱藏層來表示
答案:A, B, C
難易程度:中
題型:多選題
2、下面關於word Embedding的實現方法描述正確的是:
A. 基於word-word在同一文檔共現次數與-word vector-word vector內積間的接近程度來尋找word vector即count based method
B.給定句子中詞彙的上文基於Neuro-Network預測詞彙下文的方法(第一層隱藏層作爲輸入詞彙的word vector),即prediction based methon
C. 給定上下文去預測詞彙,即continuous bag of word(CBOW) model
D. 給定一個詞彙,去預測該詞彙的上下文,即skip-gram
答案:A, B, C, D
難易程度:中
題型:多選題
3、下面關於Neighbor Embedding描述正確的是:
A. 保持數據點間的關係,對數據點的空間進行降維,即Locally linear embedding
B. Locally linear embedding鄰居節點的個數不能過大或過小
C. 求解數據點間smooth程度矩陣的特徵向量,即Laplacian Eigenmaps
D. 相近的點降維後仍接近,不相近的點降維後不接近,即T-distributed stochastic Neighbor Embedding(t-SNE)
答案:A, B, C, D
難易程度:中
題型:多選題
4、Pre-training指預先設定______初始的______。
答案:Neuro Network;參數;
難易程度:中
題型:填空題
5、下面有關auto encoder描述正確的是
A. 目標是使output data和input data 越接近越好
B. 隱藏層的維數是對input data維數的降維
C. de-noising auto-encoder指output data 與加噪前的data越接近
D. de-noising auto-encoder指output data 與加噪後的data越接近
答案:A, C
難易程度:中
題型:多選題
6、下面關於anto-encoder for CNN描述正確的是
A. 輸入數據經過convolutional layer、max pooling layer反覆特徵提取再經過un-pooling layer、deconvolutional layer反變換直至恢復原始數據
B. un-pooling指依據最大特徵值及相應位置恢復卷積層的輸出
C. deconvolutional transform等價於convolutional transform
D. deconvolutional transform不同於convolutional transform,是convolutional transform的反變換
答案:A, B, C
難易程度:中
題型:多選題
7、變量服從均值爲,方差爲的高斯分佈,即,則下面屬於混合高斯模型(Gaussian Mixture Model)的是:
A. y1~N(5,1)+N(9,1)+N(14,2)
B. y2~1/3*N(5,1)+N(9,1)+N(14,2)
C. y3~0.9*N(5,1)+0.05*N(9,1)+0.05*N(14,2)
D. y4~0.2*N(5,1)+0.3*N(9,1)+N(14,2)
答案: C
難易程度:中
題型:單選題
8、下面關於KL散度(divergence)描述正確的是?
A. 指用一個分佈如均勻分佈或二項分佈等擬合另一個觀察到的分佈時,信息損失的度量
B. KL散度越大,表達效果越差
C. KL散度越大,表達效果越好
D.
答案:A, B, D
難易程度:中
題型:多選題