百毒不侵打卡01

線性迴歸 day1

假如你正在實現一個全連接層,全連接層的輸入形狀是7×8,輸出形狀是7×1,其中7是批量大小,則權重參數w和偏置參數b的形狀分別是____和____
A. 1×8,1×1
B. 1×8,7×1
C. 8×1,1x1
D. 8×1,7×1
參考答案:C

解析:通過輸入和輸出可知權重參數w的形狀是8x1,因爲輸入x權重=輸出,即7x8 x 8x1 = 7x1,中間的兩個8約掉即可,具體可參考矩陣乘法。偏置參數b則是1x1。

課程中的損失函數定義爲:

def squared_loss(y_hat, y):
    return (y_hat - y.view(y_hat.size())) ** 2 / 2

將返回結果替換爲下面的哪一個會導致會導致模型無法訓練:(閱讀材料:https://pytorch.org/docs/stable/notes/broadcasting.html
A. (y_hat.view(-1) - y) ** 2 / 2
B. (y_hat - y.view(-1)) ** 2 / 2
C. (y_hat - y.view(y_hat.shape)) ** 2 / 2
D. (y_hat - y.view(-1, 1)) ** 2 / 2
參考答案:B

解析:在pytorch中view()函數的作用是改變tensor的形狀,參數如果爲-1表示自適應,類似於廣播機制。

在線性迴歸模型中,對於某個大小爲3的批量,標籤的預測值和真實值如下表所示:
x y
2.33 3.14
1.07 0.98
1.23 1.32
該批量的損失函數的平均值爲:(參考“線性迴歸模型從零開始的實現”中的“定義損失函數”一節,結果保留三位小數)
參考答案: 0.112

解析:就按照上一題的公式硬算,快速按鍵:win+r->calc

Softmax與分類模型 day1

課後練習

softmax([100, 101, 102])的結果等於以下的哪一項:
A. softmax([10.0, 10.1, 10.2])
B. softmax([-100, -101, -102])
C. softmax([-2 -1, 0])
D. softmax([1000, 1010, 1020])
參考答案:C

解析:就一段代碼,自己慢慢試。

import numpy as np
def softmax(x):
    xx = x - np.max(x)
    xxx = np.exp(xx)
    return xxx / np.sum(xxx)
print(softmax(np.array([-2,-1,0])))

對於本節課的模型,在剛開始訓練時,訓練數據集上的準確率低於測試數據集上的準確率,原因是?
A. 模型參數是在訓練集上進行訓練的,可能陷入了過擬合
B. 訓練集的樣本容量更大,要提高準確率更難
C. 訓練集上的準確率是在一個epoch的過程中計算得到的,測試集上的準確率是在一個epoch結束後計算得到的,後者的模型參數更優
參考答案:C

解析:通過排除法可知明顯選C,A選項過擬合會造成在訓練集上準確率遠高於測試集上的準確率,B選項也是無稽之談。

多層感知機 day1

課後練習

文本預處理 day2

課後練習

下列哪一項不是構建Vocab類所必須的步驟:
A. 詞頻統計,清洗低頻詞
B. 句子長度統計
C. 構建索引到token的映射
D. 構建token到索引的映射
參考答案:B

解析:B選項不是一個len就解決的嗎?

無論use_special_token參數是否爲真,都會使用的特殊token是____,作用是用來____。
<pad>,在小批量中數據不等長時做填充
<bos>,標記句子的開始
<eos>,標記句子的結束
<unk>,表示未登錄詞
參考答案: D

解析:仔細看代碼

語言模型 day2

課後練習

循環神經網絡基礎 day2

課後練習

發佈了33 篇原創文章 · 獲贊 4 · 訪問量 5萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章