1.關於多分類,如果是每個數據點只能被劃分到一個類別,那他就是單標籤,多分類問題,反之,如果每個數據點可以被分到多個類別,那他就是一個多標籤,多分類的問題。關於新聞主題分類,就是典型的單標籤,多分類問題。
2.路透社數據集也是keras內置的數據集,包含46個不同的主題,每個主題有至少十個樣本,共有8982個訓練樣本和2246個測試樣本。
3.引入數據集
from keras.datasets import reuters
# 取頻率最高的前一萬字
(train_datas,train_labels),(test_datas,test_labels) = reuters.load_data(num_words=10000)
# 將數據反向解碼爲新聞文本查看
word_index = reuters.get_word_index()
reverse_word_index = dict([(value,key) for (key,value) in word_index.items()])
text = ' '.join([reverse_word_index.get(i-3,'?') for i in train_datas[0]])
4.將數據集轉化爲one-hot型(也可以不轉使用embedding)
import numpy as np
def seq_to_one_hot(sequences,dimention):
'''
此函數輸入爲不同新聞文本詞下標向量所組成的二維張量,故第一維爲樣本數,
第二維爲one_hot對應維度。
'''
results = np.zeros((len(sequences),dimention))
for i,sequence in enumerate(sequences):
results[i,sequence] = 1
return results
x_train = seq_to_one_hot(train_datas,10000)
x_test = seq_to_one_hot(test_datas,10000)
5.類標轉換爲one_hot
y_train = seq_to_one_hot(train_labels,46)
y_test = seq_to_one_hot(test_labels,46)
當然,這裏也可以使用util內置的to_categorical
6.構建神經網絡
這裏構建的神經網絡與上節類似,只不過最後一層的激活函數應爲softmax,編譯時損失函數應爲categorical_crossentropy