nmt Neural Machine Translation (seq2seq)

【寫在前面】建議看原文檔。本文只是作者自己的筆記。

https://github.com/tensorflow/nmt

2014年的論文

機器翻譯

1. 安裝TensorFlow

2. 下載源碼,

git clone https://github.com/tensorflow/nmt/

3. 下載數據

We will use a small-scale parallel corpus of TED talks (133K training examples) for this exercise

nmt/scripts/download_iwslt15.sh /tmp/nmt_data

完整的數據集:https://nlp.stanford.edu/projects/nmt/

4. 開始訓練

mkdir /tmp/nmt_model
python -m nmt.nmt \
    --src=vi --tgt=en \
    --vocab_prefix=/tmp/nmt_data/vocab  \
    --train_prefix=/tmp/nmt_data/train \
    --dev_prefix=/tmp/nmt_data/tst2012  \
    --test_prefix=/tmp/nmt_data/tst2013 \
    --out_dir=/tmp/nmt_model \
    --num_train_steps=12000 \
    --steps_per_stats=100 \
    --num_layers=2 \
    --num_units=128 \
    --dropout=0.2 \
    --metrics=bleu

在README.md同目錄,訓練腳本

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章