kaldi使用cvte模型進行語音識別

操作系統 : Unbutu18.04_x64

gcc版本 :7.4.0

該模型在thch30數據集上測試的錯誤率只有8.25%,效果還是不錯的。

模型下載地址:

http://www.kaldi-asr.org/models/m2

選擇模型:CVTE Mandarin Model V2

測試文本:

自然語言理解和生成是一個多方面問題,我們對它可能也只是部分理解。

在線識別

測試腳本

./online2-wav-nnet3-latgen-faster --do-endpointing=false --online=false --feature-type=fbank --fbank-config=../../egs/cvte/s5/conf/fbank.conf --max-active=7000 --beam=15.0 --lattice-beam=6.0 --acoustic-scale=1.0 --word-symbol-table=../../egs/cvte/s5/exp/chain/tdnn/graph/words.txt ../../egs/cvte/s5/exp/chain/tdnn/final.mdl ../../egs/cvte/s5/exp/chain/tdnn/graph/HCLG.fst 'ark:echo utter1 utter1|' 'scp:echo utter1 /tmp/test1.wav|' ark:/dev/null

識別結果:

LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:RemoveOrphanNodes():nnet-nnet.cc:948) Removed 1 orphan nodes.
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:RemoveOrphanComponents():nnet-nnet.cc:847) Removing 2 orphan components.
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:Collapse():nnet-utils.cc:1463) Added 1 components, removed 2
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:CompileLooped():nnet-compile-looped.cc:345) Spent 0.00508595 seconds in looped compilation.
utter1 自然語言 理解 和 生成 時 你 該 付 多少 拗 暗 批 我們 對 他 能 爺 只是 部分 理解
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:main():online2-wav-nnet3-latgen-faster.cc:286) Decoded utterance utter1
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:Print():online-timing.cc:55) Timing stats: real-time factor for offline decoding was 0.442773 = 3.21453 seconds  / 7.26 seconds.
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:main():online2-wav-nnet3-latgen-faster.cc:292) Decoded 1 utterances, 0 with errors.
LOG (online2-wav-nnet3-latgen-faster[5.5.421~1453-85d1a]:main():online2-wav-nnet3-latgen-faster.cc:294) Overall likelihood per frame was 1.84166 per frame over 724 frames.

可以看到,在線識別的效果比較差。

離線識別

1、直接用cvte自帶的腳本進行識別

替換聲音文件後,執行如下操作:

ln -s ~/kaldi/egs/wsj/s5/steps ~/kaldi/egs/cvte/s5/steps
ln -s ~/kaldi/egs/wsj/s5/utils ~/kaldi/egs/cvte/s5/utils
cd egs/cvte/s5
./run.sh

查看結果 :

mike@local:~/src/kaldi/egs/cvte/s5/exp$ cat chain/tdnn/decode_test/scoring_kaldi/penalty_1.0/10.txt
CVTE201703_00030_165722_11750 自然語言 理解 和 生成 是 一個 多方面 問題 我們 對 他 可能 也 只是 部分 理解
mike@local:~/src/kaldi/egs/cvte/s5/exp$

可以看到,識別效果還是相當好的。

缺點:
加載比較慢,導致整個識別過程比較慢

2、使用自定義腳本進行識別

具體如下:

mike@local:demo1$ pwd
/home/mike/src/kaldi/egs/cvte/s5/demo1
mike@local:demo1$ cat run.sh
#! /bin/bash

cd /home/mike/src/kaldi/egs/cvte/s5
. ./cmd.sh
. ./path.sh

demo1/nnet3-latgen-faster --frame-subsampling-factor=3 --frames-per-chunk=50 --extra-left-context=0 --extra-right-context=0 --extra-left-context-initial=-1 --extra-right-context-final=-1 --minimize=false --max-active=7000 --min-active=200 --beam=15.0 --lattice-beam=8.0 --acoustic-scale=1.0 --allow-partial=true --word-symbol-table=exp/chain/tdnn/graph/words.txt exp/chain/tdnn/final.mdl exp/chain/tdnn/graph/HCLG.fst "ark,s,cs:apply-cmvn --norm-means=true --norm-vars=false --utt2spk=ark:data/fbank/test/utt2spk scp:data/fbank/test/cmvn.scp scp:data/fbank/test/feats.scp ark:- |" "ark:|lattice-scale --acoustic-scale=10.0 ark:- ark:- | gzip -c >exp/chain/tdnn/decode_test/lat.1.gz"


mike@local:demo1$
mike@local:demo1$ cat update.sh
#!/bin/bash

cd /home/mike/src/kaldi/egs/cvte/s5
. ./cmd.sh
. ./path.sh

# step 1: generate fbank features
obj_dir=data/fbank

for x in test; do
  # rm fbank/$x
  mkdir -p fbank/$x

  # compute fbank without pitch
  steps/make_fbank.sh --nj 1 --cmd "run.pl" $obj_dir/$x exp/make_fbank/$x fbank/$x || exit 1;
  # compute cmvn
  steps/compute_cmvn_stats.sh $obj_dir/$x exp/fbank_cmvn/$x fbank/$x || exit 1;
done

mike@local:demo1$

需要修改 nnet3-latgen-faster.cc 文件,代碼路徑:/home/mike/src/kaldi/src/nnet3bin/nnet3-latgen-faster.cc

主要是這個調用比較慢:

fst::ReadFstKaldiGeneric(fst_in_str)

加載後連續識別即可,修改後的測試代碼:

  KALDI_LOG << "before load model :"<<time(NULL);
  // Input FST is just one FST, not a table of FSTs.
  Fst<StdArc> *decode_fst = fst::ReadFstKaldiGeneric(fst_in_str);
  KALDI_LOG << "load model ok :"<<time(NULL);
  timer.Reset();

  int i = 0;
  while(1){
    clock_t start, finish;
    start = clock();
    i = i+1;
    system("bash /home/mike/src/kaldi/egs/cvte/s5/demo1/update.sh  >/dev/null 2>&1 &");
    KALDI_LOG << "decode i = "<<i<<",timestamp :"<<time(NULL);
    LatticeFasterDecoder decoder(*decode_fst, config);
    SequentialBaseFloatMatrixReader feature_reader(feature_rspecifier);

    for (; !feature_reader.Done(); feature_reader.Next()) {
      std::string utt = feature_reader.Key();
      const Matrix<BaseFloat> &features (feature_reader.Value());
      if (features.NumRows() == 0) {
        KALDI_WARN << "Zero-length utterance: " << utt;
        num_fail++;
        continue;
      }
      const Matrix<BaseFloat> *online_ivectors = NULL;
      const Vector<BaseFloat> *ivector = NULL;
      if (!ivector_rspecifier.empty()) {
        if (!ivector_reader.HasKey(utt)) {
          KALDI_WARN << "No iVector available for utterance " << utt;
          num_fail++;
          continue;
        } else {
          ivector = &ivector_reader.Value(utt);
        }
      }
      if (!online_ivector_rspecifier.empty()) {
        if (!online_ivector_reader.HasKey(utt)) {
          KALDI_WARN << "No online iVector available for utterance " << utt;
          num_fail++;
          continue;
        } else {
          online_ivectors = &online_ivector_reader.Value(utt);
        }
      }

      DecodableAmNnetSimple nnet_decodable(
          decodable_opts, trans_model, am_nnet,
          features, ivector, online_ivectors,
          online_ivector_period, &compiler);

      double like;
      if (DecodeUtteranceLatticeFaster(
              decoder, nnet_decodable, trans_model, word_syms, utt,
              decodable_opts.acoustic_scale, determinize, allow_partial,
              &alignment_writer, &words_writer, &compact_lattice_writer,
              &lattice_writer,
              &like)) {
        tot_like += like;
        frame_count += nnet_decodable.NumFramesReady();
        num_success++;
      } else num_fail++;
    }
    finish = clock();
    KALDI_LOG << "decode i = "<<i<<",timestamp :"<<time(NULL)<<",diff :"<<(double)(finish - start) / CLOCKS_PER_SEC <<"s";
    printf("preess Enter to continue");
    getchar();
  }
View Code

測試效果:

LOG (nnet3-latgen-faster[5.5.421~1453-85d1a]:main():nnet3-latgen-faster.cc:202) decode i = 1,timestamp :1567735067,diff :0.817448s
preess Enter to continue
LOG (nnet3-latgen-faster[5.5.421~1453-85d1a]:main():nnet3-latgen-faster.cc:151) decode i = 2,timestamp :1567735237
apply-cmvn --norm-means=true --norm-vars=false --utt2spk=ark:data/fbank/test/utt2spk scp:data/fbank/test/cmvn.scp scp:data/fbank/test/feats.scp ark:-
LOG (apply-cmvn[5.5.421~1453-85d1a]:main():apply-cmvn.cc:162) Applied cepstral mean normalization to 1 utterances, errors on 0
CVTE201703_00030_165722_11750 自然語言 理解 和 生成 是 一個 多方面 問題 我們 對 他 可能 也 只是 部分 理解
LOG (nnet3-latgen-faster[5.5.421~1453-85d1a]:DecodeUtteranceLatticeFaster():decoder-wrappers.cc:289) Log-like per frame for utterance CVTE201703_00030_165722_11750 is 2.32415 over 242 frames.
LOG (nnet3-latgen-faster[5.5.421~1453-85d1a]:main():nnet3-latgen-faster.cc:202) decode i = 2,timestamp :1567735238,diff :0.845735s
preess Enter to continue

可以看到,識別效果還是相當好的。
當然,這個只是測試,替換文件後,直接按回車進行識別,能達到預期效果。如果需要在實際項目中使用,上述代碼做的遠遠不夠。

本文中涉及訓練數據及測試示例地址:https://pan.baidu.com/s/1jyeWkZvU8ZjLt4Y9y9B89g

可關注微信公衆號後回覆 19102601 獲取提取碼。

本文github地址:

https://github.com/mike-zhang/mikeBlogEssays/blob/master/2019/20191026_kaldi使用cvte模型進行語音識別.rst

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章