原创 Rasa教程系列-0-Rasa安裝和項目創建

這裏寫自定義目錄標題0. 背景1. 安裝2. 創建新項目3. 查看NLU訓練數據集4. 定義模型的配置5. 書寫自己的Stories6. 定義 Domain7. 訓練模型8. 與助手進行對話 0. 背景 事先說明:本系列Rasa教

原创 Rasa教程系列-Core-4-Actions

Actions(操作)是機器人對用戶輸入的響應,在Rasa有四種actions: (1)Utterance actions: 以utter_爲前綴並向用戶發送特定信息 (2)Retrieval actions: 以respond_

原创 Rasa教程系列-Core-5-Policies

文章目錄Configuring PoliciesMax HistoryData AugmentationAction SelectionKeras PolicyEmbedding PolicyMapping PolicyMemoi

原创 多個neo4j服務共用同一個data目錄

文章目錄背景分析解決方案1:修改文件夾歸屬是否能夠同時啓動共用data目錄的多個服務解決方案2:總結 背景 neo4j的data目錄不能被多個啓動服務讀寫。更具體來講,data目錄下僅能對一個neo4j服務提供磁盤數據。在data

原创 使用BERT對句子進行向量化(TensorFlow版和Pytorch版)

背景 用BERT對句子進行向量化 實施 TensorFlow版直接用肖涵博士的bert-as-service。使用方法真的很小白,簡單概括爲2點:server和client安裝。 pip install bert-serving-

原创 KenLM安裝補坑實錄

背景 爲了高效、快速統計詞頻,故而採用KenLM。至於KenLM的詳情,請參考源碼: https://github.com/kpu/kenlm。 安裝 作者提供了安裝指南:https://kheafield.com/code/ke

原创 TensorFlow服務部署-以圖像分類爲例

背景 本文主要介紹如何基於Docker的TensorFlow Serving快速部署訓練好的模型,以對外提供服務。部署在線服務(Serving)官方推薦使用 SavedModel 格式,而部署到手機等移動端的模型一般使用 Froz

原创 文獻閱讀筆記-ALBERT : A lite BERT for self-supervised learning of language representations

0. 背景 機構:谷歌 作者: 發佈地方:ICLR 2020 面向任務:自然語言理解 論文地址:https://openreview.net/pdf?id=H1eA7AEtvS 論文代碼:暫未 0.1 摘要 預訓練自然語言表徵時,

原创 文獻閱讀筆記:Unsupervised Question Answering by Cloze Translation

0. 背景 機構:Facebook 作者:Patrick Lewis 發佈地方:arXiv 面向任務:問題生成 論文地址:https://arxiv.org/abs/1906.04980 論文代碼:https://github.c

原创 Rasa教程系列-NLU-1-訓練集格式

文章目錄1. 數據格式1.1 Markdown格式1.2 Json 格式2. 改善意圖分類和實體識別2.1 常見示例(Common Examples)2.2 正則特徵(Regular Expression Features)2.3

原创 在生產環境中基於PyTorch的C++API運行模型-以圖像分類爲例

文章目錄背景TorchScript簡介PyTorch中如何創建基本模型TorchScript**追蹤(tracing)**使用 Scripting to Convert Modules混合腳本(Scripting)和追蹤(Trac

原创 Rasa教程系列-Core-2-Domains

Domain定義了機器人助手所處的世界。它指定了機器人應該知道的意圖(intents)、實體(entities)、槽位(slots)和操作(actions)。另外,它還可以包含機器人能夠說的內容的模板(templates)。 文章

原创 BERT-Tensorflow模型部署(CPU版和GPU版)

背景 使用BERT-TensorFlow解決法研杯要素識別任務,該任務其實是一個多標籤文本分類任務。模型的具體不是本文重點,故於此不細細展開說明。本文重點闡述如何部署模型。 模型部署 官方推薦TensorFlow模型在生產環境中提

原创 Rasa教程系列-Core-6-Slots

文章目錄什麼是槽位slotsRasa中如何使用Slots如何設置SlotsSlots Set from NLUSlots Set By Clicking ButtonsSlots Set by ActionsSlot TypesT

原创 文獻閱讀筆記:Unsupervised Cross-lingual Representation Learning at Scale(XLM-R)

文章目錄0. 背景0.1 摘要1. 介紹2. 相關工作3. 模型和數據4. 評測5. 結果與分析5.1 多語言Masked Language Models5.2 跨語言理解的實驗結果5.3 多語言 Vs 單語種GLUE:XLM-R