原创 documentQA文章

1) 參考:https://zhuanlan.zhihu.com/p/82073864 SG-Net: Syntax-Guided Machine Reading Comprehension https://arxiv.org/pdf/1

原创 pytorch tensor(.data,.clone(),.detach())區別

clone()是不內存共享的。 clone()得到的Tensor不僅拷貝了原始的value,而且會計算梯度傳播信息,copy_()只拷貝數值。對b處理,grad會返回到a身上。但是b 不會有 grad 屬性。 b = a.clon

原创 刷leetcode坑

不一樣

原创 attention代碼

s計算score的方式有以下幾種: import torch class Attn(nn.module): def __init__(self, method ,hidden_size): super(

原创 DST文章學習

DST的大多數模型是utu_tut​、an−1a_{n-1}an−1​(或者rt−1r_{t-1}rt−1​)、slotn−1slot_{n-1}slotn−1​共同作爲輸入,判斷某一個slot的value情況。本文選取18-19

原创 運行python程序輸入到特定文件

logging教程 學習 https://www.jianshu.com/p/feb86c06c4f4

原创 content-preserving-text-generation-with-attribute-controls,文本生成

我想到和我現在做的task-oriented的有關係, 輸入是文本和關鍵詞,輸出是文本,相當於風格遷移。相當於個別詞對應轉換。 而task-oriented裏面,是輸入文本(context編碼還是個問題),生成多個關鍵詞,輸出文本

原创 pytorch導入預訓練模型部分參數

checkpoint = torch.load(checkpoint) start_epoch = checkpoint["epoch"] + 1 #best_score = checkp

原创 fewshot代碼實現

#參考阿里fewshot論文,用於金融場景對話意圖判別 https://github.com/zixufang/few_shot

原创 pytorch損失函數總結

感謝博主https://blog.fanyangmeng.com/deep-learning/pytorch/pytorchnotes-lossfunc/

原创 context建模學習(time-decay)

說到底還是線性組合,學習POMDP, How Time Matters: Learning Time-Decay Attention for Contextual Spoken Language Understanding in

原创 slot-carryover學習

算是NLU和DST的結合。因爲NLU只注意ut的slot和intent,而DST關注value的追蹤(一般paper中slot是已經給定)。 1)Contextual Slot Carryover for Disparate Sc

原创 latent4SLU

In this study, we aim to learn the meaningful distributed semantic representation, rather than focusing on buildin

原创 SF&ID文章

CM-Net: 過去的方法: 1.slotfilling和intentdetect分開的,rnn或者cnn建模語句,之後用分類算法 2.slotfilling和intentdetect是有關係的, Goo2018intent影

原创 復現

1129開始 som-dst slot-carryover gnn4dialog 點贊 收藏 分享 文章舉報 zixufang 發佈了104 篇原創文章 · 獲贊 10