原创 documentQA文章
1) 參考:https://zhuanlan.zhihu.com/p/82073864 SG-Net: Syntax-Guided Machine Reading Comprehension https://arxiv.org/pdf/1
原创 pytorch tensor(.data,.clone(),.detach())區別
clone()是不內存共享的。 clone()得到的Tensor不僅拷貝了原始的value,而且會計算梯度傳播信息,copy_()只拷貝數值。對b處理,grad會返回到a身上。但是b 不會有 grad 屬性。 b = a.clon
原创 刷leetcode坑
不一樣
原创 attention代碼
s計算score的方式有以下幾種: import torch class Attn(nn.module): def __init__(self, method ,hidden_size): super(
原创 DST文章學習
DST的大多數模型是utu_tut、an−1a_{n-1}an−1(或者rt−1r_{t-1}rt−1)、slotn−1slot_{n-1}slotn−1共同作爲輸入,判斷某一個slot的value情況。本文選取18-19
原创 運行python程序輸入到特定文件
logging教程 學習 https://www.jianshu.com/p/feb86c06c4f4
原创 content-preserving-text-generation-with-attribute-controls,文本生成
我想到和我現在做的task-oriented的有關係, 輸入是文本和關鍵詞,輸出是文本,相當於風格遷移。相當於個別詞對應轉換。 而task-oriented裏面,是輸入文本(context編碼還是個問題),生成多個關鍵詞,輸出文本
原创 pytorch導入預訓練模型部分參數
checkpoint = torch.load(checkpoint) start_epoch = checkpoint["epoch"] + 1 #best_score = checkp
原创 fewshot代碼實現
#參考阿里fewshot論文,用於金融場景對話意圖判別 https://github.com/zixufang/few_shot
原创 pytorch損失函數總結
感謝博主https://blog.fanyangmeng.com/deep-learning/pytorch/pytorchnotes-lossfunc/
原创 context建模學習(time-decay)
說到底還是線性組合,學習POMDP, How Time Matters: Learning Time-Decay Attention for Contextual Spoken Language Understanding in
原创 slot-carryover學習
算是NLU和DST的結合。因爲NLU只注意ut的slot和intent,而DST關注value的追蹤(一般paper中slot是已經給定)。 1)Contextual Slot Carryover for Disparate Sc
原创 latent4SLU
In this study, we aim to learn the meaningful distributed semantic representation, rather than focusing on buildin
原创 SF&ID文章
CM-Net: 過去的方法: 1.slotfilling和intentdetect分開的,rnn或者cnn建模語句,之後用分類算法 2.slotfilling和intentdetect是有關係的, Goo2018intent影
原创 復現
1129開始 som-dst slot-carryover gnn4dialog 點贊 收藏 分享 文章舉報 zixufang 發佈了104 篇原創文章 · 獲贊 10