原创 舉例理解viterbi算法

簡介: viterbi算法其實就是多步驟每步多選擇模型的最優選擇問題,其在每一步的所有選擇都保存了前續所有步驟到當前步驟當前選擇的最小總代價(或者最大價值)以及當前代價的情況下前繼步驟的選擇。依次計算完所有步驟後,通過回溯的方法找到最優選

原创 Linux 查看文件內容命令(cat、more、grep)

快速導讀: 序號 命令 對應英文 功能   01 cat 文件名 concatenate 查看文件內容、創建文件、合併文件、追加文件內容   02 more 文件名 more 根據窗口大小,一頁一頁顯示文件內容   03 grep 搜索文

原创 中文分詞《Long Short-Term Memory Neural Networks for Chinese Word Segmentation》

Motivation: 以往大多數中文分詞的方法都是基於系列標註任務,這需要建立複雜的特徵表示才能從句子中抽取單詞。爲了避免建立複雜的特徵表示,最近的研究都是集中於用神經網絡自行學習分詞信息。然而在使用一般的RNN進行中文分詞時,之前學到

原创 python比較任意多個數組的對應參數是否相等

  def aeq(*args): """ Assert all arguments have the same value """ arguments = (arg for arg in args)

原创 情感分類《Thumbs up?Sentiment Classification using Machine Learning Techniques》

相關背景: 這篇論文發表於2002,那時大量的文本分類研究都是對文章的主題分類,例如判斷一篇文章是體育類還是財經類。然而隨着在線評論的網站大肆興起,爲了提供更言簡意賅的信息,就需要判斷人們針對某件事發表言論的是肯定的還是否定的,即情感分類

原创 pytorch張量複製clone()和detach()

轉自:https://blog.csdn.net/winycg/article/details/100813519 tensor複製可以使用clone()函數和detach()函數即可實現各種需求。 clone clone()函數可以返回

原创 python 繪製矩陣權重

參考:https://blog.csdn.net/henbile/article/details/80241597 https://blog.csdn.net/m0_38103546/article/details/79935671 i

原创 pycharm導入本地模塊,下方出現波浪線但是可以運行

問題: 導入本地的模塊時,下面總是有波浪線,類似下圖這種情況。但是程序是可以正常運行的,所以剛開始我選擇無視他。 然而在我調試要跳轉的時候,發現不能跳轉,會出現一下問題,所以必須得解決了, 解決方案: 1. 進入設置; 2. 進入P

原创 pytorch固定參數-模型的pretrain和fine-tune

翻了很多博客和論壇,一般凍結參數都包括兩步: 設置參數的屬性爲False,即requires_grad=False 定義優化器時過濾掉不進行梯度更新的參數,一般都是這樣 optimizer.SGD(filter(lambda p: p.

原创 Linux cd命令——切換目錄

一、cd cd是單詞change directory的縮寫,其作用是改變當前的工作目錄,是用戶最常用的命令之一。 命令 含義      cd 切換到當前用戶的主目錄(/home/用戶目錄) cd ~ 切換到當前用戶的主目錄(/home/用

原创 語義角色標註《Deep Semantic Role Labeling?What Works and What’s Next》

Motivation: 在語義角色標註(SRL)的任務上,傳統使用神經網絡的做法是將解析樹作爲神經網絡的輸入。最近一種比較流行的做法是使用端到端的神經網絡模型,直接將源句子轉化爲論元標籤,省去生成解析樹的步驟。本文采用的就是端到端的方法,

原创 Python的比較方法__eq__和__ne__之間的關聯關係分析

原文鏈接:https://blog.csdn.net/LaoYuanPython/article/details/95218476 Python的富比較方法包括__lt__、__gt__、__le__、__ge__、__eq__和__ne

原创 服務器上調試程序 pdb命令調試

以前寫python一直用pycharm,調試啥的比較方便,最近要在遠程服務器上調試一些程序,只有一個控制檯就可以用pdb進行調試了。常用的只有幾個命令。 break 或 b           設置斷點 continue 或 c    

原创 pytorch shuffle 一個tensor

pytorch好像沒有直接原地進行shuffle函數。 如果使用外部的庫函數random對pytorch的張量shuffle,同一個值可能會被取多次,並不是對數據進行打亂。 所以嘗試對下標進行shuffle,然後根據下標取對應的元素。

原创 指代消解《End-to-end Neural Coreference Resolution》

Motivation: 之前提出用神經網絡做指代消解任務的思想都使用句法分析的結果或者手工構造的特徵作爲輸入。這篇文章第一次使用端到端的模型,證明了在不需要輸入額外的特徵的情況下也可以取得了最好的效果。   基本術語: 原文鏈接:http