原创 leetcode229 摩爾投票

169、229 class Solution: def majorityElement(self, nums: List[int]) -> List[int]: count1=0 count

原创 wget_限速下載

因爲需要部署到谷歌上,從訊飛上,下載詞向量要限速,要不然20%就卡主了。特地加上限速命令 –limit-rate=300k合理參數即可 wget -c --limit-rate=300k 'url'

原创 paddle數據集掛載方法

項目頁面點擊修改,然後增加數據集,不太好找,記錄一下。

原创 vscode遠程配置2_配置免密登錄

copy pub密鑰到需要登錄的遠程機器(相當於備案下) SET [email protected] scp C:\Users\Administrator.SC-201909231157\.ssh\id_

原创 效率工程_zsh小技巧

zsh 中使用 cd - 補全出你最近使用過的目錄 git clone git://github.com/tarruda/zsh-autosuggestions ~/.zsh/zsh-autosuggestions source

原创 docker 使用DockerFile構建image

記錄下從阿里雲創建鏡像的方法 Dockerfile文件內容如下 Base Images FROM registry.cn-shanghai.aliyuncs.com/tcc-public/python:3 把當前文件夾裏的文件

原创 ubuntu_apt與apt-get

apt = apt-get、apt-cache 和 apt-config 中最常用命令選項的集合 [https://juejin.im/post/5d7731e15188257e8c4d974d] apt 命令 被取代的命令 說

原创 prod相關記錄

np.prod求乘積 origin_size = np.prod(npimg.shape)

原创 期刊級別

中國計算機學會推薦國際學術會議 (人工智能與模式識別) 一、A類 序號 會議簡稱 會議全稱 出版社 網址 1 AAAI AAAI Conference on Artificial Intelligence

原创 多任務學習_不同任務loss權重如何設置

多任務學習在學術界中圖像目標檢測任務用得很多,比如迴歸loss和分類loss,看了很多論文,loss都是直接相加。 學術 論文1 Multi-Task Learning Using Uncertainty to Weigh Lo

原创 word2vec和LDA的區別

兩者本來沒有啥關係。但從學習的層次而言,模型關注的層次不同。 word2vec是詞向量,關注最底層的字詞關係 lda關注是抽象的主題信息。(類比於bert網絡結構的不同層次) Word2Vec主要包含兩個模型,一個是CBOW模

原创 弱監督學習的三種形式總結

不完全監督:只有一部分訓練數據具備標籤; 不確切監督:訓練數據只具備粗粒度標籤; 不準確監督:給出的標籤並不總是真值 參考論文整理。

原创 自然語言處理_中文預訓練詞向量的主要區別整理

模型 出處 說明 bert_base google transformer BERT-wwm 哈工大 在原始bert-base的基礎上引入whole word mask,其實就是分詞後的詞進行mask ern

原创 自然語言處理_樣本處理_Stratified k-fold

Stratified k-fold StratifiedKFold is a variation of k-fold which returns stratified folds: each set contains approx

原创 自然語言處理_文本相似度x_編輯距離(python庫)

編輯距離,又稱Levenshtein距離. 表示從字符串1到字符串2,需要增刪改操作的最小次數 編輯距離實現的原理是動態規劃算法,leetcode經典題目中有一道. python中有現成的庫實現,安裝方法如下 pip instal