原创 leetcode229 摩爾投票
169、229 class Solution: def majorityElement(self, nums: List[int]) -> List[int]: count1=0 count
原创 wget_限速下載
因爲需要部署到谷歌上,從訊飛上,下載詞向量要限速,要不然20%就卡主了。特地加上限速命令 –limit-rate=300k合理參數即可 wget -c --limit-rate=300k 'url'
原创 paddle數據集掛載方法
項目頁面點擊修改,然後增加數據集,不太好找,記錄一下。
原创 vscode遠程配置2_配置免密登錄
copy pub密鑰到需要登錄的遠程機器(相當於備案下) SET [email protected] scp C:\Users\Administrator.SC-201909231157\.ssh\id_
原创 效率工程_zsh小技巧
zsh 中使用 cd - 補全出你最近使用過的目錄 git clone git://github.com/tarruda/zsh-autosuggestions ~/.zsh/zsh-autosuggestions source
原创 docker 使用DockerFile構建image
記錄下從阿里雲創建鏡像的方法 Dockerfile文件內容如下 Base Images FROM registry.cn-shanghai.aliyuncs.com/tcc-public/python:3 把當前文件夾裏的文件
原创 ubuntu_apt與apt-get
apt = apt-get、apt-cache 和 apt-config 中最常用命令選項的集合 [https://juejin.im/post/5d7731e15188257e8c4d974d] apt 命令 被取代的命令 說
原创 prod相關記錄
np.prod求乘積 origin_size = np.prod(npimg.shape)
原创 期刊級別
中國計算機學會推薦國際學術會議 (人工智能與模式識別) 一、A類 序號 會議簡稱 會議全稱 出版社 網址 1 AAAI AAAI Conference on Artificial Intelligence
原创 多任務學習_不同任務loss權重如何設置
多任務學習在學術界中圖像目標檢測任務用得很多,比如迴歸loss和分類loss,看了很多論文,loss都是直接相加。 學術 論文1 Multi-Task Learning Using Uncertainty to Weigh Lo
原创 word2vec和LDA的區別
兩者本來沒有啥關係。但從學習的層次而言,模型關注的層次不同。 word2vec是詞向量,關注最底層的字詞關係 lda關注是抽象的主題信息。(類比於bert網絡結構的不同層次) Word2Vec主要包含兩個模型,一個是CBOW模
原创 弱監督學習的三種形式總結
不完全監督:只有一部分訓練數據具備標籤; 不確切監督:訓練數據只具備粗粒度標籤; 不準確監督:給出的標籤並不總是真值 參考論文整理。
原创 自然語言處理_中文預訓練詞向量的主要區別整理
模型 出處 說明 bert_base google transformer BERT-wwm 哈工大 在原始bert-base的基礎上引入whole word mask,其實就是分詞後的詞進行mask ern
原创 自然語言處理_樣本處理_Stratified k-fold
Stratified k-fold StratifiedKFold is a variation of k-fold which returns stratified folds: each set contains approx
原创 自然語言處理_文本相似度x_編輯距離(python庫)
編輯距離,又稱Levenshtein距離. 表示從字符串1到字符串2,需要增刪改操作的最小次數 編輯距離實現的原理是動態規劃算法,leetcode經典題目中有一道. python中有現成的庫實現,安裝方法如下 pip instal