原创 分享一個可用的LIMES框架的配置文件pom.xml

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLoc

原创 字典、列表嵌套體輸出字典鍵樹狀結構

不廢話了,直接上代碼 def zjh_print(temp, indent=0): if type(temp) == dict: for key, value in temp.items():

原创 ubuntu18.04利用docker安裝NVIDIA驅動、cuda、cudnn、tensorflow、torch等深度學習環境

目錄 前言 一、Docker安裝 備份sources.list並新建 阿里源鏡像填入(最近清華源好像有問題) 更新源使之生效 二、NVIDIA GPU 驅動安裝 驅動安裝 檢查安裝結果 三、Docker安裝 docker安裝 檢查安裝結果

原创 imageAI使用教程

github地址: https://github.com/OlafenwaMoses/ImageAI 相關文件可見百度雲盤 鏈接:https://pan.baidu.com/s/10mUt_2qUzsXXgE0Osd0X6A  提取碼:t

原创 分享一個p o w e r-d e s i g n e r的補丁文件

最近在使用power designer16.5的時候找不到補丁文件,網上找的很多花了我好多c幣也不行,現在弄到一個,我這個可以,給大家分享一下。 百度雲網址:https://pan.baidu.com/s/1c33jHFM 密碼:56lv

原创 一個讓Typora標題自動在各目錄結構添加標題,同時也在目錄結構中也顯示自動編號

參考了幻心矢這篇csdn博客。他在這個博客裏實現了這個功能,具體typora操作可以看他那個。 但他有個問題是,把前面的幾個標題和幾級目錄給幹掉了,因爲前面是摘要、目錄這兩個一級標題,然後他本人不喜歡1、2標題編號,所以是從三級標題開始的

原创 word用宏+excel加解密的VB、python參考代碼

建一個string_substitution.xlsx,在sensitive_words字符串變量輸入待加密詞彙,空格間隔(圖中爲"a b c d e") PS:數字8可以修改爲其他數字,即由隨機字符+數字組成的密文長度 import

原创 vscode創建python編譯環境(launch.json)

廢話不多說,直接甩文件,配置有問題的請參考。 { // Use IntelliSense to learn about possible attributes. // Hover to view descriptions

原创 參考文獻查重

word文件裏的樣例參考文獻如下: 先將參考文獻複製到reference.txt裏,如下: [1] S. Ren, K. He, R. Girshick, and J. Sun, “Faster r-cnn: Towards real

原创 python 在vscode下自動補全

問題:VS Code python自定義類或者函數Import後無自動補全提示 問題描述:用VS code寫python,標準模塊自動補全都沒有問題,在用自定義的module,import後怎麼都沒有補全提示。 解決方案: 最後採用替換掉

原创 一個spark的maven的pom.xml參考

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:

原创 多線程下載CVPR ICCV IJCAI論文

前提: 科學上網 谷歌瀏覽器 python3 特點: 自定義多線程下載數目threads_num 自定義下載路徑 下載的文件均以論文的title命名 原始title中的非法字符(win10不允許作爲文件名的字符)已被處理爲下劃線或空格 代

原创 Neural-Machine-Translation-by-Jointly-Learning-to-Align-and-Translate筆記

時間步i yi 目標單詞 si  RNN隱含層狀態 ci 上下文向量 x 輸入單詞詞向量 最大化條件概率 其中si由生成。   hj 單詞j的註釋(詞向量) a 前向神經網絡 上下文語境向量ci生成方式  時間步i單詞j生成的概率  

原创 ABCNN Attention-Based Convolutional Neural Network for Modeling Sentence Pairs筆記

一、基本的BCNN 1、輸入 兩個(長度不一定相同的)句子 長度分別爲s0,s1 s=max(s0,s1) 每一個word都用詞向量表示了,詞向量維度爲d0,默認300 所以每個句子都是個d0*s的矩陣 2、卷積層 vi 句子中第i個w

原创 attention is all you need筆記

傳統 encoder 輸入:符號序列 x1,…,xn 輸出:連續表示z1,…,zn decoder 輸入:連續表示z1,…,zn 輸出:符號序列y1,….ym   作者原創 transformer 使用堆疊的self-attention和