原创 python線程池極簡教程

實現代碼 import multiprocessing as mp import time import random import subprocess import logging logger = mp.log_to_std

原创 python中字符串轉換成時間對象(官方表)

1 Python官方表 2具體用法 #python 原生 import time time.strptime('180401012358','%y%m%d%H%M%S') #輸出time.struct_time(tm_yea

原创 關於偏差和方差

偏差方差部分總結 http://www.ai-start.com/dl2017/html/lesson2-week1.html

原创 numpy使用經驗

保存到文件 np.savetxt("stat.txt", stat); 新建數組 stat=np.zeros((1747,1747),int) 設置輸出完整數組 np.set_printoptions(threshold=np

原创 隱馬爾可夫模型講解

馬爾科夫簡介 X代表隱藏狀態,又稱爲隱變量。通俗來講就是這個轉態不能直接觀察到,但是同時可以通過觀察O來推導原本的隱狀態。 O代表隱藏狀態的輸出。每個隱變量都會有多種輸出,通常每種輸出的概率不同。 簡單來說就是,X代表一系列狀態

原创 hierarchical softmax 分層softmax原理理解

https://zhuanlan.zhihu.com/p/56139075

原创 深入理解RNN梯度消失

1.關於理解RNN梯度消失 內容轉載於:知乎-RNN梯度消失和爆炸的原因. 2.梯度消失,權值就無法更新了嗎? No.梯度消失不意味着沒有梯度 我們先看任意時刻 t 對權重 wxw_xwx​求導公式: 請注意

原创 線性迴歸損失函數與最大似然估計,嶺迴歸,拉索迴歸的聯繫

本文轉自知乎最大似然估計和最小二乘法怎麼理解? - bsdelf的回答 - 知乎 https://www.zhihu.com/question/20447622/answer/25186207

原创 概率論與數理統計(數理統計部分)

數理統計部分 P60 總體和樣本 1.總體 2.樣本 3.簡單隨機抽樣 P61 統計量 視頻中的例子將了爲什麼不是1/n而是1/n-1 P62 卡方分佈 1.卡方分佈的定義,密度函數,函數圖像,性質 2.上

原创 windows 逆向技術必備知識(書籍)

《加密與解密》是一本逆向必讀書籍,以Windows平臺爲目標討論。本書以軟件逆向爲切入點,講述了軟件安全領域相關的基礎知識和技能,可以說是安全人士必讀書籍之一了。《加密與解密》(第四版)國慶後將出版上市,許多朋友非常關注這本書,在

原创 李宏毅深度學習視頻摘要

視頻地址 李宏毅深度學習(nlp)2017 視頻摘要 P1 講了RNN,LSTM ,GRU網絡構造 P2 講了卷積的原理,pooling的原理,已經不太常規的poolling方法。另外提到一種特殊的Rnn結構stackRNN P3

原创 NLP中embeding幹了什麼事?怎麼幹的?

基本常識 在做深度學習時,各種神經網絡只能處理數字,不能處理文字,所以在輸入前只能將文字轉換成數字輸入網絡。那麼embedding乾的事情就是把文字轉換成向量,且轉換後的向量儘可能保留原文字的語意信息。 1.word2index

原创 常見的幾種 Normalization 算法

https://zhuanlan.zhihu.com/p/69659844

原创 聚類性能度量指標

1.外部指標 將聚類結果與某個“參考模型”進行比較稱爲外部指標。“參考模型”通常是值有專家經驗推出的的模型,或者數據本身有標籤。 將樣本兩兩配對,然後確定4個值: a爲在參考模型中屬於同一個類且在聚類結果中屬於同一個簇的樣本對的數量

原创 tensorflow gpu 安裝填坑記錄

環境 Anacoda windows10 64操作系統專業版 1050TI顯卡 軟件包準備 CUDA包 cuda_10.0.130_411.31_win10.exe (鏈接:https://pan.baidu.com/s/1perh