原创 LeetCode 1:two sum

1 Python刷 1.1 暴力法:時間O(n^2),空間O(1) class Solution(object): def twoSum(self, nums, target): """ :

原创 百面機器學習 #3 經典算法:02 邏輯迴歸

參考: 百面機器學習 西瓜書 02 邏輯迴歸Logistic Regression(對數機率迴歸) 2.1 邏輯迴歸和線性迴歸 二者都使用極大似然法來對訓練樣本進行建模。 在求解超參數的過程中,都可以使用梯度下降的方法

原创 一些常用常新的數學公式(備查)

文章目錄概率論信息論 概率論 多元正態分佈 X∼N(μ,Σ) \mathbf X\sim\mathrm N(\boldsymbol {\mu},\boldsymbol\Sigma) X∼N(μ,Σ) pdf: fX(x1,x2,

原创 【論文閱讀】JDA(joint distribution adaptation)/2013初稿

JDA(joint distribution adaptation)/2013 文章目錄**JDA(joint distribution adaptation)/2013**Abstract1. Introductionmotiv

原创 【論文閱讀】Multisource Transfer Learning With Convolutional Neural Networks for Lung Pattern Analysis

Multisource Transfer Learning With Convolutional Neural Networks for Lung Pattern Analysis main idea 應用背景:intersti

原创 百面機器學習 #3 經典算法:01-3 核函數支撐向量機SVM

文章目錄1.3 非線性SVM與核技巧1.3.1 核函數1.3.2 核技巧在支持向量機中的應用1.3.3 常用核函數1.4 其他問題1.4.1 是否存在一組參數使SVM訓練誤差爲0:是1.4.2 訓練誤差爲0的SVM分類器一定存在嗎

原创 機器學習中的損失函數(交叉熵損失、Hinge loss)

損失函數 文章目錄損失函數1 交叉熵損失1.1 從最大似然估計到交叉熵損失概率論中的MLE機器學習中的MLE交叉熵損失1.2 多分類的交叉熵損失函數1.3 比較2. Hinge loss 鉸鏈損失 1 交叉熵損失 1.1 從最大似

原创 Deep Q-learning

https://www.bilibili.com/video/av16921335?p=14 DQN 兩種模型 狀態和動作作輸入,得到動作的Q值 狀態作輸入,所有動作的Q值作輸出,選擇Q值最大的對應的動作作爲接下來要做的動

原创 百面機器學習 #2 模型評估:01&02 精確率與召回率,假陽性與真陽性率,PR曲線和ROC曲線

文章目錄1. P-R(Precision-Recall)曲線F1 score2. 平方根誤差的侷限性3. ROC曲線ROC曲線繪製4. AUC predict Positive predict Negative

原创 百面機器學習 #3 經典算法:01-1 線性可分(硬間隔)支撐向量機SVM

文章目錄①從原始問題到對偶問題②對偶問題的解的形式化簡③從對偶問題的解到原問題的解④從原問題的解到分離超平面和決策函數、支撐向量 參考李航統計學習方法第7章。 支持向量機學習的基本想法是求解能夠正確劃分訓練數據集並且幾何間隔最

原创 百面機器學習 #3 經典算法:01-2 不完全線性可分(軟間隔)支撐向量機SVM

文章目錄①從原問題到對偶問題②對偶問題的解的形式化簡③從對偶問題的解到原問題的解④從原問題的解到分離超平面、決策函數、支撐向量 假設訓練數據集不是線性可分的。通常情況是,訓練數據中有一些特異點(outlier),將這些特異點除去後

原创 畢設日誌——特徵融合修改vgg16.py

4.22 # 去掉conv5_3後的relu和maxpooling兩層 # conv5_3 CNN_base5_3 = nn.Sequential(*list(vgg.features._modules.values())[:-2

原创 畢設日誌——查看系統基本信息的linux命令

查看CPU型號 cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c 32 Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz 查看C

原创 畢設日誌——pytorch版本faster rcnn運行代碼前的環境配置2019.4.9

準備測試的代碼是: https://github.com/jwyang/faster-rcnn.pytorch 講解:https://hellozhaozheng.github.io/z_post/PyTorch-FasterR

原创 【論文閱讀】Deep Cocktail Network: Multi-source Unsupervised Domain Adaptation with Category Shift

Deep Cocktail Network: Multi-source Unsupervised Domain Adaptation with Category Shift SUMMARY@ 2020/5/12 文章目錄1. M