原创 【小白學AI】八種應對樣本不均衡的策略

文章來自:微信公衆號【機器學習煉丹術】 目錄1 什麼是非均衡2 8種解決辦法2.1 重採樣(四種方法)2.2 調整損失函數2.3 異常值檢測框架2.4 二分類變成多分類2.5 EasyEnsemble 1 什麼是非均衡 分類(classif

原创 焦點損失函數 Focal Loss 與 GHM

文章來自公衆號【機器學習煉丹術】 1 focal loss的概述 焦點損失函數 Focal Loss(2017年何凱明大佬的論文)被提出用於密集物體檢測任務。 當然,在目標檢測中,可能待檢測物體有1000個類別,然而你想要識別出來的物體,只

原创 【小白學AI】線性迴歸與邏輯迴歸(似然參數估計)

文章轉自【機器學習煉丹術】 線性迴歸解決的是迴歸問題,邏輯迴歸相當於是線性迴歸的基礎上,來解決分類問題。 1 公式 線性迴歸(Linear Regression)是什麼相比不用多說了。格式是這個樣子的: \(f_{w,b}(x)=\sum_

原创 【機器學習的Tricks】隨機權值平均優化器swa與pseudo-label僞標籤

文章來自公衆號【機器學習煉丹術】 1 stochastic weight averaging(swa) 隨機權值平均 這是一種全新的優化器,目前常見的有SGB,ADAM, 【概述】:這是一種通過梯度下降改善深度學習泛化能力的方法,而且不

原创 【評價指標】詳解F1-score與多分類MacroF1&MicroF1

文章來自:一個寶藏微信公衆號【機器學習煉丹術】 基本概念 首先,要背住的幾個概念就是:accuracy,precision,recal, TP,FP,TN,FN TP:true positive。預測是正確的正樣本 FP:false po

原创 乾貨 | 這可能全網最好的BatchNorm詳解

文章來自:公衆號【機器學習煉丹術】。求關注~ 其實關於BN層,我在之前的文章“梯度爆炸”那一篇中已經涉及到了,但是鑑於面試經歷中多次問道這個,這裏再做一個更加全面的講解。 Internal Covariate Shift(ICS) Batc

原创 項目總結 | 對【時間】構建的特徵工程

寫文章的目的在於之前面試的時候,提到某一個時間序列項目的特徵工程處理。我說的大多數都是一些數據清洗、數據去除異常點、針對數據特性做出的特別的特徵工程的操作,然後面試官給我的建議是下一次面試多說一下常規的特徵工程處理,因爲這樣面試官纔會跟你有

原创 圖像增強 | CLAHE 限制對比度自適應直方圖均衡化

1 基本概述 CLAHE是一個比較有意思的圖像增強的方法,主要用在醫學圖像上面。之前的比賽中,用到了這個,但是對其算法原理不甚瞭解。在這裏做一個覆盤。 CLAHE起到的作用簡單來說就是增強圖像的對比度的同時可以抑制噪聲 CLAHE的英文是C

原创 項目總結 | 九種缺失值處理方法總有一種適合你

爲什麼要處理缺失值 這一段完全是廢話了。含有缺失數據的樣本,你要麼刪了,要了就填充上什麼值。刪了就會損失一部分的樣本信息,填充要是填充的不合適,會給樣本增加噪音。 所以這就是一個選擇的問題: 選擇刪除還是填充; 選擇填充方式 處理缺失值

原创 通俗易懂 | 拉格朗日乘子法

在SVM中,將約束問題轉化成非約束問題採用到了拉格朗日乘子法。這個文章就講一下拉格朗日乘子法與KKT約束是怎麼回事。本人不是數學科班出身,但是也只能硬着頭皮講一講了。 從零理解 現在我們要解決這樣一個問題: \(x^2y=3\) 這個函數距

原创 一分鐘速學 | NMS, IOU 與 SoftMax

非極大抑制 NMS的英文是Non-maximum suppression的縮寫。 簡單的說,就是模型給出了多個重疊在一起的候選框,我們只需要保留一個就可以了。其他的重疊的候選框就刪掉了,效果可見下圖: 交併比 IoU的英文全稱Inters

原创 大彙總 | 一文學會八篇經典CNN論文

本文主要是回顧一下一些經典的CNN網絡的主要貢獻。 論文傳送門 【google團隊】 [2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pdf [2015.02]inceptio

原创 AI面試之SVM推導

SVM現在主流的有兩個方法。一個是傳統的推導,計算支持向量求解的方法,一個是近幾年興起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作爲損失函數,所以最近也有人提出的深度SVM其實就是使用hinge loss的神經網絡。

原创 工程能力UP | LightGBM的調參乾貨教程與並行優化

這是個人在競賽中對LGB模型進行調參的詳細過程記錄,主要包含下面六個步驟: 大學習率,確定估計器參數n_estimators/num_iterations/num_round/num_boost_round; 確定num_leaves和m

原创 AI面試題之深入淺出卷積網絡的平移不變性

卷積網絡的平移不變性可能會經常在論文中看到,那這個到底是什麼呢?看了一些論文的原文和網絡上十幾篇講這個的博文,大概捋清了思路然後寫下這個。不得不說,有的博文講的有那麼點問題。 1 什麼是不變性 【不變性】就是目標發生了變換,但是你依然可以識