原创 資源 | Deeplearning.ai課程與筆記彙總

    從接觸機器學習就瞭解到Andrew Ng的機器學習課程,後來發現又出來深度學習課程,就開始在網易雲課堂上學習deeplearning.ai的課程,Andrew 的課真是的把深入淺出。當然學習這些課程還是要有一些基礎的。線性代數,

原创 [深度學習] Normalization 模型

目錄 一  Batch Normalization “Internal Covariate Shift”問題 訓練階段如何做BatchNorm BatchNorm的好處 二 LayerNormalization 一  Batch Norm

原创 【Docker】Centos7 安裝docker-18.03.1-ce(離線安裝)

  一、引言 爲了實現離線安裝docker-18.03.1-ce這個想法,我遍尋網絡,什麼 RPM 搜索大法啦,yum local install 方法啦,都是複雜到不行。 二、終極解決 直接上網址:Install Docker CE

原创 [機器學習]給機器學習面試者的十項建議

原文:https://towardsdatascience.com/giving-some-tips-for-data-science-interviews-after-interviewing-60-candidates-at-expe

原创 [機器學習]10個實用的機器學習建議

原文:https://medium.com/modern-nlp/10-great-ml-practices-for-python-developers-b089eefc18fc 作者:Pratik Bhavsar 聲明 本博客來源於:

原创 [深度學習] 面試常見問題+解析彙總

什麼是深度學習,與傳統機器學習算法的區別? (1)傳統機器學習算法,在一開始,性能(識別率)會隨着數據的增加而增加,但一段時間後,它的性能會進入平臺期。這些模型無法處理海量數據。 (2)最近20年來,人類建立了數字王國,使得我們在電腦、網

原创 理解熵,交叉熵和交叉熵損失

自信息 "你對結果感到驚訝的程度" 一個低概率的結果與一個高概率的結果相比,低概率的結果帶來的信息量更大。現在,如果yi是第i個結果的概率,那麼我們可以把自信息s表示爲: 熵 現在我知道一個事件產生某個結果的自信息,我想知道這個事件平均

原创 [深度學習] 深度可分離卷積

一 深度可分離卷積 深度可分離卷積之所以如此命名,是因爲它不僅處理空間維度,還處理深度維度-通道的數量。通常輸入圖像可以有3個通道:RGB。經過幾次卷積後,一個圖像可能有多個通道。你可以把每個頻道想象成那個圖像的一個特殊解釋;例如,“紅色

原创 [深度學習] 自然語言處理 --- 理解Google最強NLP模型: BERT

BERT簡介 NLP:自然語言處理(NLP)是信息時代最重要的技術之一。理解複雜的語言也是人工智能的重要組成部分。Google AI 團隊提出的預訓練語言模型 BERT(Bidirectional Encoder Representati

原创 [深度學習] 自然語言處理--- 基於Keras Bert使用(下)

bert4keras 使用最新版本 本文所用bert4keras時間:2019-12-23 https://github.com/bojone/bert4keras 使用bert4keras(TF2.0) import os #使

原创 [Kubernetes] Taint和Toleration(污點和容忍)

Taint(污點)和 Toleration(容忍)可以作用於 node 和 pod 上,其目的是優化 pod 在集羣間的調度,這跟節點親和性類似,只不過它們作用的方式相反,具有 taint 的 node 和 pod 是互斥關係,而具有節點

原创 [深度學習] 自然語言處理 --- Bert 開發實戰 (huggingface-transformers)

本文主要介紹如果使用huggingface的transformers 2.0 進行NLP的模型訓練 除了transformers,其它兼容tf2.0的bert項目還有: 我的博客裏有介紹使用方法  [深度學習] 自然語言處理--- 基於K

原创 [機器學習] 模型穩定度指標PSI

羣體穩定性指標(population stability index)   由於模型是以特定時期的樣本所開發的,此模型是否適用於開發樣本之外的族羣,必須經過穩定性測試才能得知。穩定度指標(population stability inde