原创 最新Pip鏡像(2020年6月30日更新)

問題: WARNING: Retrying (Retry(total=2, connect=None, read=None, redirect=None, status=None)) after connection broken

原创 C++ 多態知識點綜合整理

多態的前提條件部分整理 子類繼承 父類指針或者引用 虛函數(virtual <類名><函數名>(參數)) 在純面嚮對象語言中,所有的函數都是多態的,而像C++這樣的混合語言,函數既可以是多態的也可以是非多態的,這要由綁定的實際

原创 純虛函數和抽象類簡介

基本概念和理解 純虛函數是在一個基類(父類)中說明的虛函數,在基類中沒有定義,要求任何派生類(子類)都可以有自己的版本。 抽象基類則表示至少包含一個純虛成員函數。 純虛函數的說明形式:virtual 類型 函數名(參數表)=0;

原创 Keras多輸出(多任務)如何設置fit_generator

在使用Keras的時候,因爲需要考慮到效率問題,需要修改fit_generator來適應多輸出 # create model model = Model(inputs=x_inp, outputs=[main_pred, aux_

原创 C++ 靜態聯編與動態聯編

靜態聯編和動態聯編 1、聯編是指一個程序模塊、代碼之間互相關聯的過程。 2、靜態聯編(static binding),是程序的匹配、連接在編譯階段實現,也稱爲早期匹配。 重載函數使用靜態聯編。 3、動態聯編是指程序聯

原创 C++ 重寫與重載

函數重載 必須在同一個類中進行 子類無法重載父類的函數,父類同名函數將被名稱覆蓋 重載是在編譯期間根據參數類型和個數決定函數調用 函數重寫 必鬚髮生於父類與子類之間 並且父類與子類中的函數必須有完全

原创 先驗概率與後驗概率淺析

#先驗概率和後驗概率 先驗(Apriori;又譯:先天)在拉丁文中指“來自先前的東西”,或稍稍引申指“在經驗之前”。近代西方傳統中,認爲先驗指無需經驗或先於經驗獲得的知識。它通常與後驗知識相比較,後驗意指“在經驗之後”,需要經驗。

原创 C++ 運算符重載

1 概念 所謂重載,就是重新賦予新的含義。函數重載就是對一個已有的函數賦予新的含義,使之實現新功能,因此,一個函數名就可以用來代表不同功能的函數,也就是”一名多用”。 運算符也可以重載。實際上,我們已經在不知不覺之中使用了運算符

原创 機器學習算法之支持向量機SVM

機器學習算法之支持向量機SVM Outline 1. Optimization Objective 2. large margin intuition 3. The mathematics behind large margi

原创 強化學習Reinforcement Learning在計算廣告Computational Advertising中 Real-Time Bidding中的應用 資料集錦

強化學習Reinforcement Learning在計算廣告Computational Advertising中 Real-Time Bidding中的應用 資料集錦 Part 1:強化學習(RL)相關 Part 2:深度學習(DL)相

原创 Java基礎語法之方法

方法語法格式 修飾符 返回值類型 方法名(參數類型 參數名1,參數類型 參數名2,......){ 執行語句 ……… return 返回值; } 對於上面的語法格式中具體說明如下:  修飾符:方法的修

原创 機器學習Machine Learning:成本(cost) 函數,損失(loss)函數,目標(Objective)函數的區別和聯繫?

機器學習Machine Learning:cost 函數,loss函數,objective函數的區別和聯繫? 關於這個問題,我也是機器學習初學者,對於這些概念感覺有必要追根究底。 不同筆者有不同的見解,通過蒐集一些相關筆者的回答和個人的

原创 C++ 靜態成員變量與靜態成員函數

一、靜態成員變量 1)定義靜態成員變量  關鍵字 static 可以用於說明一個類的成員,靜態成員提供了一個同類對象的共享機制  把一個類的成員說明爲 static 時,這個類無論有多少個對象被創建,這些對象共享這個 st

原创 漫談初學者機器學習模型設計?

首先,我也是一個機器學習初學者,這裏跟大家聊一下自己的最近學習感悟。我認爲在面對一件事務的時候,首先對這個事務來一個深刻的認識很重要。首先我們來看一下統計學習具體由什麼構成或者有什麼重要的要素? 這一點我參造《統計學習方法》裏面寫道

原创 機器學習:邏輯斯特迴歸算法

邏輯迴歸算法 機器學習可分爲有監督學習,無監督學習,半監督學習,強化學習。對於LR來說,看成一種典型的有監督學習。 既然是有監督學習,訓練集自然可以用如下方式表述: 對於這m個訓練樣本,每個樣本本身有n維特徵。再加上一個偏置項x