原创 機器學習:網格搜索和交叉驗證

一、網格搜索 1. 超參數的定義 在機器學習中,超參數是在開始學習過程之前設置值的參數,而不是通過訓練得到的參數數據。 比如在使用梯度下降法的神經網絡中,學習率alpha就是一個超參數。 通常情況下,需要對超參數進行優化,給學習機

原创 C++:處理數據——原始內置類型和C++11初始化方式

一、原始內置類型(Primitive Built-in Types)     事實上對於原始內置類型的大小(字節數)每種環境是不太一樣的,但C++提供了一種靈活的標準,它規定了最小長度,如:              short至少16位

原创 並行計算:OpenMP(二)關於變量的可共享性——private、shared子句

一、private子句 1. private         private 子句可以將變量聲明爲線程私有,聲明稱線程私有變量以後,每個線程都有一個該變量的副本,線程之間不會互相影響,其他線程無法訪問其他線程的副本。原變量在並行部分不起任

原创 window中根據端口號找到某個進程並停止該進程

一、找到某端口號對應的進程 netstat -ano | findstr "8080" 其中8080爲端口號 運行結果如下: 其中21372就是佔用該端口的進程的pid 二、根據pid停止該進程 taskkill -pid 2

原创 大數據:Hadoop、Hive、Spark的關係

文章轉載自:https://www.cnblogs.com/jins-note/p/9513426.html 大數據本身是個很寬泛的概念,Hadoop生態圈(或者泛生態圈)基本上都是爲了處理超過單機尺度的數據處理而誕生的。你可以把它比作一

原创 機器學習:mAP評價指標

一、前言 mAP是目標檢測模型中常用的評價指標,它的英文全稱是(Mean Average Precision),翻譯過來就是平均精確率的平均。 首先我們需要知道精確率(Precision)和召回率(Recall),也稱爲查準率和查

原创 概率論總結(三):隨機變量的數字特徵

一、期望與方差 1.期望 (1)期望的計算:     設Y=g(X)     對於離散型:        對於連續型:        (2)期望的性質  i.     ii.    iii.   vi.      當且僅當X,Y相互獨立時

原创 Python:實現進度條和時間預估

一、前言 在python當中可以用進度條來顯示工作的進度,比如for循環的進度或者一些模型訓練的進度。 在這裏可以使用progressbar包以及tqdm包來實現。 使用pip install progressbar 安裝prog

原创 動態規劃:給定一個整數 n,求以 1 ... n 爲節點組成的二叉搜索樹有多少種

一、問題描述 不同的二叉搜索樹 給定一個整數 n,求以 1 … n 爲節點組成的二叉搜索樹有多少種? 示例: 輸入: 3 輸出: 5 解釋: 給定 n = 3, 一共有 5 種不同結構的二叉搜索樹: 1

原创 MXNet中MultiBoxDetection、MultiBoxPrior、MultiBoxTarget的使用

文章轉載自:https://blog.csdn.net/XiangJiaoJun_/article/details/84679596     MXNet在目標檢測提供了許多API供用戶調用,靈活使用這些函數能大大降低編程難度,其中跟錨框有

原创 概率論總結(二):多維隨機變量及其分佈

1.二維隨機變量     根據隨機變量的定義我們知道它其實是關於樣本空間的函數,同樣,二維隨機變量也是關於樣本空間的函數。只不過這裏是關於樣本空間的兩個函數。比如樣本空間是某地區全部學齡前兒童,那麼它們的身高和體重就是關於樣本空間的兩個函

原创 機器學習: 神經網絡中的Batch Normalization(BN)算法

一、什麼是Batch Normalization 1. 從白化(Whiten)說起     之前的研究表明如果在圖像處理中對輸入圖像進行白化(Whiten)操作的話——所謂白化,就是對輸入數據分佈變換到0均值,單位方差的正態分佈——那麼神

原创 並行計算:循環程序並行化的一般方法

一、數據劃分和處理器指派 1. 帶狀劃分方法     又叫做行列劃分,就是將矩陣的整行或整列分成若干組,各組指派給一個處理器。     例如:設矩陣A由n行和m列,對其串行處理的程序段如下: for i=1 to n do fo

原创 神經網絡中的激活函數及其各自的優缺點、以及如何選擇激活函數

文章轉載自:https://zhuanlan.zhihu.com/p/71882757 1.什麼是激活函數? 所謂激活函數(Activation Function),就是在人工神經網絡的神經元上運行的函數,負責將神經元的輸入映射到輸出端。

原创 並行計算:OpenMP(三)——reduction、copyin、schedule子句

一、reduction子句     reduction子句可以對一個或者多個參數指定一個操作符,然後每一個線程都會創建這個參數的私有拷貝,在並行區域結束後,迭代運行指定的運算符,並更新原參數的值。     私有拷貝變量的初始值依賴於red