原创 概率論總結(一):基本概念以及一維隨機變量的分佈
一、基本概念 1. 樣本空間和樣本點 我們將隨機實驗E的所有可能結果組成的集合稱爲E的樣本空間,記爲S。樣本空間的元素,即E的每個結果,稱爲樣本點。 2. 頻率和概率的關係 概率是一種現象的固有屬性,比如百一枚均勻的硬幣,
原创 機器學習:神經網絡中的梯度消失和梯度爆炸
一、什麼是梯度消失和梯度爆炸 1. 梯度消失(gradient vanishing problem) 我們知道神經網絡在進行反向傳播(BP)的時候會對參數W進行更新,梯度消失就是靠後面網絡層(如layer3)能夠正常的得到一個
原创 機器學習:自己動手實現樸素貝葉斯和使用skearn中的樸素貝葉斯
一、樸素貝葉斯(Naive Bayes)簡介 1.原理 相信大家都學過貝葉斯公式,見下: 而我們正是用這條公式來實現樸素貝葉斯。現要實現這樣一個分類任務:對於一條數據,我們希望預測它屬於m個類別中的哪個類別 。
原创 並行計算:OpenMP(四)——一些函數操作
OpenMP中提供的函數一般與獲取系統信息、上鎖相關。 一、線程相關 1.omp_get_num_procs 返回調用函數時可用的處理器數目。 函數原型 int omp_get_num_procs(void
原创 並行計算:openMP(一)—— parallel,for,sections指令的用法
一、簡介 OpenMP介紹 在C/C++中,OpenMP可以通過使用預處理指令來讓程序並行化。OpenMP指令使用的格式爲: #pragma omp 指令 [子句[子句]…] 下面是一個最簡單的OpenMP程序, #include
原创 並行計算:OpenMP(二)關於變量的可共享性——private、shared子句
一、private子句 1. private private 子句可以將變量聲明爲線程私有,聲明稱線程私有變量以後,每個線程都有一個該變量的副本,線程之間不會互相影響,其他線程無法訪問其他線程的副本。原變量在並行部分不起任
原创 C/C++:編譯全過程——預處理、編譯、彙編、鏈接(包含預處理指令:宏定義,文件包括、條件編譯)
一、前言 C/C++的編譯過程包含了四個步驟: 1. 預處理(Preprocessing) 2. 編譯(Compilation) 3. 彙編(Assemble) 4..鏈接(Linking) 二、
原创 C++:重複編譯與重複定義
一、爲什麼要避免重複包含? 1.在編譯c或c++程序時候,編譯器首先要對程序進行預處理,預處理其中一項工作便是將你源程序中#include的頭文件完整的展開,如果你在(同一個.cpp下)有意或無意的多次包含相同的頭文件,會導致
原创 C++: 內存模型——搞清楚全局變量、靜態變量、const常量
一、前言 相對於從名稱定義全局變量、靜態變量、const常量去了解他們,我們不如從本質上去區分他們。也就是從另一個角度看待這些變量或常量的區別。 對於C++中的變量而言,它有三種特性,存儲持續性、作用域、以及鏈接性。
原创 C++:處理數據——原址內置類型和C++11初始化方式
一、原始內置類型(Primitive Built-in Types) 事實上對於原始內置類型的大小(字節數)每種環境是不太一樣的,但C++提供了一種靈活的標準,它規定了最小長度,如: short至少16位
原创 C++ map、unordered_map操作方法簡潔清晰
一、map、unordered_map簡介 鍵值對:鍵key 與 值value組成的對。 map的底層是由紅黑樹實現的,相當於Java中的TreeMap。 unordered_map底層是由開散列實現的,相當於Ja
原创 機器學習:sklearn分類報告classification_report()中精確率, 召回率, F1等的含義
一、classification_report簡介 def classification_report(y_true, y_pred, labels=None, target_names=None, sample_weight=Non
原创 滑動窗口:給你一個僅由大寫英文字母組成的字符串,你可以將任意位置上的字符替換成另外的字符,總共可最多替換 k 次。在執行上述操作後,找到包含重複字母的最長子串的長度。
一、問題描述 給你一個僅由大寫英文字母組成的字符串,你可以將任意位置上的字符替換成另外的字符,總共可最多替換 k 次。在執行上述操作後,找到包含重複字母的最長子串的長度。 注意: 字符串長度 和 k 不會超過 。 示例 1: 輸入: s
原创 機器學習:線性迴歸的mxnet實現和無框架實現
一、線性迴歸的數學原理 二、無框架實現 from sklearn.datasets import load_svmlight_file from sklearn.model_selection import train_test
原创 機器學習之keras:keras中的complie、fit、predict、save函數說明
一、模型定義 keras中模型定義十分簡單,主要通過add函數來添加layers,而這些layers包含比如卷積層Conv2D、池化層Pool,全連接層Dense, 激活函數層Activation等。 下面是一個淺卷積網絡的例子: