原创 概率論:均值、標準差、方差、矩

一、均值 離散情況: X‾=∑i=1nXin\overline{X}={\sum_{i=1}^nX_i\over n}X=n∑i=1n​Xi​​ 二、標準差 S=∑i=1n(xi−X‾)2n−1S=\sqrt{{\sum_{i=1

原创 複變函數:傅里葉級數、傅里葉變換

一、傅里葉級數 1.1 對週期函數進行分解的猜想 拉格朗日等數學家發現某些週期函數可以由三角函數的和來表示,比如下圖: 而另外一位數學家猜測任意週期函數都可以寫成三角函數之和。 1.2 分解的思路 1.2.1 常數項 根據週期函

原创 概率論:中心極限定理、馬爾科夫不等式、切比雪夫不等式、大數定理

一、中心極限定理 1.1 獨立同分布的中心極限定理 1.1.1 定理 設X1,X2,...,Xn爲相互獨立、服從同一分布的隨機變量序列,且E(Xi)=μ,D(Xi)=σ2≠0(i=1,2,...n),則對於任意x,有:設X_1,X

原创 概率論:多元高斯分佈

一、多元高斯分佈: 一元高斯分佈的概率密度函數如下所示: p(x)=1σ2π⋅e−12(x−μσ)2(1)p(x)={1\over\sigma\sqrt{2\pi}}\centerdot e^{-{1\over2}({x-\mu\

原创 矩陣知識:矩陣乘法

一、從高斯消元法到矩陣乘法: 1.1 高斯消元法 假設存在如下的方程: 將方程化爲如下的形式是高斯消元法的目標: {R=?G=?B=?\begin{cases} R=?\\G=?\\B=? \end{cases}⎩⎪⎨⎪⎧​R=

原创 矩陣知識:特徵值&特徵向量

一、特徵值&特徵向量 1.1 直觀印象 如果把矩陣看作是運動,對於運動而言,最重要的是運動的速度和方向,那麼: 特徵值就是運動的速度 特徵向量就是運動的方向 既然運動最重要的兩方面都被描述了,特徵值、特徵向量自然可以稱爲運動(

原创 優化問題

一、約束優化問題: minwf(w)s.t.gi(w)≤0(i=1,...,k)hj(w)=0(j=1,...l)min_w f(w) \\ s.t. \\ g_i(w)\le 0 (i=1,...,k)\\h_j(w)=0(j=

原创 katex

https://blog.csdn.net/qq_41746268/article/details/90244344

原创 操作系統面試知識複習

線程和進程的比較: 概念: 進程:是計算機中的程序關於某數據集合上的一次運行活動,是系統進行資源分配和調度的基本單位,是操作系統結構的基礎。在當代面向線程設計的計算機結構中,進程是線程的容器。程序是指令、數據及其組織形式的描述,進

原创 c++各種常用庫

cmath: 開根號: #include<iostream> #include<cmath> using namespace std; int main(){ double x=8; cout<<pow(x,1.0/3)<

原创 ubuntu文件系統知識

PATH環境變量: PATH is an environmental variable in Linux and other Unix-like operating systems that tells the shell whi

原创 DFS && BFS

深度優先搜索和廣度優先搜索的比較: 深度優先搜索是按照樹的層次來搜索一張圖的,假設一個節點衍生出來的相鄰節點的平均個數是N個,那麼當起點開始搜索的時候,隊列有一個節點,當起點拿出來後,將它相鄰的節點放進去,那麼隊列就有N個節點,當

原创 pytorch項目源碼理解

np.random.seed() && torch.manual_seed() 這兩個隨機數種子的作用是使pytorch中的結果可以復現,在神經網絡中參數是進行隨機隨機初始化的,所以每次初始化會得到不同的初始化參數,這樣每次訓練出

原创 python各個模塊

os模塊 os.listdir(path=’.’) 以list形式返回路徑下的所有文件名,傳入path時要注意一點,路徑中的反斜線最好使用兩個,使用一個反斜線加字母容易產生反義歧義 import os x=os.listdir(