原创 安裝相關問題

conda通過參數設置修改超時時間 原文鏈接https://blog.csdn.net/arthur_holmes/article/details/105095088?utm_medium=distribute.pc_relevant.n

原创 常用神經網絡模型總結

轉載鏈接:https://blog.csdn.net/qq_24690701/article/details/81868048

原创 Tensorflow過擬合與欠擬合

由於真實數據的分佈往往是未知而且複雜的,無法推斷出其分佈函數的類型和相關參 數,因此人們在選擇學習模型的容量時,往往會根據經驗值選擇稍大的模型容量。但模型 的容量過大時,有可能出現在訓練集上表現較好,但是測試集上表現較差的現象。 當模型的

原创 Tensorflow油耗預測實戰

 加載數據 dataset_path = keras.utils.get_file("auto-mpg.data", "http://archive.ics.uci.edu/ml/machine-learning-databases/a

原创 Tensorflow深度學習-自編碼器

前面我們介紹了在給出樣本及其的標籤的情況下,神經網絡如何學習的算法,這類算 法需要學習的是在給定樣本𝒙下的條件概率𝑃(𝑦|𝒙)。在社交網絡蓬勃發展的今天,獲取海量 的樣本數據𝒙,如照片、語音、文本等,是相對容易的,但困難的是獲取這些數據所

原创 Tensorflow誤差計算

1. 均方誤差計算 均方差(Mean Squared Error,簡稱 MSE)誤差函數把輸出向量和真實向量映射到笛卡爾 座標系的兩個點上,通過計算這兩個點之間的歐式距離(準確地說是歐式距離的平方)來衡 量兩個向量之間的差距。 MSE(

原创 Tensorflow梯度相關,LSTM,GRU

我們把梯度值接近於 0 的現象叫做梯度彌散(Gradient Vanishing),把梯度值遠大於 1 的 現象叫做梯度爆炸(Gradient Exploding)。梯度彌散和梯度爆炸是神經網絡優化過程中間比 較容易出現的兩種情況,也是不

原创 Tensorflow深度學習-第四天

前向傳播的最後一步就是完成誤差的計算 L = g(f_{\theta} (x), y) 代表了利用𝜃參數化的神經網絡模型,𝑔(∙)稱之爲誤差函數,用來描述當前網絡的預測值𝑓 (𝒙)與真實標籤𝒚之間的差距度量,比如常用的均方差誤差函數。L

原创 Tensorflow導數梯度相關

導數與梯度 不知道的同學可以再回去看看數學,其實數學還是很有用的。 在高中階段,我們就接觸到導數(Derivative)的概念,它被定義爲自變量𝑥產生一個微小 擾動∆𝑥後,函數輸出值的增量∆𝑦與自變量增量∆𝑥的比值在∆𝑥趨於 0 時的極限

原创 Tensorflow深度學習-第三天

爲了區分需要計算梯度信息的張量與不需要計算梯度信息的張量,TensorFlow 增加了 一種專門的數據類型來支持梯度信息的記錄:tf.Variable。tf.Variable 類型在普通的張量類 型基礎上添加了 name,trainabl

原创 Tensorflow深度學習-第一天

有監督學習 有監督學習的數據集包含了樣本𝒙與樣本的標籤𝒚,算法模型需要學習到映射關係𝑓 : 𝒙 → 𝒚,其中𝑓 代表模型函數,𝜃爲模型的參數。在訓練時,通過計算模型的預測值𝑓 (𝒙)與真實標籤𝒚之間的誤差來優化網絡參數𝜃,使得網絡下一次

原创 Tensorflow深度學習-第二天

上面講到了我們通過採樣多個數據樣本及,然後找到一條最好的直線,使其儘可能地讓所有采集點到該直線到誤差之和最小。 但是由於觀測誤差的存在,當我們採集多個數據點時,可能不存在一條直線完美的穿過所有采樣點。退而求其次,我們希望能找到一條比較“好

原创 操作系統實踐?

實現支持異步任務的線程池 使用python3 理解原理,自行實現 ThreadPoolExecutor 視頻鏈接:https://www.bilibili.com/video/BV1a54y1D7R8?p=27

原创 一 操作系統概覽

操作系統是管理計算機硬件和軟件資源的計算機程序(軟件) 1. 操作系統的種類是多種多樣的,不侷限於計算機 2. 從手機到超級計算機,操作系統可簡單也可複雜 3. 在不同設備上,操作系統可向用戶呈現多種操作手段 一 爲什麼我們需要操作系統

原创 TensorFlow知識點總結

1 iter和next 原文鏈接:https://blog.csdn.net/weixin_43544406/article/details/103091988 2 summary model = Sequential ([