原创 大白話5分鐘帶你走進人工智能-第四節最大似然推導mse損失函數(深度解析最小二乘來源)(2)

第四節最大似然推導mse損失函數(深度解析最小二乘來源)(2)        上一節我們說了極大似然的思想以及似然函數的意義,瞭解了要使模型最好的參數值就要使似然函數最大,同時損失函數(最小二乘)最小, 留下了一個問題,就是這兩個

原创 大白話5分鐘帶你走進人工智能系列-------目錄

                                                                                目錄          大白話5分鐘帶你走進人工智能-第一節開篇介紹以及線性迴

原创 大白話5分鐘帶你走進人工智能-第三節最大似然推導mse損失函數(深度解析最小二乘來源)(1)

第三節最大似然推導mse損失函數(深度解析最小二乘來源)        在第二節中,我們介紹了高斯分佈的來源,以及其概率密度函數對應的參數的解釋。本節的話,我們結合高斯分佈從數學原理部分解釋爲什麼損失函數是最小二乘。 我們再來回歸

原创 大白話5分鐘帶你走進人工智能-第十六節邏輯迴歸之分類的原因(1)

                                                              第十六節邏輯迴歸做分類的原因(1) 從本節開始,我們講解一個新的算法,邏輯迴歸。多元性迴歸是做迴歸的,它真的是迴歸

原创 大白話5分鐘帶你走進人工智能-第39節神經網絡之DNN網絡的layer功能實現

目錄 一、背景前言 二、DNN概述 三、手寫DNN實現邏輯 四、調用Tensorflow代碼構建DNN 五、模型保存和使用 六、提升準確率方案 七、引申和總結--零初始化,梯度消失和反向傳播 一、背景前言 我們先看下SoftMax的代碼:

原创 大白話5分鐘帶你走進人工智能-第40節神經網絡之調優神經網絡的超參數

神經網絡有着靈活性,同時也是算法的主要缺點:需要有許多超參數需要去調節。比如隱藏層及神經元個數,輪次,每一輪次給多少數據,學習率,對於神經網來說,有很多超參數可以調節。層數,每層的神經元數,在每層使用的激活函數,初始化權重的邏輯,等等 你

原创 大白話5分鐘帶你走進人工智能-第38節神經網絡之TensorFlow利用梯度下降法求解最優解(6)

先看一個傳統方法手動實現線性迴歸和MSE損失函數的方案: import tensorflow as tf import numpy as np from sklearn.datasets import fetch_california_

原创 值得看!!!---大白話5分鐘帶你走進人工智能-第32節集成學習之最通俗理解XGBoost原理和過程

大白話系列更新了~~ 鏈接如下: https://blog.csdn.net/LHWorldBlog/article/details/103504725 目錄如下: 本節講解XGBoost的原理~ 目錄 1、回顧: 1.1 有監督學習中

原创 我的程序員之路

我的程序員之路 關於我: 聯想集團算法工程師一枚。在人工智能的路上一直前行。 聯繫我: 可通過微信公衆號: 也可通過個人微信: 也可通過QQ社區: 一起走進深度學習的魅力,探索人工智能的前沿。讓你穿行在算法的魅力中。 知識

原创 強勢迴歸~大白話5分鐘帶你走進人工智能之第39節神經網絡之DNN網絡的layer功能實現

因爲最近發生了很多事情,導致博文停更,對深愛大白話的AI迷們說聲抱歉。 經歷了深思深思再深思的深思 ,L先生決定將後面的文章設置收費模式。~~~~。主要基於以下原因: 1、因爲是象徵性的收費,大家會更加認真的去看每一篇博文。這樣有利於提

原创 大白話5分鐘帶你走進人工智能-第37節神經網絡之反向傳播詳細案例及解釋(5)

目錄 1、反向傳播前述: 2、第一個案例解說反向傳播: 3、通用案例形式: 4、邏輯迴歸案例: 5、總結: 1、反向傳播前述: 我們知道正向傳播就是把x拿下來一層層的和w乘,然後經過function非線性變化,最後得到一個y輸出結果。反向

原创 大白話5分鐘帶你走進人工智能-第36節神經網絡之tensorflow的前世今生和DAG原理圖解(4)

目錄 1、Tensorflow框架簡介 2、安裝Tensorflow 3、核心概念 4、代碼實例和詳細解釋 5、拓撲圖之有向無環圖DAG 6、其他深度學習框架詳細描述 6.1 Caffe框架: 6.2 Theano框架: 6.3 Kera

原创 大白話5分鐘帶你走進人工智能-第34節神經網絡之多神經網絡概念(2)

目錄 1、回顧: 2、常見的激活函數都有哪些? 3、多層神經網絡裏面故事: 4、如何訓練神經網絡? 1、回顧: 回顧下之前學習的內容。人工神經網絡裏面有重要的三條內容,一個是加和,加function,把前面的輸入所對應模型的權重相乘相加,

原创 大白話5分鐘帶你走進人工智能-第32節集成學習之最通俗理解XGBoost原理和過程

目錄 1、回顧: 1.1 有監督學習中的相關概念 1.2  迴歸樹概念 1.3 樹的優點 2、怎麼訓練模型: 2.1 案例引入 2.2 XGBoost目標函數求解 3、XGBoost中正則項的顯式表達 4、如何生長一棵新的樹? 5、xgb

原创 大白話5分鐘帶你走進人工智能-第33節神經網絡和神經元概念(1)

目錄   1、前述 2、神經網絡實例與概念 3、神經元結構 4、神經元拓撲總結 5、邏輯迴歸和神經元神經網絡的關係 1、前述 不少小夥伴反應爲什麼沒有神經網絡的文章,因爲現在那麼主流。其實本打算更新完算法的基礎篇之後再更新神經網絡的文章。