原创 什麼是激活函數?

title: 什麼是激活函數 date: 2019-11-08 12:55:45 mathjax: true categories: nlp-自然語言處理 tags: nlp-自然語言處理 文章目錄先拋開什麼神經,深度之類

原创 機器學習實戰- 迴歸(Regression) 概述

文章目錄迴歸(Regression) 概述迴歸 場景迴歸 原理1、線性迴歸1.1、線性迴歸 須知概念1.1.1、矩陣求逆1.1.2、最小二乘法1.2、線性迴歸 工作原理1.3、線性迴歸 開發流程1.4、線性迴歸 算法特點1.5、線

原创 task1-房價預測

1. 賽題分析 比賽要求參賽選手根據給定的數據集,建立模型,預測房屋租金。 數據集中的數據類別包括租賃房源、小區、二手房、配套、新房、土地、人口、客戶、真實租金等。 這是典型的迴歸預測。 預測指標 迴歸結果評價標準採用R-Squa

原创 pytorch-transformer

Transformer 在之前的章節中,我們已經介紹了主流的神經網絡架構如卷積神經網絡(CNNs)和循環神經網絡(RNNs)。讓我們進行一些回顧: CNNs 易於並行化,卻不適合捕捉變長序列內的依賴關係。 RNNs 適合捕捉長距

原创 pytorch- softmax和分類模型

softmax和分類模型 內容包含: softmax迴歸的基本概念 如何獲取Fashion-MNIST數據集和讀取數據 softmax迴歸模型的從零開始實現,實現一個對Fashion-MNIST訓練集中的圖像數據進行分類的模型

原创 pytorch-卷積神經網絡基礎

卷積神經網絡基礎 本節我們介紹卷積神經網絡的基礎概念,主要是卷積層和池化層,並解釋填充、步幅、輸入通道和輸出通道的含義。 二維卷積層 本節介紹的是最常見的二維卷積層,常用於處理圖像數據。 二維互相關運算 二維互相關(cross-c

原创 pytorch-機器翻譯

機器翻譯和數據集 機器翻譯(MT):將一段文本從一種語言自動翻譯爲另一種語言,用神經網絡解決這個問題通常稱爲神經機器翻譯(NMT)。 主要特徵:輸出是單詞序列而不是單個單詞。 輸出序列的長度可能與源序列的長度不同。 import

原创 pytorch-modernCNN

深度卷積神經網絡(AlexNet) LeNet: 在大的真實數據集上的表現並不盡如⼈意。 1.神經網絡計算複雜。 2.還沒有⼤量深⼊研究參數初始化和⾮凸優化算法等諸多領域。 機器學習的特徵提取:手工定義的特徵提取函數 神經網絡的

原创 pytorch-過擬合、欠擬合及其解決方案

過擬合、欠擬合及其解決方案 過擬合、欠擬合的概念 權重衰減 丟棄法 模型選擇、過擬合和欠擬合 訓練誤差和泛化誤差 在解釋上述現象之前,我們需要區分訓練誤差(training error)和泛化誤差(generalization

原创 pytorch-梯度消失、梯度爆炸以及Kaggle房價預測

梯度消失、梯度爆炸以及Kaggle房價預測 梯度消失和梯度爆炸 考慮到環境因素的其他問題 Kaggle房價預測 梯度消失和梯度爆炸 深度模型有關數值穩定性的典型問題是消失(vanishing)和爆炸(explosion)。 當

原创 隨機森林 random forest

隨機森林 random forest 數據集地址 概述:隨機森林是指多棵樹對樣本進行訓練並且預測的一種分類器,決策樹相當於大師,通過自己在數據集中學習到的只是用於新數據的分類,三個臭皮匠,頂個諸葛亮 原理: 數據的隨機化:

原创 Adaboost算法

Adaboost算法 集成學習概述 集成學習算法定義 集成學習(Ensemble learning)就是講若干個弱分類器通過一定策略組合後產生一個強分類器。弱分類器(weak Classifier)指的就是那些分類準確率只比隨機

原创 pytorch-多層感知機

多層感知機 多層感知機的基本知識 使用多層感知機圖像分類的從零開始的實現 使用pytorch的簡潔實現 多層感知機的基本知識 深度學習主要關注多層模型。在這裏,我們將以多層感知機(multilayer perceptron,M

原创 task2數據清洗

任務2數據清洗 Task02:數據清洗(2天) https://github.com/datawhalechina/team-learning/blob/master/數據競賽(房租預測)/2_數據清洗.ipynb 每一步都要認真

原创 矩陣求導

轉載說明 點贊 收藏 分享 文章舉報 胖虎艾春輝 發佈了157 篇原創文章 · 獲贊 23 · 訪問量 1萬+ 私信