原创 datawhale訓練營pytorch第四次作業-用pytorch實現多層網絡

【Task4(2天)】用PyTorch實現多層網絡 1.引入模塊,讀取數據 2.構建計算圖(構建網絡模型) 3.損失函數與優化器 4.開始訓練模型 5.對訓練的模型預測結果進行評估   1.引入模塊,讀取數據: import torch

原创 pytorch實現task2——文本預處理、語言模型和CNN

文本預處理 文本預處理的參考文本爲:http://www.gutenberg.org/ebooks/35 文本預處理的實現代碼爲: ##讀入文本 import collections import re def read_time_ma

原创 datawhale訓練營數據pytorch第三次作業

本期的作業內容爲: PyTorch實現Logistic regression  1.PyTorch基礎實現代碼 2.用PyTorch類實現Logistic regression,torch.nn.module寫網絡結構 代碼爲: impo

原创 pandas學習-task3

一、SAC過程 SAC指的是分組操作中的split-apply-combine過程 在該過程中,我們實際往往會遇到四類問題: 整合(Aggregation)——即分組計算統計量(如求均值、求每組元素個數) 變換(Transformatio

原创 pandas教程-task4(變形)

pandas變形的常用功能有: 1. pivot 一般狀態下,數據在DataFrame會以壓縮(stacked)狀態存放,例如上面的Gender,兩個類別被疊在一列中,pivot函數可將某一列作爲新的cols: 然而pivot函數具有很

原创 pandas學習-task2

1. loc方法、iloc方法、[]操作符 一般而言,最常用的索引方法就是這三類 iloc表示位置索引(i表示index) loc表示標籤索引 []也具有很大的便利性 (a)loc方法 trick one: 所有在loc中使用的切片全部包

原创 pandas學習-task1

練習一、現有一份關於美劇《權力的遊戲》劇本的數據集,請解決以下問題: 在所有的數據中,一共出現了多少人物? 564個人物 方法一:直接統計 import pandas as pd df = pd.read_csv(     r'D:\De

原创 pytorch實現task4——機器翻譯及相關技術;注意力機制與Seq2seq模型;Transformer

機器翻譯 機器翻譯(MT):將一段文本從一種語言自動翻譯爲另一種語言,用神經網絡解決這個問題通常稱爲神經機器翻譯(NMT)。 主要特徵:輸出是單詞序列而不是單個單詞。 輸出序列的長度可能與源序列的長度不同。 其主要的步驟包括數據預處理、分

原创 pytorch實現task1——線性迴歸;Softmax與分類模型、多層感知機

本次是參加datawhale新一期活動,它和伯禹學習平臺以及K-Lab合作推出了《動手學深度學習》這本書的Pytorch版代碼講解。積極參加,努力學習。 task1的內容包括線性迴歸;Softmax與分類模型、多層感知機。以下分述: 線性

原创 pytorch實現task5——卷積神經網絡基礎;leNet;卷積神經網絡進階

卷積神經網絡基礎 卷積神經網絡包括卷積層和池化層。 二維卷積層 最常見的是二維卷積層,常用於處理圖像數據。 二維互相關運算 二維互相關(cross-correlation)運算的輸入是一個二維輸入數組和一個二維核(kernel)數組,輸出

原创 pytorch實現task3——過擬合、欠擬合及其解決方案;梯度消失、梯度爆炸;循環神經網絡進階

過擬合、欠擬合及解決方案在之前自己已經使用較多較熟練,故跳過。 梯度消失、梯度爆炸 深度模型有關數值穩定性的典型問題是消失(vanishing)和爆炸(explosion)。 當神經網絡的層數較多時,模型的數值穩定性容易變差。 在神經網絡

原创 datawhale訓練營數據pytorch第7次作業

數據集爲MNIST,用它來進行手寫數據識別: import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim f

原创 datawhale訓練營數據pytorch第5次作業

【Task5(2天)】PyTorch實現L1,L2正則化以及Dropout 1.瞭解知道Dropout原理 2.用代碼實現正則化(L1、L2、Dropout) 3.Dropout的numpy實現 4.PyTorch中實現dropout  

原创 datawhale訓練營數據pytorch第6次作業

【Task6(2天)】PyTorch理解更多神經網絡優化方法 1.瞭解不同優化器 2.書寫優化器代碼 3.Momentum 4.二維優化,隨機梯度下降法進行優化實現 5.Ada自適應梯度調節法 6.RMSProp 7.Adam 8.PyT

原创 datawhale訓練營pytorch作業二

本期作業包括: 1.numpy和pytorch實現梯度下降法 2.設定初始值 3.求取梯度 4.在梯度方向上進行參數的更新 5.numpy和pytorch實現線性迴歸 6.pytorch實現一個簡單的神經網絡 7.參考資料:PyTorch