原创 週末總結——7月5號

仔細想一下,這周都幹了什麼,大概就是: 週一:把之前看的ResNet論文思路整理了一下,又把官方給的代碼跟了核心部分。 週二:在啃機器學習實戰那本書,主要學k-近鄰算法,書上海王的例子可太有意思了。方法學廢了,那麼帥哥在哪裏? 週

原创 交叉熵+全連接層的構建

目錄1. 求熵2. 交叉熵3.用交叉熵進行多分類問題4.用nn.Linear構建全連接層5. 繼承nn.Module構建全連接層 1. 求熵 import torch def Entropy(x): y = -(x *

原创 2D函數最小值優化

import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D import torch def himmel

原创 visdom——數據可視化

安裝visdom win+R打開運行,鍵入: pip install visdom 打開使用,鍵入: python -m visdom.server 然後我電腦直接報錯就打不開visdom,然後我嘗試鍵入: visdom

原创 週末總結——6月14日

這周註定很難忘,因爲我大學畢業啦~ 甚至還來不及怎麼傷感,就要開始新的學習、新的進程了。 畢竟以後這種離別只會多不會少,得慢慢習慣。 我萬分期待即將到來的研究生的生活~ ❤❤❤ ~~~~~~~~~~~~~~~~~~~~~~~~~~

原创 週末總結——6月28號

神經網絡 主要精力放在這上邊,現在會搭建簡單的神經網絡,會用卷積神經網絡進行簡單的圖像分類(但是我還不知道我的運行結果怎麼樣,因爲昨天pytorch出問題後就沒寫代碼了)。根據我自己的理解和參考一些資料,把卷積的一些知識整理

原创 週末總結——6月21號

這周簡稱自閉周…… pytorch 前幾天對之前學的視頻內容進行了整理,主要有拼接和拆分、pytorch中的基本運算(包括加減乘除、矩陣運算、平方、開方、近似值以及求取最大最小值等)、屬性統計(求範式、平均值、累乘、累加

原创 Deep Residual Learning for Image Recognition——思路整理

摘要 簡化 -將層次重新定義爲剩餘函數 -更容易優化模型 -深度越深精確度越高,且複雜度也降低 -錯誤率低而贏得2015年ImageNet第一名 深度是獲獎的基本條件 1.介紹 模型深度豐富了深度網絡的等級 深模型問題:梯度

原创 Deep Residual Learning for Image Recognition(翻譯)

論文地址 基於深度殘差學習的圖像識別 摘要 更深入的神經網絡是更難去訓練的。我們呈現一個殘差學習框架來簡化那些明顯比過去深入的使用神經網絡訓練。我們通過重新制定層次作爲涉及層輸入的學習剩餘函數,而不是學習未涉及到的功能。我們提供全

原创 翻譯單詞彙總

ease: n. 容易; 輕易; 不費勁; 舒適; 安逸; 自在; 無憂無慮; v. (使) 寬慰; 減輕; 緩解; (使) 小心緩緩地移動; 使…容易些; residual:adj. 剩餘的; 殘留的; n. 剩餘; 殘渣

原创 研0第一課——寫論文的那些事

目錄1.圖像復原相關資料數學機器學習圖像處理2.如何寫論文寫論文之前寫論文寫論文工具論文的結構注意事項3. 如何讀論文 1.圖像復原相關資料 數學 線性代數: -MIT線代基礎 -A 2020 Vision of Linear

原创 西瓜書——第三章課後習題

題3.1 試析在什麼情況下f(x)=w^(T)+b中不必考慮偏置項b 首先要知道爲什麼要加偏置項?它的作用是什麼?在之前學過的一次函數中,b其實就是函數在y軸的截距,控制着函數偏離原點的距離,那麼在線性模型中應該也是類似作用。

原创 西瓜書之決策樹的一生

最近看西瓜書的決策樹這一章,給我看懵了。感覺得自己動手一步一步計算才能理解具體怎麼構造的,然後才能寫程序。就以書上的西瓜集2.0爲例: 1.先搞清兩個概念: 信息熵和信息增益 信息熵越小,純度越高。計算公式如下: 條件熵:

原创 藍牙小車

實物圖: 藍牙小車代碼: #include<reg52.h> typedef unsigned int u16; typedef unsigned char u8; sbit IN1 = P2^1; sbit IN2 = P2

原创 Python交互模式導入自己寫的模塊的方法

我的python軟件安裝在D:\PyThon,而我想導入的knn文件保存在E:\python_list中 如果在交互模式如果直接導入,是會報錯的: 所以需要變換目錄,有兩種方法: ①把knn文件保存到D盤python的文件夾內,