原创 【深度學習入門】在cifar10上用Keras搭建簡單的深度學習模型(數據處理、數據增強、各種loss)

How to Build a Deep Learning Project——With Keras Step One: Data reading For cifar10, this step is very easy, Keras

原创 【LeetCode】102. Binary Tree Level Order Traversal(二叉樹的層級遍歷 完整代碼)

題目如下: 這道題是求二叉樹的層次遍歷,也即寬度優先遍歷,並將結果以二維數組形式輸出。 因爲樹的每一層節點數可能不同,所以採用二維不定長的vector向量儲存 採用遞歸方式求解,找完一層找下一層 輸入在下面的程序前需要處理一下,採用先序

原创 【C/C++】C++11 for循環新用法

原文鏈接:https://blog.csdn.net/hackmind/article/details/24271949  前言    C++11這次的更新帶來了令很多C++程序員期待已久的for range循環,每次看到ja

原创 C指針學習雜記

1、數組與指針的區別,見程序:  #include <stdio.h> void func(int pdata[]) { printf("sizeof(pdata)=%d\n",sizeof(pdata)); } int main(

原创 【深度學習】神經網絡訓練loss不下降或一直上升

一,train loss與test loss結果分析4666train loss 不斷下降,test loss不斷下降,說明網絡仍在學習;train loss 不斷下降,test loss趨於不變,說明網絡過擬合;train

原创 【目標檢測】目標檢測模型比較

最近在準備找工作面試,本文在此梳理了目標檢測中涉及的面試要用的知識點,包含了一下幾方面:     My paper reading 過程總結: 實際步驟 所花時間 評價 改進 先看了abstract, 1 introducti

原创 【圖像分割】圖像分割論文集合

Image Segmentation Fully Convolutional Networks for Semantic Segmentation CVPR’15 問題 這是第一次訓練端對端的FCN進行 像素級別預

原创 【ubuntu】安裝ubuntu+win10雙系統後找不到win10啓動項

最近在學習深度學習的內容,由於tensorflow不支持window,所以打算安裝個ubuntu試試,結果安裝完後總是直接從ubuntu啓動,而且找不到win10啓動項! 着急!緊張! 網上搜了下解決方案。找到一條有用的解決方案: sud

原创 【ubuntu】 顯卡訓練模型錯誤 已放棄 (核心已轉儲) 正確解決方法

在Ubuntu系統下用顯卡訓練深度學習模型時,總會遇到以下問題: 已放棄(核心已轉儲)  此時說明GPU的顯存已滿,一種解決辦法是重啓命令行或重啓電腦,另一種方法是手動清理顯存,步驟如下: 首先在命令行輸入指令 nvidia-smi

原创 【深度學習】關於深度學習的基本知識(面試常見問題)

轉自:https://blog.csdn.net/weixin_41421485/article/details/81254563 ResNet(殘差網絡),DenseNet(密集連接卷積網絡) 激活函數是用來加入非線性因素的

原创 【圖像分割】DeepMedic —— 醫學圖像分割的3D CNN框架

轉自https://blog.csdn.net/JYZhang_CVML/article/details/79519748 醫學圖像分割領域的最經典的分割網絡之

原创 【圖像分割】U-net——基於FCN的強大分割網絡

在網絡結構方面,U-net已經在皮膚癌分割、肺結節分割等方面證明了其強大的優越性。 本文解讀其論文:U-Net: Convolutional Networks for Biomedical Image Segmentation (論文地址

原创 【LeetCode】53. Maximum Subarray 動態規劃、最大子段和

題爲求數列的最大子串和,分析後採用動態規劃策略 最初的想法是用 f[i] 表示 0 到 i 區間的最大子串和,但這樣並不能很好的用當前狀態表示下一狀態,因爲最優的子串可能與下一個數字不連續 進而想到以 f[i] 表示 0 到 i 區間且

原创 【LeetCode】931. Minimum Falling Path Sum 動態規劃、取容器最值

 一到簡單的DP,一遍AC 當前行狀態受上一行的狀態約束,很容易寫出狀態轉移方程 dp[i][j]=min(min(dp[i-1][j-1], dp[i-1][j+1]), dp[i-1][j])+A[i][j]; 需要處理的是首尾兩

原创 【深度學習】神經網絡調參實戰經驗

一、關於超參數 1、學習率 訓練經過幾個批次 (batch or step) 模型的目標函數損失值就急劇上升,這說明模型訓練的學習率過大,此時應該減小學習率,從頭訓練。 學習率減緩機制 1. 輪數減緩(step decay) 2. 指數減