原创 【深度學習入門】在cifar10上用Keras搭建簡單的深度學習模型(數據處理、數據增強、各種loss)
How to Build a Deep Learning Project——With Keras Step One: Data reading For cifar10, this step is very easy, Keras
原创 【LeetCode】102. Binary Tree Level Order Traversal(二叉樹的層級遍歷 完整代碼)
題目如下: 這道題是求二叉樹的層次遍歷,也即寬度優先遍歷,並將結果以二維數組形式輸出。 因爲樹的每一層節點數可能不同,所以採用二維不定長的vector向量儲存 採用遞歸方式求解,找完一層找下一層 輸入在下面的程序前需要處理一下,採用先序
原创 【C/C++】C++11 for循環新用法
原文鏈接:https://blog.csdn.net/hackmind/article/details/24271949 前言 C++11這次的更新帶來了令很多C++程序員期待已久的for range循環,每次看到ja
原创 C指針學習雜記
1、數組與指針的區別,見程序: #include <stdio.h> void func(int pdata[]) { printf("sizeof(pdata)=%d\n",sizeof(pdata)); } int main(
原创 【深度學習】神經網絡訓練loss不下降或一直上升
一,train loss與test loss結果分析4666train loss 不斷下降,test loss不斷下降,說明網絡仍在學習;train loss 不斷下降,test loss趨於不變,說明網絡過擬合;train
原创 【目標檢測】目標檢測模型比較
最近在準備找工作面試,本文在此梳理了目標檢測中涉及的面試要用的知識點,包含了一下幾方面: My paper reading 過程總結: 實際步驟 所花時間 評價 改進 先看了abstract, 1 introducti
原创 【圖像分割】圖像分割論文集合
Image Segmentation Fully Convolutional Networks for Semantic Segmentation CVPR’15 問題 這是第一次訓練端對端的FCN進行 像素級別預
原创 【ubuntu】安裝ubuntu+win10雙系統後找不到win10啓動項
最近在學習深度學習的內容,由於tensorflow不支持window,所以打算安裝個ubuntu試試,結果安裝完後總是直接從ubuntu啓動,而且找不到win10啓動項! 着急!緊張! 網上搜了下解決方案。找到一條有用的解決方案: sud
原创 【ubuntu】 顯卡訓練模型錯誤 已放棄 (核心已轉儲) 正確解決方法
在Ubuntu系統下用顯卡訓練深度學習模型時,總會遇到以下問題: 已放棄(核心已轉儲) 此時說明GPU的顯存已滿,一種解決辦法是重啓命令行或重啓電腦,另一種方法是手動清理顯存,步驟如下: 首先在命令行輸入指令 nvidia-smi
原创 【深度學習】關於深度學習的基本知識(面試常見問題)
轉自:https://blog.csdn.net/weixin_41421485/article/details/81254563 ResNet(殘差網絡),DenseNet(密集連接卷積網絡) 激活函數是用來加入非線性因素的
原创 【圖像分割】DeepMedic —— 醫學圖像分割的3D CNN框架
轉自https://blog.csdn.net/JYZhang_CVML/article/details/79519748 醫學圖像分割領域的最經典的分割網絡之
原创 【圖像分割】U-net——基於FCN的強大分割網絡
在網絡結構方面,U-net已經在皮膚癌分割、肺結節分割等方面證明了其強大的優越性。 本文解讀其論文:U-Net: Convolutional Networks for Biomedical Image Segmentation (論文地址
原创 【LeetCode】53. Maximum Subarray 動態規劃、最大子段和
題爲求數列的最大子串和,分析後採用動態規劃策略 最初的想法是用 f[i] 表示 0 到 i 區間的最大子串和,但這樣並不能很好的用當前狀態表示下一狀態,因爲最優的子串可能與下一個數字不連續 進而想到以 f[i] 表示 0 到 i 區間且
原创 【LeetCode】931. Minimum Falling Path Sum 動態規劃、取容器最值
一到簡單的DP,一遍AC 當前行狀態受上一行的狀態約束,很容易寫出狀態轉移方程 dp[i][j]=min(min(dp[i-1][j-1], dp[i-1][j+1]), dp[i-1][j])+A[i][j]; 需要處理的是首尾兩
原创 【深度學習】神經網絡調參實戰經驗
一、關於超參數 1、學習率 訓練經過幾個批次 (batch or step) 模型的目標函數損失值就急劇上升,這說明模型訓練的學習率過大,此時應該減小學習率,從頭訓練。 學習率減緩機制 1. 輪數減緩(step decay) 2. 指數減