原创 ACM 1002新版本

#include<string.h> main() { void reverse(char *str); char a[20][1001]={'\0'},b[20][1001]={'\0'};//存放a,b 序列的數

原创 學習C語言-4/18/2014

如何在windows 中實現類似Linux cat 程序 1:程序來源於《C programming language》 2 edtion。   2:以上是第二步驟實現cat

原创 leetcode-131 分割回文串 go 實現

題目描述 給定一個字符串 s,將 s 分割成一些子串,使每個子串都是迴文串。返回 s 所有可能的分割方案。分割回文串 輸入: “aab” 輸出: [ [“aa”,“b”], [“a”,“a”,“b”] ] 題解 基本思想參

原创 tensorflow2.0 基本流程學習筆記

定義模型 # 銷燬當前的TF圖並創建一個新圖。 # 有助於避免舊模型/圖層混亂。 tf.keras.backend.clear_session() model = models.Sequential() model.add(la

原创 ACM1003

#include<stdio.h> #include<string.h> main() { static int arr[20][100000]; int i,j,a,n=0,t,result=0,sum=0;

原创 過度擬合

     最近學習《機器學習》這門課程涉及到了Overfitting。上網查了一些資料,可以簡單的理解了,所以就摘錄下來。      爲了得到一致假設而使假設變得過度複雜稱爲過擬合。想像某種學習算法產生了一個過擬合的分類器,這個分類器能夠

原创 equals || == 小結

<span style="font-size:14px;">Note:</span><span style="font-size:14px;">one:The <code>equals</code> method for class <c

原创 ACM-1002

原文地址:   杭電acm 1002 請各位幫我看下,我這個代碼爲何是WrongAnswer,是不是因爲我的數據範圍的問題,還是思路不正確? #include<stdio.h> main() { _int64 c[20

原创 《TensorFlow實戰》MNIST分類實戰筆記-ch03

背景 因爲看paper或者別人的源碼,總是連感性認識都沒有,很是捉急。在網上找一些博客來看看, 不過是臨時解決問題,碎片的很!故買本tensorflow實戰書學習,培養感性認識,待將來有機會再上升到理性認識。 學習內容 因爲之前隱

原创 Two Sum

</pre><pre name="code" class="java"><p style="margin-top: 0px; margin-bottom: 20px; padding-top: 0px; padding-bottom:

原创 Linus Torvalds 對開發者的建議:要想成功,就要個性化

 英文原文地址:http://www.infoworld.com/t/linux/linus-torvalds-developers-succeed-make-it-personal-245055 Linus Torvalds 對開

原创 深度學習之激活函數

激活函數 sigmoid 1、軟飽和激活函數 2、硬飽和激活函數,即:f’(x)=0,當 |x| > c,其中 c 爲常數 優點 1、其飽和性雖然會導致梯度消失 2、用於概率輸出,常見於二分類問題 3、它在物理意義上最爲接近生物神

原创 時間管理--行動

行動 接着上節內容,本節講講有了計劃以後,在具體行動層面,如何高效地應對紛繁複雜的工作。 複雜任務,你需要一個進一步的“預處理”過程。也就是把它們, 拆分成一個個動作。 如何行動 那就是踐行 “轉”、“做”、“存”、“扔”四字訣

原创 時間管理--計劃

      最近學習了得到APP上的一門關於時間課程,共有5小節,現在將所講,所學,所思總結到一起。 1 規劃與備忘       第一節講的就是計劃。凡事未雨綢繆,自然相對會多一分淡定與坦然。 對你未來要達成的目標,以及達成路徑,

原创 BP反向傳播算法原理

BP 反向傳播算法原理學習 學習神經網絡涉及到梯度消失、爆炸這塊,搜尋一些資料加上個人理解,整理如下,以備後期複習。如能得到斧正,不勝感激! 變量定義 ​ 關於這裏的推導我是這樣理解的: 與 都有直接的運算