原创 爲什麼要指令重排序和屏障的作用

內存屏障是一個很神奇的東西,之前翻譯了Linux內核文檔memory-barriers.txt,對內存屏障有了一定有理解。現在用自己的方式來整理一下。 在我看來,內存屏障主要解決了兩個問題:單處理器下的亂序問題和多處理器下的內存同步問題

原创 volatile 淺顯描述

volatile 並不能保證併發下 操作的原子性,而是保證了併發時的可見性。 僅在以下場景中可以保證操作的原子性 1 運算的結果不依賴於當前的變量值,或者只有單一線程在修改變量 2 變量不需要其他變量共同參與不變約束 需要的背景知識:

原创 羅輯迴歸,Logistic Regression(or sigmoid function)

作者:寒小陽 && 龍心塵 時間:2015年10月。 出處:http://blog.csdn.net/han_xiaoyang/article/details/49123419。 聲明:版權所有,轉載請註明出處,謝謝。

原创 numpy知識點大全及如何用python作圖

這篇文章轉載的初衷是,我在搜索這類操作的時候,要不就是很早的文章,要不就是隻寫了一部分功能,如果想完成什麼的話,需要把文章東拼西湊起來很麻煩。這個教程的作者是 Justin Johnson.作者背景:I am a PhD student

原创 Google面試題 圖論的問題

這道題目摘自九章算法   https://www.jiuzhang.com/article/6ai0yN/題目是輸入與輸出這個題目本質上就是刪除一個使該圖內部成環的一條邊,使整個圖中不存在環。這個題目我認爲原文的解釋有點複雜,最快的方法就

原创 基於線性迴歸與核函數——linear function & basis function 的代碼,處理馬拉松數據

首先,線性規劃,比較簡單,對誤差方程 Ex = (y-mx-c)^2 分別求偏導,再令偏導等於0 一步一步的求出m和c。 令偏導等於0的原因是爲了尋找極致點,我們假設每次迭代的都是極值點,而極值點的特點是導數爲0。 python代碼表示

原创 自然語言處理NLP——從發展歷程簡述word2vector好在哪裏?

word2vec是極簡主義的谷歌公司開發出來的一套工具,主要問題是解決文本詞的預測問題,即給定上下文,得到該位置最大可能的結果。在此之前有很多功能類似的方法,比如統計模型中的Ngram模型。但是這個模型存在很多問題。首先 一階模型忽略了詞

原创 經典排序算法——堆排序(基本算法之一)

因爲最近搞堆排序發現,網上有一些代碼的思想沒錯,,但是角標的處理上 有一些瑕疵。。。。所以就想自己寫一個 堆排序主要的思想就是將角標看作是一個完全二叉樹,這裏不懂的話建議去補一補數據結構 所以樹的跟節點爲0, 左節點是 2i+1 右節點

原创 基於幾條大神鏈接的理解,總結數據降維處理——PCA

PCA的目的就是在數據特別多而且特徵散亂的情況下,找到很少的幾個差別很大的特徵,丟棄其他差別較小的特徵(也可以認爲是噪聲),這樣可以將數據簡化又不會丟失太多的特徵差別。 在座標系中表示, 就是找到一個新的座標系,讓這些數據點在座標軸傷的

原创 在某算法比賽上看到的驚爲天人的算法解決計算完美閉合括號數量問題(()()??))——java-based

原題是這樣的: 給定字符串序列 ()()??(? 判斷 這裏麪包含幾個完美閉合的()。?可以代表)或者(。 e.g.  上述序列的完美閉合() 字串是: () () ?? (? ()() ()?? ??(? ()()?? ()??(? (

原创 深度學習筆記-卷積神經網絡CNN與循環神經網絡RNN有什麼區別?

CNN與RNN本質的不同就是所基於的假設不同,由於核心假設的不同,導致實現方式的差異。 CNN 首先理解什麼叫做卷積,或者說爲什麼要翻譯爲卷積神經網絡。 卷積的定義:https://baike.baidu.com/item/%E5%8D

原创 自然語言處理NLP——情感分析(Sentiment Analysis)簡述

基於文本的情感分析,主要關注文章中的主觀句,所以,subjective classifier即將主觀句從文本中分離出來,就是整個情感分析的第一步。一般來說,這個方法是基於規則的分類方法——句子中包含n(一般爲2)個表達情感的詞語時就認爲這

原创 SVM (support vector machine)一個在svm文章中 你可能可以看懂的版本。

鑑於網上所有博客都是上來就貼公式,本人在學習的時候,根本沒有辦法理解svm到底要幹什麼,所以有了這篇稍微通俗一點的講解並且附上本人的學習資料。(字醜。。。。。)(u其實就是x)關於第一步的解釋: 我們把座標系中的點都看作是向量(座標系就是

原创 理解梯度下降,隨機梯度下降,附電影推薦系統的簡單代碼小樣 1.

白話梯度下降: 梯度下降的官方概念網上有很多,說了也沒用,反正我剛學的時候是沒太看懂。 需要的背景知識,偏導率(很重要) 兩個座標點的距離,是兩個向量的點乘積 以實際問題爲例,一個電影推薦系統,向量v(v1,v2)代表這個電影本應存在的

原创 布爾檢索和向量空間模型——nlp基礎學習筆記

首先說布爾檢索,顧名思義 用0,1 代表真假值來進行檢索。比如兩句話    我愛吃鴨,  他愛吃雞可以構造出一個二維矩陣:橫座標是每一句話包含的信息,縱座標是所有文字   句子1 句子2 句子n。。。。你00。。我10。。他01。。吃11