原创 歸併排序的c++代碼實現

歸併排序 歸併排序的思想:將數組一分爲二,分別對左右兩個數組進行排序,然後對左右兩個有序數組歸併成一個有序數組 時間複雜度:O(nlogn) 自頂向下的代碼 template<typename T> void __merge(T arr[

原创 簡單排序算法:冒泡排序,選擇排序和插入排序的c++實現

所有代碼的實現採用了模板類,如果對模板類不熟悉,可以把T換成 int 一、冒泡排序 冒泡排序的思想:相鄰元素兩兩比較,如果逆序則交換 冒泡排序的實現思路:i 從數組的第二個下標開始循環(即以下標爲1開始),每次從最後一個元素開始,依次與前

原创 c++中指針的引用 *&作爲參數傳遞

我們都知道c++中的參數傳遞是值傳遞,想要通過函數修改形參,一般使用指針或者引用。 那麼有時候我們對於傳入的指針地址希望做修改怎麼辦呢? 今天在寫一個樹結構的題時碰到這個問題 大概代碼是 void insert_array(Tree

原创 阿里秋招編程題

1.現在城市有N個路口,每個路口有自己的編號,從0到N-1,每個路口還有自己的交通控制信號,例如0,3表示0號路口的交通信號每3個時刻變化一次,即0到3時刻0號路口允許通過,3到6時刻不允許通過,而6到9時刻又允許通過;以此類推,所有路口

原创 快速排序的c++代碼實現

快速排序的基本思想就是選擇一個pivot,將小於pivot的值都放在左邊,將大於pivot的值都放在右邊,然後遞歸,爲了簡單pivot取最左邊的值 void quickSort(int a[], int left, int right

原创 如何在pyspark的udf中傳入數據參數

如何在pyspark的udf中傳入數據參數問題定義解決方案 問題定義 我希望在pyspark中使用withColumn函數對dataframe的某一列進行udf操作,需要傳入一個字典,形如: def func_is_holiday(h

原创 【機器學習深度學習】教程——學習率,批梯度下降,歸一化

本系列文章由@ 努力學挖掘機的李某某出品,轉載請註明出處。 文章鏈接:http://blog.csdn.net/qq_30911665 雖然讀研期間做的內容和機器學習相關,但是17年秋招時發現自己對於機器學習深度學習的理解不夠深入,而自

原创 【機器學習深度學習】教程——梯度下降法

本系列文章由@ 努力學挖掘機的李某某出品,轉載請註明出處。 文章鏈接:http://blog.csdn.net/qq_30911665 雖然讀研期間做的內容和機器學習相關,但是17年秋招時發現自己對於機器學習深度學習的理解不夠深入,而自

原创 論文閱讀《Edge Detection Using Convolutional Neural Network》

Abstract: 提出了一個基於CNN的邊緣檢測算法,可以直接得到圖像塊是否爲邊緣的預測。 Introduction: 1.傳統的方法:基於梯度,假設不同的物體之間存在較大的梯度,相同物體內的梯度較小,但是現實情況下很多時候這個假設不成

原创 《慕課網玩轉算法面試》筆記及習題解答9.4

198. House Robber You are a professional robber planning to rob houses along a street. Each house has a certain amount

原创 【機器學習深度學習】教程—— 什麼是機器學習

本系列文章由@ 努力學挖掘機的李某某出品,轉載請註明出處。文章鏈接:http://blog.csdn.net/qq_30911665雖然讀研期間做的內容和機器學習相關,但是17年秋招時發現自己對於機器學習深度學習的理解不夠深入,而自己在學

原创 Djkstra最短路徑算法的c++代碼實現

Djkstra算法是求解單源(起始點固定)最短路徑問題的一種經典方法,它採用了貪心策略(其實我覺得也是動態規劃),可以求得圖中的一個點到其他所有點的距離,計算複雜度是 O(E|V|),如果採用最小堆優化可以達到O(ElogV )。算法的整

原创 Prim算法求最小生成樹的c++代碼實現

Prim算法是求解最小生成樹的常用方法,它的思想非常簡單,講所有的點集合V分爲 已經放入最小生成樹集合的S和未放入的V-S,每次在V-S中選擇一個距離S最近的點放入到S中,直到所有的點都放入S。就是很簡單的貪心策略,不過可以證明是全局最優

原创 《慕課網玩轉算法面試》筆記及習題解答6.7

LeetCode 347 思路:構造k大小的優先隊列,每次用當前元素和隊首元素對比看是否取代 vector<int> topKFrequent(vector<int>& nums, int k) { unorde

原创 AlexNet 《ImageNet Classification with Deep Convolutional Neural Networks》學習筆記

AlexNet的主要結構 總共包含8層學習層:5層卷積層和三層全連接層 下面介紹了幾個重要的網絡結構: 1.ReLU Nonlinearity 相比較於f(x) = tanh(x) 或者 f(x) = (1 + e^-x)^-1這樣的