原创 mongoDB MMAPv1 Storage Engine
原文鏈接 On this page JournalRecord Storage CharacteristicsRecord Allocation StrategiesMemory Use MMAPv1 is MongoDB’
原创 mongoDB In-Memory Storage Engine
原文鏈接 On this page Specify In-Memory Storage EngineConcurrencyMemory UseDurabilityDeployment Architectures Changed
原创 鏈表中與環相關的問題
141. Linked List Cycle Given a linked list, determine if it has a cycle in it. Follow up: Can you solve it without
原创 Binary Tree Traversal(Preorder, Inorder, Postorder )
Given a binary tree, return the preorder traversal of its nodes’ values. For example: Given binary tree {1,#,2,3},
原创 mongodb的write concern
原文鏈接 mongodb有一個write concern的設置,作用是保障write operation的可靠性。一般是在client driver裏設置的,和db.getLastError()方法關係很大 一般來說,所有的mong
原创 字符串匹配
Implement strStr(). Returns the index of the first occurrence of needle in haystack, or -1 if needle is not part of
原创 內存映射文件原理
原文鏈接 原理 首先,“映射”這個詞,就和數學課上說的“一一映射”是一個意思,就是建立一種一一對應關係,在這裏主要是隻硬盤上文件 的位置與進程 邏輯地址空間 中一塊大小相同的區域之間的一一對應,如圖1中過程1所示。這種對應關係純屬
原创 MongoDB Storage
原文鏈接 On this page Storage Engine FundamentalsCan you mix storage engines in a replica set?WiredTiger Storage Engi
原创 mongodb
點擊打開鏈接 overview MongoDB使用的是內存映射存儲引擎,即Memory Mapped Storage Engine,簡稱MMAP。MMAP可以把磁盤文件的一部分或全部內容直接映射到內存,這樣文件中的信
原创 Google 的開源技術protobuf 簡介與例子
本文來自CSDN博客:http://blog.csdn.net/program_think/archive/2009/05/31/4229773.aspx 今天來介紹一下“Protocol Buffers ”(以下簡
原创 90. Subsets II
Given a collection of integers that might contain duplicates, nums, return all possible subsets. Note: The solution
原创 MongoDB源碼概述——內存管理和存儲引擎
原文鏈接 數據存儲: 之前在介紹Journal的時候有說到爲什麼MongoDB會先把數據放入內存,而不是直接持久化到數據庫存儲文件,這與MongoDB對數據庫記錄文件的存儲管理操作有關。MongoDB採用操作系統底層提供的內存文
原创 mongoDB WiredTiger Storage Engine
原文鏈接 On this page Document Level ConcurrencySnapshots and CheckpointsJournalCompressionMemory Use Starting in
原创 Mongodb開啓與關閉
點擊打開鏈接 Mongodb的開啓 默認啓動: $ ./mongodb 默認數據保存路徑:/data/db/ 默認端口:27017 修改默認路徑: --dbpath $ ./mongdb --dbpath /mongodb/
原创 spark性能優化:數據傾斜調優
原文鏈接 調優概述 有的時候,我們可能會遇到大數據計算中一個最棘手的問題——數據傾斜,此時Spark作業的性能會比期望差很多。數據傾斜調優,就是使用各種技術方案解決不同類型的數據傾斜問題,以保證Spark作業的性能。