原创 MySQL優化(超完整版)(二)

7. MySQL分庫分表 (1) 分庫分表概念介紹   MySQL的分庫分表有兩種方式:垂直拆分和水平拆分。  垂直拆分:垂直拆分就是要把表按模塊劃分到不同數據庫表中(當然原則還是不破壞第三範式),這種拆分在大型網站的演變過程中是很

原创 Java 中常見的排序算法

  其實小編是不太想寫關於java的相關文章,因爲是這個編程語言實在是會用的人太多了,網上的博文數不勝數,沒必要在重複造輪子了,但是雖然java這門語言會用的人很多,但是會用、掌握、熟練、和精通可不是鬧着玩的,想要達到精通的級別,小編敢說,

原创 數據遷移心得

  前幾天出差,去客戶現場幫忙遷移數據,經過幾天的奮戰,終於將遷移數據自動化起來,並且可以日跑批操作,這裏小編就跟大家分享下,這其中踩過的坑(也可能是實戰經驗不豐富導致)。  首先,榮小編我抱怨一下,不是自己熟悉的開發環境真的有些難過,給一

原创 Python權威指南的10個項目(6~10)

6. 項目6:使用CGI進行遠程編輯   這個項目主要用的是的CGI進行遠程編輯——在另一臺機器上通過Web來編輯 文檔。你在一臺機器上存儲了一個文檔,希望能夠在另一臺機器上通過Web來編輯它。這讓多個用 戶能夠協作編輯一個文檔,且無需使用

原创 Python權威指南的10個項目(1~5)

引言:  我相信學習Python過的朋友,一定會喜歡上這門語言,簡單,庫多,易上手,學習成本低,但是如果是學習之後,不經常使用,或者工作中暫時用不到,那麼不久之後又會忘記,久而久之,就浪費了很多的時間再自己的“曾經”會的東西上。所以最好的方

原创 kubernetes之K8s核心原理--第二篇(五)

六、 共享存儲原理   Kubernetes對有狀態或者對數據需要持久化的應用,不僅需要將容器內的目錄掛載到宿主機的目錄或者empDir臨時存儲卷,而且需要更加可靠的存儲來保存應用產生的重要數據,以便於容器應用重建以後,仍然可以使用之

原创 ElasticSearch的API(java/scala)

這裏小編先將需要的pom.xml的依賴提供給大家:(根據自己的版本進行修改) <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEnc

原创 kubernetes之K8s核心原理--第一篇(五)

  本來以爲一篇就能搞定,還是低估了自己的廢話,好吧,只能通過兩篇文章向大家介紹K8s核心原理。 一、 Kubernetes API Server 原理分析 1. kubernetes API Server介紹   kuberne

原创 ElastciSearch 與SQL整合(SQL插件)

1. 低版本ES,安裝SQL支持   ES在6.5以及以上的版本纔可以使用SQL,所以之前演示的ES版本時6.2,不支持,這裏我們換成6.5以上的版本。官方文檔地址: https://www.elastic.co/guide/en/elas

原创 奮筆提書

  這篇文章算是小編最近的感慨和對自己的一些激勵吧,這幾天由於工作原因,回家的都比較晚,當小編走進地鐵站,看着空空如也的通道,本想感嘆一聲,結果被地鐵中剛剛下車的人流震撼住了,原來爲生活努力的還有這麼多,頓時感到一陣恐慌,再不努力的話,以後

原创 kubernetes之service深入(四)

前言   在談kubernetes的service之前,小編向帶大家複習一下負載均衡的概念,那麼何爲負載均衡呢,小編舉一個簡單的例子,能力相同的兩個人同時進入一家公司,一個人天天加班到深夜,另一個人則天天優哉遊哉到點下班,但兩個人的工資一樣

原创 kubernetes之pod超詳細解讀--第二篇(三)

8.資源對象對pod的調度   在kubernetes集羣中,pod基本上都是容器的載體,通常需要通過相應的資源對象來完成一組pod的調度和自動控制功能,比如:deployment、daemonSet、RC、Job等等。接下來小編將一一介紹

原创 spark案例

  其實小編寫這篇文章的目的就是,前兩天突然對spark心血來潮,想重溫一下scala編寫spark,知識嘛要溫故知新,雖然現在寫的比較少,但是平時花一小時複習複習,看看官網,對知識的鞏固和深入有莫大的好處,於是乎小編就從網上搜了搜關於sp

原创 kubernetes之pod超詳細解讀--第一篇(三)

   小編在這裏向各位博友道個歉,上篇文章確實寫的有些應付,但怎麼說,部署確實因人而異,而且很少有剛剛進公司就讓你搭建一個集羣,一般公司都有自己的集羣,所以小編覺得,側重點不應該在安裝,應該在維護!雖然有些牽強,但小編保證,這一篇絕對有質量

原创 Hive On Spark

  自從公司使用大數據產品之後,就很少碰開源的東西了,集羣出問題也是跟研發溝通,前些天有朋友問我,怎麼能把hive底層的引擎換成spark,我想了想,是不是將hive的數據庫共享給spark然後用spark-shell不就好了,後來查了查資