原创 Java對象,不賦值爲null會導致什麼後果 ?

前言     許多Java開發者都曾聽說過“不使用的對象應手動賦值爲null“這句話,而且好多開發者一直信奉着這句話;問其原因,大都是回答“有利於GC更早回收內存,減少內存佔用”,但再往深入問就回答不出來了。 鑑於網上有太多關於此問題的誤

原创 json格式轉換工具類

複製到自己的java工程的工具類中就可以使用了! package com.taotao.utils; import java.util.List; import com.fasterxml.jackson.core.JsonProc

原创 synchronized四種鎖狀態的升級——多線程面試必問!

一、背景 在 Java 語言中,使用 Synchronized 是能夠實現線程同步的,即加鎖。並且實現的是悲觀鎖,在操作同步資源的時候直接先加鎖。 加鎖可以使一段代碼在同一時間只有一個線程可以訪問,在增加安全性的同時,犧牲掉的是程序的執行

原创 仿springIoc實現自己的IOC,支持三級緩存——本人見過講springIOC最通透的文章!

Spring 中的 IOC Spring 的 IOC 其實很複雜,因爲它支持的情況,種類,以及開放的接口,拓展性(如各種PostProcessor)太豐富了。這導致我們在看 Spring 源碼的過程中非常喫力,經常點進去一個函數發現很深很

原创 使用mongoTemplate返回指定字段——本人親測有效!

  比如你的文檔有field1,field2,field3三個字段,而你只想要返回field1,field2 query = new Query(); query.fields().exclude("field3");//不包含fiel

原创 海量GPS軌跡數據集

 該GPS軌跡數據集記錄了四川省成都市從2014年8月1日到2014年9月1日的一個月的15000量出租車GPS軌跡數據。約14億條數據。 4001,2014-08-03 06:01:18,104.034407,30.583802,0 4

原创 Orcal數據庫查詢列名,以及類型

SELECT COLUMN_NAME,DATA_TYPE FROM USER_TAB_COLUMNS WHERE TABLE_NAME = '表名大寫' 查詢結果:

原创 海量出租車GPS真實數據!

 該GPS軌跡數據集記錄了四川省成都市從2017年8月7日到2017年8月14日的一週的15000量出租車GPS軌跡數據。約2G數據。 數據格式如上,車牌號,時間,經度,緯度,速度,方向,載客狀態(0表示 空載,1表示載客) 需要的留言聯

原创 springboot案例,redis分佈式鎖和redis緩存

本例主要演示springboot和redis集成,主要實現的功能點有 - redis分佈式鎖 第一種方案:通過org.springframework.integration.redis.util.RedisLockRegistry進

原创 java web解決跨域問題,親測有效!

@Configuration public class BeanConfiguration { @Bean public CorsFilter corsFilter() { final

原创 利用docker搭建mongo主從集羣,測試mongo事務

安裝docker-compose sudo curl -L "https://github.com/docker/compose/releases/download/1.23.1/docker-compose-$(uname -s)-$

原创 spark提交任務參數總結

Options:   --master MASTER_URL                               spark://host:port, mesos://host:port, yarn, or local.   --

原创 java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

   這個問題比較簡單,也是一個比較常見的問題!很明顯應該是HADOOP_HOME的問題。如果HADOOP_HOME爲空,必然fullExeName爲null\bin\winutils.exe。解決方法很簡單,配置環境變量,)。 1.自

原创 如何將pom中的依賴一起打入jar包

 加入一個插件就好! <build> <plugins> <plugin> <groupId>org.apache.maven.plugins</groupId>

原创 Spark讀寫Hbase數據

原文鏈接:https://blog.csdn.net/leen0304/article/details/78856239 本文將介紹 1、spark如何利用saveAsHadoopDat