原创 OGG實時同步Oracle數據到Kafka實施文檔(供flink流式計算)

GoldenGate12C For Bigdata+Kafka:通過OGG將Oracle數據以Json格式同步到Kafka提供給flink流式計算 注意:這篇文章告訴了大家怎麼搭建OGG for bigdata做測試,但是實際生活

原创 Oracle全角半角轉換函數(to_multi_byte/to_single_byte)在varchar/clob中的使用案例

開始之前先上兩個函數在官方得詳細說明,因爲之前開發函數之前沒去官方看說明,直接百度看說明導致得坑,下面是官方文檔得截圖,官方明確說明這兩個函數不支持 clob字段處理,但是我們可以通過隱式轉換來實現,後面給出了本人寫的對正常情況下

原创 Oracle常用字符ASCII碼對應表

chr(9) tab空格 chr(10) 換行 chr(13) 回車 Chr(13)&chr(10) 回車換行 chr(32) 空格符 chr(34) 雙引號

原创 wm_concat 函數報錯:ora06502-character string buffer to small

有朋友l開發過程中用到wm_concat 函數拼接兩個字段,寫完sql運行時報錯: ora06502-character string buffer to small 這個wm_concat函數明明是把要拼接得兩個字段結果轉換成

原创 sqoop1.4.7的安裝及使用(hadoop2.7環境)

一、sqoop簡介 Sqoop是一款開源的工具,主要用於在Hadoop(Hive)與傳統的數據庫(mysql、postgresql…)間進行數據的傳遞,可以將一個關係型數據庫(例如 : MySQL ,Oracle ,Postgre

原创 Oracle Sql基礎查詢常用案例(一)

1、查找空值 null不支持加、減、乘、除、大小比較、相等比較,否則結果只能爲空。 SQL> select * from dept where 1>=null; DEPTNO DNAME LOC ------

原创 OGG replicat進程延遲分析步驟

一:按照rep的進程名進行 ps -ef | grep ,獲得rep的進程PID [Oracle@hosta ~]$ ps -ef | grep repfull oracle 27906 27861 0 18:01 pts/7

原创 hadoop常用命令

執行hadoop fs指令可以看到其下有很多可以執行的命令: 1:cat 使用方法:hadoop fs -cat URI [URI …] 將路徑指定文件的內容輸出到stdout。 示例: hadoop fs -cat h

原创 kill佔用指定端口進程(定時自動重啓weblogic腳本)

案例: 1、通過ps-ef |grep命令找到想要殺死的進程信息,然後配合awk和sed組織好要殺死的進程清單對應的shell語句,並通過sh命令自動執行kill: ps -ef |grep /home/apache-tomc

原创 OGG For Bigdata 12按操作類型同步Oracle數據到kafka不同topic

Oracle可以通過OGG for Bigdata將Oracle數據庫數據實時增量同步至hadoop平臺(kafka,hdfs等)進行消費,筆者搭建這個環境的目的是將Oracle數據庫表通過OGG同步到kafka來提供給flink

原创 sqoop增量導入oracle/mysql數據到hive時時間字段爲null處理

前面幾篇文章詳細介紹了sqoop全量增量導入數據到hive,比如文章(sqoop避免輸入密碼自動增量job腳本介紹)裏面的案例和給出的其他相關文章的連接,筆者使用sqoop導入oracle數據到hive是爲了做增量cube用,但是

原创 hadoop+kylin安裝及官方cube/steam cube案例文檔

對於hadoop+kylin的安裝過程在上一篇文章已經詳細的寫了,這裏只給出鏈接: Hadoop+Mysql+Hive+zookeeper+kafka+Hbase+Sqoop+Kylin單機僞分佈式安裝及官方案例詳細文檔 請讀者先

原创 Oracle通過sqoop同步數據到hive

一、介紹 將關係型數據庫ORACLE的數據導入到HDFS中,可以通過Sqoop、OGG來實現,相比較ORACLE GOLDENGATE,Sqoop不僅不需要複雜的安裝配置,而且傳輸效率很高,同時也能實現增量數據同步。 說明:本測試