solr的DIH操作同步mysql數據




1.創建MySQL數據

CREATE TABLE `city` (

`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT COMMENT '城市編號',

`province_id` INT(10) UNSIGNED NOT NULL COMMENT '省份編號',

`city_name` VARCHAR(25) NULL DEFAULT NULL COMMENT '城市名稱',

`description` VARCHAR(25) NULL DEFAULT NULL COMMENT '描述',

PRIMARY KEY (`id`)

)

COLLATE='utf8_general_ci'

ENGINE=InnoDB

AUTO_INCREMENT=7

;

INSERT INTO `city` (`id`, `province_id`, `city_name`, `description`) VALUES (1, 1, '溫嶺市', 'BYSocket 的家在溫嶺。');

INSERT INTO `city` (`id`, `province_id`, `city_name`, `description`) VALUES (3, 11, 'hhhhhh', 'sssss');

INSERT INTO `city` (`id`, `province_id`, `city_name`, `description`) VALUES (4, 11, 'hhhhhh', 'sssss');

INSERT INTO `city` (`id`, `province_id`, `city_name`, `description`) VALUES (5, 420100, '武漢', '好');

INSERT INTO `city` (`id`, `province_id`, `city_name`, `description`) VALUES (6, 0, 'wuhan', '好好好');



2. DIH全量從MYSQL數據庫導入數據

1配置/home/solrhome/collection1/conf/solrconfig.xml

vim /home/solrhome/collection1/conf/solrconfig.xml

在<requestHandler name="/select" class="solr.SearchHandler">前面上加上一個dataimport的處理的Handler


   <!--增加一個處理dataImport的requestHandler-->

<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">


<lst name="defaults">


<str name="config">data-config.xml</str>


</lst>


</requestHandler>



2在同目錄下添加data-config.xml

vim /home/solrhome/collection1/conf/data-config.xml

<?xml version="1.0" encoding="UTF-8"?>


<dataConfig>


<dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://10.3.5.21:3306/demo" user="root" password="roottest" batchSize="-1" />


<document name="testDoc">


<entity name="city" pk="id" query="select * from city">


<field column="id" name="id"/>


<field column="province_id" name="province_id"/>


<field column="city_name" name="city_name"/>


<field column="description" name="description"/>


</entity>


</document>


</dataConfig>



說明:

dataSource是數據庫數據源。

Entity就是一張表對應的實體,pk是主鍵,query是查詢語句。

Field對應一個字段,column是數據庫裏的column名,後面的name屬性對應着Solr的Filed的名字。


3修改同目錄下的schema.xml,這是Solr對數據庫裏的數據進行索引的模式

vim /home/solrhome/collection1/conf/schema.xml


   <field name="province_id" type="int" indexed="true" stored="true" />

   <field name="city_name" type="text_ik" indexed="true" stored="true" />



4)拷貝關聯jar

拷貝mysql-connector-java-3.1.13-bin.jarsolr-dataimporthandler-4.10.3.jar(可以在阿里雲maven倉庫中獲取到  http://maven.aliyun.com)

cp /usr/local/solr-4.10.3/dist/solr-dataimporthandler-4.10.3.jar /home/tomcat6/webapps/solr/WEB-INF/lib/

cp /home/test/mysql-connector-java-3.1.13-bin.jar /home/tomcat6/webapps/solr/WEB-INF/lib/




5)重啓Solr

如果配置正確就可以啓動成功。

solrconfig.xml是solr的基礎文件,裏面配置了各種web請求處理器、請求響應處理器、日誌、緩存等。

schema.xml配置映射了各種數據類型的索引方案。分詞器的配置、索引文檔中包含的字段也在此配置。

6)索引測試

(1)Solr控制檯導入

001

wKiom1nMXczghgkoAADTB1RTKuE681.png

 

(2)HTTP方式導入

http://192.168.137.168:8080/solr/collection1/dataimport?command=full-import&commit=true&clean=false

003

7)分批次導入數據

如果數據庫數據太大,可以分批次導入數據。

vim /home/solrhome/collection1/conf/data-config.xml

複製代碼

<?xml version="1.0" encoding="UTF-8"?><dataConfig><dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://192.168.137.168:3306/solr" user="root" password="root" batchSize="-1" /><document name="testDoc"><entity name="student" pk="id"query="select * from student limit ${dataimporter.request.length} offset ${dataimporter.request.offset}"><field column="id" name="id"/><field column="stu_name" name="stu_name"/><field column="stu_sex" name="stu_sex"/><field column="stu_address" name="stu_address"/></entity></document></dataConfig>

複製代碼

上面主要是通過內置變量 “${dataimporter.request.length}”和 “${dataimporter.request.offset}”來設置一個批次索引的數據表記錄數,請求的URL示例如下:

http://192.168.137.168:8080/solr/collection1/dataimport?command=full-import&commit=true&clean=false&offset=0&length=2

004

導入效果如下

clip_p_w_picpath010

3.DIH增量從MYSQL數據庫導入數據
已經學會了如何全量導入MySQL的數據,全量導入在數據量大的時候代價非常大,一般來說都會適用增量的方式來導入數據,下面介紹如何增量導入MYSQL數據庫中的數據,以及如何設置定時來做。

特別注意:DIH增量也是可以做全量數據導入,所以生產環境只要設置DIH增量方式。

1)數據庫表的更改

新增一個字段updateTime,類型爲timestamp,默認值爲CURRENT_TIMESTAMP。有了這樣一個字段,Solr才能判斷增量導入的時候,哪些數據是新的。因爲Solr本身有一個默認值last_index_time,記錄最後一次做full import或者是delta import(增量導入)的時間,這個值存儲在文件conf目錄的dataimport.properties文件中。

more dataimport.properties

clip_p_w_picpath012

2data-config.xml中必要屬性的設置

vim /home/solrhome/collection1/conf/data-config.xml

 

複製代碼

<?xml version="1.0" encoding="UTF-8"?><dataConfig><dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://192.168.137.168:3306/solr" user="root" password="root" batchSize="-1" /><document name="testDoc"><entity name="student" pk="id"query="select * from student where isDeleted=0"deltaImportQuery="select * from student where id='${dih.delta.id}'"deltaQuery="select id from student where updateTime> '${dataimporter.last_index_time}' and isDeleted=0"deletedPkQuery="select id from student where isDeleted=1"><field column="id" name="id"/><field column="stu_name" name="stu_name"/><field column="stu_sex" name="stu_sex"/><field column="stu_address" name="stu_address"/></entity></document></dataConfig>

複製代碼

transformer 格式轉化:HTMLStripTransformer 索引中忽略HTML標籤

query:查詢數據庫表符合記錄數據

deltaQuery:增量索引查詢主鍵ID  注意這個只能返回ID字段

deltaImportQuery:增量索引查詢導入的數據

deletedPkQuery:增量索引刪除主鍵ID查詢 注意這個只能返回ID字段

增量索引的原理是從數據庫中根據deltaQuery指定的SQL語句查詢出所有需要增量導入的數據的ID號。

然後根據deltaImportQuery指定的SQL語句返回所有這些ID的數據,即爲這次增量導入所要處理的數據。

核心思想是:通過內置變量“${dih.delta.id}”和 “${dataimporter.last_index_time}”來記錄本次要索引的id和最近一次索引的時間。

如果業務中還有刪除操作,可以在數據庫中加一個isDeleted字段來表明該條數據是否已經被刪除,這時候Solr在更新index的時候,可以根據這個字段來更新哪些已經刪除了的記錄的索引。

3)測試增量導入

DIH全量導入

http://192.168.137.168:8080/solr/collection1/dataimport?command=full-import&commit=true&clean=true

005

clip_p_w_picpath016

修改student數據

update student set stu_name="jerry" where id = '1000000005';update student set isDeleted=1 where id = '1000000004';INSERT INTO student VALUES ('1000000006', 'Tim11', 0, 'Paris',default,default);

DIH增量導入數據

http://192.168.137.168:8080/solr/collection1/dataimport?command=delta-import

006

clip_p_w_picpath020

4)設置增量導入爲定時執行的任務

可以用Windows計劃任務,或者Linux的Cron來定期訪問增量導入的連接來完成定時增量導入的功能,這其實也是可以的,而且應該沒什麼問題。

但是更方便,更加與Solr本身集成度高的是利用其自身的定時增量導入功能。

1.增加關聯jar

cp /home/test/apache-solr-dataimportscheduler.jar /home/tomcat6/webapps/solr/WEB-INF/lib/

2、修改solr的WEB-INF目錄下面的web.xml文件:

vim /home/tomcat6/webapps/solr/WEB-INF/web.xml
爲<web-app>元素添加一個子元素

複製代碼

<listener><listener-class>org.apache.solr.handler.dataimport.scheduler.ApplicationListener</listener-class></listener>

複製代碼

3、新建配置文件dataimport.properties:

在SOLR_HOME\solr目錄下面新建一個目錄conf(注意不是SOLR_HOME\solr\collection1下面的conf)

mkdir /home/solrhome/conf

vim /home/solrhome/conf/dataimport.properties

下面是最終我的自動定時更新配置文件內容:

 

複製代碼

#################################################

# #

# dataimport scheduler properties #

# #

#################################################

# to sync or not to sync

# 1 - active; anything else - inactive

syncEnabled=1

# which cores to schedule

# in a multi-core environment you can decide which cores you want syncronized

# leave empty or comment it out if using single-core deployment

# syncCores=game,resource

syncCores=collection1

# solr server name or IP address

# [defaults to localhost if empty]

server=192.168.137.168

# solr server port

# [defaults to 80 if empty]

port=8080

# application name/context

# [defaults to current ServletContextListener's context (app) name]

webapp=solr

# URLparams [mandatory]

# remainder of URL

#http://localhost:8983/solr/collection1/dataimport?command=delta-import&clean=false&commit=true

params=/dataimport?command=delta-import&clean=false&commit=true

# schedule interval

# number of minutes between two runs

# [defaults to 30 if empty]

interval=1

# 重做索引的時間間隔,單位分鐘,默認7200,即1天; 

# 爲空,爲0,或者註釋掉:表示永不重做索引

reBuildIndexInterval=2

# 重做索引的參數

reBuildIndexParams=/dataimport?command=full-import&clean=true&commit=true

# 重做索引時間間隔的計時開始時間,第一次真正執行的時間=reBuildIndexBeginTime+reBuildIndexInterval*60*1000;

# 兩種格式:2012-04-11 03:10:00 或者 03:10:00,後一種會自動補全日期部分爲服務啓動時的日期

reBuildIndexBeginTime=03:10:00

複製代碼

4、測試

重啓tomcat

一般來說要在你的項目中引入Solr需要考慮以下幾點:
1、數據更新頻率:每天數據增量有多大,及時更新還是定時更新
2、數據總量:數據要保存多長時間
3、一致性要求:期望多長時間內看到更新的數據,最長允許多長時間延遲
4、數據特點:數據源包括哪些,平均單條記錄大小
5、業務特點:有哪些排序要求,檢索條件
6、資源複用:已有的硬件配置是怎樣的,是否有升級計劃











發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章