redis缓存mysql数据


       redis (Remote Dictionary Server)是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。Redis支持主从同步。数据可以从主服务器向任意数量的从服务器上同步,从服务器可以是关联其他从服务器的主服务器。这使得Redis可执行单层树复制。

     MySQL和Redis,自身都带有数据同步的机制,像比较常用的MySQL的Master/Slave模式,就是由Slave端分析Master的binlog来实现的,这样的数据复制其实还是一个异步过程,只不过当服务器都在同一内网时,异步的延迟几乎可以忽略。那么理论上我们也可以用同样方式,分析MySQL的binlog文件并将数据插入Redis。但是这需要对binlog文件以及MySQL有非常深入的理解,同时由于binlog存在Statement/Row/Mixedlevel多种形式,分析binlog实现同步的工作量是非常大的。因此这里选择了一种开发成本更加低廉的方式,借用已经比较成熟的MySQL UDF,将MySQL数据首先放入Gearman中,然后通过一个自己编写的PHP Gearman Worker,将数据同步到Redis。比分析binlog的方式增加了不少流程,但是实现成本更低,更容易操作。

      Gearman是一个支持分布式的任务分发框架:
      Gearman Job Server:Gearman核心程序,需要编译安装并以守护进程形式运行在后台。
      Gearman Client:可以理解为任务的请求者。
      Gearman Worker:任务的真正执行者,一般需要自己编写具体逻辑并通过守护进程方式运行,Gearman Worker接收到Gearman Client传递的任务内容后,会按顺序处理.

    大致流程:
     mysql触发器,就相当于Gearman的客户端。修改表,插入表就相当于直接下发任务。然后通过lib_mysqludf_json UDF库函数将关系数据映射为JSON格式,然后在通过gearman-mysql-udf插件将任务加入到Gearman的任务队列中,最后通过redis_worker.php,也就是Gearman的worker端来完成redis数据库的更新。  

     使用lib_mysqludf_json的原因是因为Gearman只接受字符串作为入口参数,可以通过lib_mysqludf_json将MySQL中的数据编码为JSON字符串.


     lib_mysqludf_json UDF库函数将关系数据映射为JSON格式。通常,数据库中的数据映射为JSON格式,是通过程序来转换的。

1. server2:
   配置redis:


   yum install -y mysql-server
   /etc/init.d/mysqld start
   netstat -antlpe        ##mysql端口3306已开
wKiom1e_HN7iLn1WAABaZagkjF8469.png-wh_50
   tar zxf redis-3.0.2.tar.gz
   cd redis-3.0.2
   yum install -y gcc  
   make
   make install    



   cd /root/redis-3.0.2/utils
   ./install_server.sh          ##安装服务器启动程序  
wKioL1e_HP_yf18sAAEQAPZnYTA602.png-wh_50   
   /etc/init.d/redis_6379 start
   redis-cli monitor    ##监控数据,okshi表示监控正常
   redis-cli            ##临时设定redis的一些数据
wKioL1e_HRey4oeyAABDq0Hjk54605.png-wh_50 

 
   redis作为mysql缓存服务器:
   cd /root
   yum install nginx-1.8.0-1.el6.ngx.x86_64.rpm   php-5.3.3-38.el6.x86_64.rpm  

                php-cli-5.3.3-38.el6.x86_64.rpm    php-common-5.3.3-38.el6.x86_64.rpm         php-devel-5.3.3-38.el6.x86_64.rpm    php-fpm-5.3.3-38.el6.x86_64.rpm  
php-gd-5.3.3-38.el6.x86_64.rpm   php-mbstring-5.3.3-38.el6.x86_64.rpm 

php-mysql-5.3.3-38.el6.x86_64.rpm    php-pdo-5.3.3-38.el6.x86_64.rpm
 

   php -m        ##看到支持的软件
   vim /etc/php.ini

date.timezone = Asia/Shanghai

 
    cat /etc/passwd
    vim /etc/php-fpm.d/www.conf

user = nginx
group = nginx

    /etc/init.d/php-fpm restart

     配置nginx:
     vim /etc/nginx/conf.d/default.conf

location / {
        root   /usr/share/nginx/html;
        index    index.html index.htm  index.php;
  }
 location ~ \.php$ {
        root           html;
        fastcgi_pass   127.0.0.1:9000;   ##fastcgi通信
        fastcgi_index  index.php;        ##fastcgi主文件
        fastcgi_param  SCRIPT_FILENAME  /usr/share/nginx/html$fastcgi_script_name;
        include        fastcgi_params;   
    }


    cd /usr/share/nginx/html/
    vim index.php

<?php
phpinfo()
?>

    /etc/init.d/nginx start

网页访问http://172.25.85.2           



   nginx上运行php:

   yum install -y unzip
   unzip phpredis-master.zip

   cd phpredis-master
   phpize
   ./configure
   make
   make install

   cd /usr/lib64/php/modules/
   ls
   cd /etc/php.d
   cp mysql.ini redis.ini
   vim redis.ini
将内容修改为以下:

  extension=redis.so

   /etc/init.d/php-fpm reload
   php -m | grep redis


   mysql
   mysql> show databases;        ##查看有无test数据库,没有则创建一个。
   mysql> quit

   cd /root/redis
   mysql  < test.sql
   cat test.sql

use test;
CREATE TABLE `test` (`id` int(7) NOT NULL AUTO_INCREMENT, `name` char(8) 
DEFAULT NULL, PRIMARY KEY (`id`)) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `test` VALUES (1,'test1'),(2,'test2'),(3,'test3'),(4,'test4')
,(5,'test5'),(6,'test6'),(7,'test7'),(8,'test8'),(9,'test9');
#DELIMITER $$
#CREATE TRIGGER datatoredis AFTER UPDATE ON test FOR EACH ROW BEGINmysql  
< test.sql
    SET @RECV=gman_do_background('syncToRedis', 
    json_object(NEW.id as `id`, NEW.name as `name`)); 
  END$$
#DELIMITER ;

   mysql
   mysql> use test;
   mysql> select * from test;

   mysql> grant all on *.* to redis@localhost identified by 'westos';
   mysql> quit


   mysql -uredis -pwestos
   mysql> use test;
   mysql> select * from test;
      wKiom1e_Hgnj4jrtAAAn_9aTA9s117.png-wh_50 

    mysql> quit



   cp /root/test.php /usr/share/nginx/html/
   cd /usr/share/nginx/html/
   rm -rf index.php
   mv test.php index.php

检测:
     网页访问http://172.25.85.2   ##已经完成redis对mysql的缓存
wKioL1e_HjeyJIJHAAAYQFeIVsc679.png-wh_50
   redis-cli
127.0.0.1:6379> get 1
"test1"
127.0.0.1:6379> get 2
"test2"
127.0.0.1:6379> quit


   mysql
   mysql> use test;
   mysql> update test set name='westos' where id=1;
   mysql> quit
网页访问http://172.25.85.2     ##更新了mysql中的数据,但是redis中的数据不会自动更新




redis-cli
127.0.0.1:6379> get 1
"test1"
redis-cli
127.0.0.1:6379> del 1
网页访问http://172.25.85.2

redis-cli
127.0.0.1:6379> set 1 westos
网页访问http://172.25.85。2




   Gearman是一个支持分布式的任务分发框架:
   Gearman Job Server:Gearman核心程序,需要编译安装并以守护进程形式运行在后台。
   Gearman Client:可以理解为任务的请求者。
   Gearman Worker:任务的真正执行者,一般需要自己编写具体逻辑并通过守护进程方式运行,Gearman Worker接收到Gearman Client传递的任务内容后,会按顺序处理

大致流程:

     下面要编写的mysql触发器,就相当于Gearman的客户端。修改表,插入表就相当于直接下发任务。然后通过lib_mysqludf_json UDF库函数将关系数据映射为JSON格式,然后在通过gearman-mysql-udf插件将任务加入到Gearman的任务队列中,最后通过redis_worker.php,也就是Gearman的worker端来完成redis数据库的更新。  

2.配置gearman自动更新redis中的数据:
  cd /root/redis
  yum install -y gearmand-1.1.8-2.el6.x86_64.rpm libgearman-1.1.8-2.el6.x86_64.rpm
  /etc/init.d/gearmand start
  netstat -antlpe
  tar zxf gearman-1.1.2.tgz
  cd gearman-1.1.2
  phpize
  ./configure
  cd ..
  yum install -y libgearman-devel-1.1.8-2.el6.x86_64.rpm

                        libevent-devel-1.4.13-4.el6.x86_64.rpm

                        libevent-doc-1.4.13-4.el6.noarch.rpm 

                        libevent-headers-1.4.13-4.el6.noarch.rpm

  cd gearman-1.1.2
  ./configure
wKioL1e_HuGSC-mMAABdW2C0bSA185.png-wh_50
  make
  make install

  cd /etc/php.d
  cp redis.ini gearman.ini
  vim gearman.ini
将内容修改为以下:

extension=gearman.so

  /etc/init.d/php-fpm reload
  php -m |grep gearman

  yum install -y mysql-devel
  cd /root/redis

lib_mysqludf_json UDF库函数将关系数据映射为JSON格式。通常,数据库中的数据映射为JSON格式,是通过程序来转换的

  unzip lib_mysqludf_json-master.zip
  cd lib_mysqludf_json-master
  gcc $(mysql_config --cflags) -shared -fPIC -o lib_mysqludf_json.so lib_mysqludf_json.c
  ls

  mysql
  mysql> show global variables like 'plugin_dir';
wKioL1e_HwnRfycNAAAkNYLs70s301.png-wh_50

     mysql> quit


  cd /root/lib_mysqludf_json-master
  cp lib_mysqludf_json.so /usr/lib64/mysql/plugin


#注册UDF函数 

  mysql
  mysql> create function json_object returns string soname 'lib_mysqludf_json.so';
  mysql> select * from mysql.func;
    wKiom1e_HxnynDT3AAAipeXuOrE842.png-wh_50

  mysql> quit



#安装gearman-mysql-udf

这个插件是用来管理调用 Gearman 的分布式的队列。

  cd /root/redis
  tar zxf gearman-mysql-udf-0.6.tar.gz

  cd gearman-mysql-udf-0.6
  yum install -y gcc-c++
  ./configure --libdir=/usr/lib64/mysql/plugin/
  make
  make install

  cd /usr/lib64/mysql/plugin/
  mysql -p

#注册UDF函数

  mysql> create function gman_do_background returns string soname 'libgearman_mysql_udf.so';
  mysql> create function gman_servers_set returns string soname 'libgearman_mysql_udf.so';

#查看函数

  mysql> select * from mysql.func;
 wKioL1e_HzXhokc7AAA8uoe-1L8392.png-wh_50

     mysql> quit

   netstat -antlpe

#指定gearman的服务信息
  mysql
  mysql> select gman_servers_set('127.0.0.1:4730');
  mysql> quit


#编写mysql触发器(根据实际情况编写)
  cd /root/redis
  vim test.sql
将触发器的注释取消,在建表和插入数据语句前加上注释
 

DELIMITER $$
 CREATE TRIGGER datatoredis AFTER UPDATE ON test FOR EACH ROW BEGIN
     SET @RECV=gman_do_background('syncToRedis', json_object(NEW.id as `id`, NEW.name as `name`)); 
   END$$
 DELIMITER ;


  mysql  < test.sql

  mysql
  mysql> show triggers from test;

  mysql> quit

cp worker.php /usr/local/bin/
cd /usr/local/bin/
vim worker.php
nohup php worker.php  &
ps ax

mysql
mysql> use test;
mysql> update test set name='redhat' where id=1;
mysql> quit

网页访问http://172.25.19.1(刷新)    ##更新     (待验证)


redis-cli
127.0.0.1:6379> get 1
"redhat"



3.redis的主从复制
    如果设置了一个slave,不管是在第一次链接还是重新链接master的时候,slave会发送一个同步命令 然后master开始后台保存,收集所有对修改数据的命令。当后台保存完成,master会将这个数据文件传送到slave,然后保存在磁盘,加载到内存中;master接着发送收集到的所有的修改数据的命令,这好比一个流命令,是redis协议本身来实现的。
 
   在server3和server4上:


   vim /etc/redis/6379.conf
slaveof 172.25.85.2 6379
   /etc/init.d/redis_6379 restart


     server2:
   vim /root/redis-3.0.2/sentinel.conf    ##配置sentinel

sentinel monitor mymaster 172.25.85.2  6379 2

   ##Sentinel 去监视一个名为 mymaster 的主服务器, 这个主服务器的 IP 地址为 127.0.0.1 , 端口号为 6379 , 而将这个主服务器判断为失效至少需要 2 个 Sentinel 同意 (只要同意 Sentinel 的数量不达标,自动故障迁移就不会执行)。

sentinel down-after-milliseconds mymaster 10000

   ##Sentinel 认为服务器已经断线所需的毫秒数。

sentinel failover-timeout mymaster 60000

     grep -v ^#  sentinel.conf >/etc/sentinel.conf

     redis-sentinel /etc/sentinel.conf
tu
     scp /etc/sentinel.conf [email protected]:/etc/
     scp /etc/sentinel.conf [email protected]:/etc/

    redis-cli  -h 172.25.45.7 -p 26379 info
tu
   

      server4:
    vim /etc/sentinel.conf


port 26379

dir "/tmp"
.
sentinel monitor mymaster 172.25. 6379 2

sentinel down-after-milliseconds mymaster 10000

sentinel failover-timeout mymaster 60000
   
sentinel parallel-syncs mymaster 1           ##选项指定了在执行故障转移时, 最多可以有多少个从服务器同时对新的主服务器进行同步, 这个数字越小, 完成故障转移所需的时间就越长。
    
    scp /etc/sentinel.conf [email protected]:/etc/

     然后再server7查看:redis-cli  -h 172.25.85.2 -p 26379 info  
tu


   
                      


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章