1 概述
本文讲述了如何使用MyBatisPlus
+ShardingSphereJDBC
进行读写分离,以及利用MySQL
进行一主一从的主从复制。具体步骤包括:-
MySQL
主从复制环境准备(Docker
) -
搭建
ShardingShpereJDBC
+MyBatisPlus
+Druid
环境 - 测试
2 环境
-
OpenJDK 17.0.3
-
Spring Boot 2.7.0
-
MyBatis Plus 3.5.1
-
MyBatis Plus Generator 3.5.2
-
Druid 1.2.10
-
ShardingSphereJDBC 5.1.1
-
MySQL 8.0.29
(Docker
)
3 一些基础理论
3.1 读写分离
读写分离,顾名思义就是读和写分开,更具体来说,就是:- 写操作在主数据库进行
- 读操作在从数据库进行
MySQL
上实现,相信会不如一台MySQL
写,另外两台MySQL
读这样的配置性能高。另一方面,在很多时候都是读操作的请求要远远高于写操作,这样就显得读写分离非常有必要了。3.2 主从复制
主从复制,顾名思义就是把主库的数据复制到从库中,因为读写分离之后,写操作都在主库进行,但是读操作是在从库进行的,也就是说,主库上的数据如果不能复制到从库中,那么从库就不会读到主库中的数据。严格意义上说,读写分离并不要求主从复制,只需要在主库写从库读即可,但是如果没有了主从复制,读写分离将失去了它的意义。因此读写分离通常与主从复制配合使用。因为本示例使用的是MySQL
,这里就说一下MySQL
主从复制的原理,如下图所示:
工作流程如下:-
主库修改数据后,将修改日志写入
binlog
-
从库的
I/O
线程读取主库的binlog
,并拷贝到从库本地的binlog
中 -
从库本地的
binlog
被SQL
线程读取,执行其中的内容并同步到从库中
3.3 数据库中间件简介
数据库中间件可以简化对读写分离以及分库分表的操作,并隐藏底层实现细节,可以像操作单库单表那样操作多库多表,主流的设计方案主要有两种:- 服务端代理:需要独立部署一个代理服务,该代理服务后面管理多个数据库实例,在应用中通过一个数据源与该代理服务器建立连接,由该代理去操作底层数据库,并返回相应结果。优点是支持多语言,对业务透明,缺点是实现复杂,实现难度大,同时代理需要确保自身高可用
-
客户端代理:在连接池或数据库驱动上进行一层封装,内部与不同的数据库建立连接,并对
SQL
进行必要的操作,比如读写分离选择走主库还是从库,分库分表select
后如何聚合结果。优点是实现简单,天然去中心化,缺点是支持语言较少,版本升级困难
-
Cobar
:阿里开源的关系型数据库分布式服务中间件,已停更 -
DRDS
:脱胎于Cobar
,全称分布式关系型数据库服务
-
MyCat
:开源数据库中间件,目前更新了MyCat2
版本 -
Atlas
:Qihoo 360
公司Web
平台部基础架构团队开发维护的一个基于MySQL
协议的数据中间层项目,同时还有一个NoSQL
的版本,叫Pika
-
tddl
:阿里巴巴自主研发的分布式数据库服务 -
Sharding-JDBC
:ShardingShpere
的一个子产品,一个轻量级Java
框架
4 MySQL
主从复制环境准备
看完了一些基础理论就可以进行动手了,本小节先准备好MySQL
主从复制的环境,基于Docker
+MySQL
官方文档搭建。4.1 主库操作
4.1.1 拉取镜像并创建容器运行
dockerpullmysql dockerrun-itd-p3306:3306-eMYSQL_ROOT_PASSWORD=123456--namemastermysql dockerexec-itmaster/bin/bash 在主库中进行更新镜像源,安装
vim
以及net-tools
的操作:cd/etc/apt echodebhttp://mirrors.aliyun.com/debian/bustermainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/bustermainnon-freecontribdebhttp://mirrors.aliyun.com/debian-securitybuster/updatesmaindeb-srchttp://mirrors.aliyun.com/debian-securitybuster/updatesmaindebhttp://mirrors.aliyun.com/debian/buster-updatesmainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/buster-updatesmainnon-freecontribdebhttp://mirrors.aliyun.com/debian/buster-backportsmainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/buster-backportsmainnon-freecontrib>sources.list aptupdate&&aptupgrade aptinstallvimnet-tools
4.1.2 修改配置文件
vim/etc/mysql/my.cnf 添加下面两行数据:
[mysqld] server-id=1#全局唯一,取值[1,2^32-1],默认为1 binlog-do-db=test#表示需要复制的是哪个库 修改完成后重启。
4.1.3 准备数据源
CREATEDATABASEtest; USEtest; CREATETABLEuser( idBIGINTPRIMARYKEY, nameVARCHAR(30)NOTNULL, );
4.1.4 创建一个复制操作的用户(可选但推荐)
注意创建用户需要加上mysql_native_password
,否则会导致从库一直处于连接状态:CREATEUSER'repl'@'172.17.0.3'IDENTIFIEDWITHmysql_native_passwordBY'123456'; GRANTREPLICATIONslaveON*.*TO'repl'@'172.17.0.3'; 具体的地址请根据从库的地址修改,可以先看后面的从库配置部分。
4.1.5 数据备份(可选)
如果原来的主库中是有数据的,那么这部分数据需要手动同步到从库中:FLUSHTABLESWITHREADLOCK; 开启主库的另一个终端,使用
mysqldump
导出:mysqldump-uroot-p--all-databases--master-data>dbdump.db 导出完成后,解除读锁:
UNLOCKTABLES;
4.1.6 查看主库状态
SHOWMASTERSTATUS;
需要把
File
以及Position
记录下来,后面从库的配置需要用到。4.2 从库操作
4.2.1 拉取镜像并创建容器运行
dockerpullmysql dockerrun-itd-p3307:3306-eMYSQL_ROOT_PASSWORD=123456--nameslavemysql dockerexec-itslave/bin/bash 进入容器后,像主库一样更新源然后安装
vim
和net-tools
:cd/etc/apt echodebhttp://mirrors.aliyun.com/debian/bustermainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/bustermainnon-freecontribdebhttp://mirrors.aliyun.com/debian-securitybuster/updatesmaindeb-srchttp://mirrors.aliyun.com/debian-securitybuster/updatesmaindebhttp://mirrors.aliyun.com/debian/buster-updatesmainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/buster-updatesmainnon-freecontribdebhttp://mirrors.aliyun.com/debian/buster-backportsmainnon-freecontribdeb-srchttp://mirrors.aliyun.com/debian/buster-backportsmainnon-freecontrib>sources.list aptupdate&&aptupgrade aptinstallvimnet-tools
4.2.2 修改配置文件
vim/etc/mysql/my.cnf 添加如下两行:
[mysqld] server-id=2#全局唯一,不能与主库相同 replicate-do-db=test#与主库相同,表示对该库进行复制 修改完成后重启。
4.2.3 查看ip
地址
查看从库的ip
地址,用于给主库设置同步的用户:ifconfig 输出:
inet172.17.0.3netmask255.255.0.0broadcast172.17.255.255 那么主库中用于复制的用户就可以是
repl@172.17.0.3
。4.2.4 导入数据(可选)
如果主库有数据可以先导入到从库:mysqldump-uroot-p--all-databases< dbdump.db
4.2.5 准备数据源
CREATEDATABASEtest; USEtest; CREATETABLEuser( idBIGINTPRIMARYKEY, nameVARCHAR(30)NOTNULL, );
4.2.6 设置主库
可以使用change master to
/change replication source to
(8.0.23+
)命令:CHANGEREPLICATIONSOURCETO source_host='172.17.0.2',#可以使用ifconfig查看主库ip source_user='repl',#之前主库创建的用户 source_password='123456',#密码 source_log_file='binlog.000003',#之前在主库上使用showmasterstatus查看的日志文件 source_log_pos=594;#同样使用showmasterstatus查看
4.2.7 开启从库
STARTSLAVE; SHOWSLAVESTATUSG 新版本(
8.0.22+
)可使用:STARTREPLICA; SHOWREPLICASTATUSG 需要
IO
和SQL
线程显示Yes
才算成功:
4.3 测试
主库选择插入一条数据:INSERTINTOuserVALUES(1,"name",3); 然后从库就能
select
到了:
5 搭建Spring Boot
环境
5.1 新建项目并引入依赖
新建Spring Boot
项目,并引入如下依赖:implementation'com.alibaba1.2.10' implementation'com.baomidou3.5.1' implementation'org.freemarker2.3.31' implementation'com.baomidou3.5.2' implementation'org.apache.shardingsphere5.1.1'
Maven
版本:<dependency> <groupId>com.baomidougroupId> <artifactId>mybatis-plus-boot-starterartifactId> <version>3.5.1version> dependency> <dependency> <groupId>com.baomidougroupId> <artifactId>mybatis-plus-generatorartifactId> <version>3.5.2version> dependency> <dependency> <groupId>org.freemarkergroupId> <artifactId>freemarkerartifactId> <version>2.3.31version> dependency> <dependency> <groupId>com.alibabagroupId> <artifactId>druidartifactId> <version>1.2.10version> dependency> <dependency> <groupId>org.apache.shardingspheregroupId> <artifactId>sharding-jdbc-spring-boot-starterartifactId> <version>5.1.1version> dependency>
5.2 使用生成器
importcom.baomidou.mybatisplus.generator.FastAutoGenerator; importcom.baomidou.mybatisplus.generator.engine.FreemarkerTemplateEngine; publicclassGenerator{ publicstaticvoidmain(String[]args){ FastAutoGenerator.create("jdbc//localhost:3306/test","root","123456") .globalConfig(builder-> builder.author("author").outputDir(System.getProperty("user.dir")+"/src/main/java").build()) .packageConfig(builder-> builder.parent("com.example.demo").moduleName("user").build()) .strategyConfig(builder-> builder.addInclude("user").entityBuilder().enableLombok().disableSerialVersionUID().build()) .templateEngine(newFreemarkerTemplateEngine()) .execute(); } } 直接运行
main
方法即可生成代码,配置请根据个人需要进行更改。5.3 配置文件
spring: shardingsphere: mode: type:Memory#内存模式,元数据保存在当前进程中 datasource: names:master,slave#数据源名称,这里有两个 master:#跟上面的数据源对应 type:com.alibaba.druid.pool.DruidDataSource#连接池 url:jdbc//127.0.0.1:3306/test#连接url username:root password:123456 slave:#跟上面的数据源对应 type:com.alibaba.druid.pool.DruidDataSource url:jdbc//127.0.0.1:3306/test username:root password:123456 rules: readwrite-splitting:#读写分离规则 data-sources:#数据源配置 random:#这个名字随便起 type:Static#静态类型 load-balancer-name:round_robin#负载均衡算法名字 props: write-data-source-name:master#写数据源 read-data-source-names:slave#读数据源 load-balancers:#负载均衡配置 round_robin:#跟上面负载均衡算法的名字对应 type:ROUND_ROBIN#负载均衡算法 props: sql-show:true#打印SQL 因为配置文件的内容比较多,以下进行分开说明。
5.3.1 模式
spring.shardingsphere.mode.type
,模式有三种:-
Memory
:内存模式,初始化配置或执行SQL
等操作均在当前进程生效 -
Standalone
:单机模式,可以将数据源和规则等元数据信息持久化,但是这些元数据不会在集群中同步 -
Cluster
:集群模式,提供了多个Apache ShardingSphere
实例之间元数据共享以及分布式场景下的状态协调的能力,也提供水平扩展以及高可用的能力
-
spring.shardingsphere.mode.type=Standalone
:设置单机模式 -
spring.shardingsphere.mode.repository.type=
:持久化仓库的类型,单机模式适用类型为File
-
spring.shardingsphere.mode.repository.props.path=
:元数据存储路径,默认.shardingsphere
-
spring.shardingsphere.mode.overwrite=
:是否覆盖
-
spring.shardingsphere.mode.type=Cluster
:设置集群模式 -
spring.shardingsphere.mode.repository.type=
:持久化仓库类型,集群模式支持ZooKeeper
以及Etcd
持久化 -
spring.shardingsphere.mode.repository.props.namespace=
:注册中心命名空间 -
spring.shardingsphere.mode.repository.props.server-lists=
:注册中心服务器列表 -
spring.shardingsphere.mode.overwrite=
:是否覆盖 -
spring.shardingsphere.mode.repository.props.
:注册中心的属性配置,对于= ZooKeeper
,可以配置retryIntervalMilliseconds
(重试间隔毫秒)、maxRetries
(客户端连接最大重试数)、timeToLiveSeconds
(临时数据存活秒数)、operationTimeoutMilliseconds
(客户端操作超时毫秒数)、digest
(登录密码),对于Etcd
,可以配置timeToLiveSeconds
(临时数据存活秒数)、connectionTimeout
(连接超时秒数)
5.3.2 数据源配置
spring.shardingsphere.datasource.names
,后面接数据源的名称,使用,
分隔,比如此处有两个数据源:-
master
-
slave
-
type
:数据库连接池类型,这里使用的是Druid
-
username
:用户名 -
password
:密码 -
jdbc-url
:连接url
,注意,对于此处使用的Druid
连接池,需要使用url
而不是jdbc-url
5.3.3 读写分离规则配置
spring.shardingsphere.rules.readwrite-splitting
,需要配置其中的数据源以及负载均衡类型:-
spring.shardingsphere.rules.readwrite-splitting.data-sources
-
spring.shardingsphere.rules.readwrite-splitting.load-balancers
5.3.3.1 数据源配置
数据源配置首先需要添加一个数据源的名字,随便起一个,比如这里是random
,然后需要配置三个属性:-
spring.shardingsphere.rules.readwrite-splitting.data-sources.random.type
:读写分离的类型,可选值为Static
与Dynamic
,这里选择Static
,如果选择Dynamic
,也就是动态数据源,请配合dynamic-datasource-spring-boot-starter
使用 -
spring.shardingsphere.rules.readwrite-splitting.data-sources.random.props.write-data-source-name
:写数据源 -
spring.shardingsphere.rules.readwrite-splitting.data-sources.random.props.read-data-source-name
:读数据源 -
spring.shardingsphere.rules.readwrite-splitting.data-sources.random.load-balancer-name
:负载均衡算法的名称,这里写的是round_robin
5.3.3.2 负载均衡配置
负载均衡配置需要与上面的spring.shardingsphere.rules.readwrite-splitting.data-sources.random.load-balancer-name
属性对应,比如这里是round_robin
,那么需要配置的就是spring.shardingsphere.rules.readwrite-splitting.load-balancers.round_robin
。然后下一步就是配置具体的负载均衡算法。内置的负载均衡算法有三个:-
轮询算法:
ROUND_ROBIN
,配置type=ROUND_ROBIN
即可,也就是spring.shardingsphere.rules.readwrite-splitting.load-balancers.round_robin.type=ROUND_ROBIN
-
随机访问算法:
RANDOM
,配置type=RANDOM
-
权重访问算法:
WEIGHT
,配置type=WEIGHT
,同时需要配置props
,在其中配置各个读节点的权重
5.3.4 属性配置
属性的话这里只配置了一个spring.shardingsphere.props.sql-show=true
,也就是打印SQL
,其他支持的属性有:-
spring.shardingsphere.props.sql-simple
:是否打印简单风格的SQL
,默认为false
-
spring.shardingsphere.props.kernel-exector-size
:设置任务处理线程池大小,默认为infinite
-
spring.shardingsphere.props.max-connections-size-per-query
:每次查询所能使用的最多数据库连接数,默认为1
-
spring.shardingsphere.props.check-table-metadata-enabled
:启动时是否检查分片元数据的一致性,默认为false
-
spring.shardingsphere.props.check-duplicate-table-enabled
:启动时是否检查重复表,默认为false
-
spring.shardingsphere.props.sql-federation-enabled
:是否开启联邦查询,默认为false
5.4 准备Controller
@RestController @RequestMapping("/user") @RequiredArgsConstructor(onConstructor=@__(@Autowired)) publicclassUserController{ privatefinalUserServiceImpluserService; @GetMapping("/select") publicUserselect(){ returnuserService.getById(1); } @GetMapping("/insert") publicbooleaninsert(){ returnuserService.saveOrUpdate(User.builder().id(3L).name("name3").build()); } }
6 测试
访问http://localhost:8080/user/insert
,可以看到写操作在主库进行:访问http://localhost:8080/user/select
,可以看到读操作在从库进行:这样读写分离就算是完成了。审核编辑:汤梓红
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
数据库
+关注
关注
7文章
3792浏览量
64340 -
spring
+关注
关注
0文章
340浏览量
14334 -
MySQL
+关注
关注
1文章
804浏览量
26519
原文标题:SpringBoot+ShardingSphereJDBC实现读写分离!
文章出处:【微信号:AndroidPush,微信公众号:Android编程精选】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
MySQL主从复制原理详解
简单讲,MySQL主从复制就是数据写入一台服务器(主服务器)后,同时还会额外写入另外的服务器(从服务器)。也就是说数据会写多份,这样做的目的
一个操作把MySQL主从复制整崩了
最近公司某项目上反馈mysql主从复制失败,被运维部门记了一次大过,影响到了项目的验收推进,那么究竟是什么原因导致的呢?而主从复制的原理又是什么呢?本文就对排查分析的过程做
mysql主从复制的原理
实现数据的复制。 一、主从复制的基本概念 主数据库(Master): 负责接收客户端的写操作,并将这些操作记录到binlog中。 从数据库(
评论