Apache ShardingSphere-JDBC

第01章 高性能架构模式

互联网业务兴起之后,海量用户加上海量数据的特点,单个数据库服务器已经难以满足业务需要,必须考虑数据库集群的方式来提升性能。高性能数据库集群的
第一种方式是“读写分离”

第二种方式是“数据库分片”

1、读写分离架构

读写分离原理: 读写分离的基本原理是将数据库读写操作分散到不同的节点上,下面是其基本架构图:

读写分离的基本实现:


主库负责处理事务性的增删改操作,从库负责处理查询操作
,能够有效的避免由数据更新导致的行锁,使得整个系统的查询性能得到极大的改善。读写分离是
根据 SQL 语义的分析

将读操作和写操作分别路由至主库与从库
。通过
一主多从
的配置方式,可以将查询请求均匀的分散到多个数据副本,能够进一步的提升系统的处理能力。使用
多主多从
的方式,不但能够提升系统的吞吐量,还能够提升系统的可用性,可以达到在任何一个数据库宕机,甚至磁盘物理损坏的情况下仍然不影响系统的正常运行。

下图展示了根据业务需要,将用户表的写操作和读操路由到不同的数据库的方案:

CAP 理论:

CAP 定理(CAP theorem)又被称作布鲁尔定理(Brewer’s theorem),是加州大学伯克利分校的计算机科学家埃里克·布鲁尔(Eric Brewer)在 2000 年的 ACM PODC 上提出的一个猜想。
对于设计分布式系统的架构师来说,CAP 是必须掌握的理论。

在一个
分布式系统中
,当涉及读写操作时,只能保证一致性(Consistence)、可用性(Availability)、分区容错性(Partition Tolerance)三者中的两个,另外一个必须被牺牲。

C 一致性(Consistency):对某个指定的客户端来说,读操作保证能够返回最新的写操作结果A 可用性(Availability):非故障的节点在合理的时间内返回合理的响应
(不是错误和超时的响应)
P 分区容忍性(Partition Tolerance):当出现网络分区后
(可能是丢包,也可能是连接中断,还可能是拥塞)
,系统能够继续“履行职责”

CAP特点:

在实际设计过程中,每个系统不可能只处理一种数据,而是包含多种类型的数据,
有的数据必须选择 CP,有的数据必须选择 AP,分布式系统理论上不可能选择 CA 架构。

CP:如下图所示,
为了保证一致性
,当发生分区现象后,N1 节点上的数据已经更新到 y,但由于 N1 和 N2 之间的复制通道中断,数据 y 无法同步到 N2,N2 节点上的数据还是 x。
这时客户端 C 访问 N2 时,N2 需要返回 Error,提示客户端 C“系统现在发生了错误”,
这种处理方式
违背了可用性
(Availability)的要求,因此 CAP 三者只能满足 CP。

AP:如下图所示,
为了保证可用性
,当发生分区现象后,N1 节点上的数据已经更新到 y,但由于 N1 和 N2 之间的复制通道中断,数据 y 无法同步到 N2,N2 节点上的数据还是 x。
这时客户端 C 访问 N2 时,N2 将当前自己拥有的数据 x 返回给客户端 C 了
,而实际上当前最新的数据已经是 y 了,这就
不满足一致性
(Consistency)的要求了,因此 CAP 三者只能满足 AP。注意:这里 N2 节点返回 x,虽然不是一个“正确”的结果,但是一个“合理”的结果,因为 x 是旧的数据,并不是一个错乱的值,只是不是最新的数据而已。

CAP 理论中的
C 在实践中是不可能完美实现的
,在数据复制的过程中,节点N1 和节点 N2 的数据并不一致(强一致性)。即使无法做到
强一致性
,但应用可以采用适合的方式达到
最终一致性
。具有如下特点:

基本可用(Basically Available):分布式系统在出现故障时,允许损失部分可用性,即保证核心可用。软状态(Soft State):允许系统存在中间状态,而该中间状态不会影响系统整体可用性。这里的中间状态就是 CAP 理论中的数据不一致。
最终一致性(Eventual Consistency):系统中的所有数据副本经过一定时间后,最终能够达到一致的状态。

2、数据库分片架构

读写分离的问题:

读写分离分散了数据库读写操作的压力,但没有分散存储压力,为了满足业务数据存储的需求,就需要
将存储分散到多台数据库服务器上

数据分片:

将存放在单一数据库中的数据分散地存放至多个数据库或表中,以达到提升性能瓶颈以及可用性的效果。 数据分片的有效手段是对关系型数据库进行
分库和分表
。数据分片的拆分方式又分为
垂直分片和水平分片

2.1、垂直分片

垂直分库:


按照业务拆分的方式称为垂直分片,又称为纵向拆分
,它的核心理念是专库专用。 在拆分之前,一个数据库由多个数据表构成,每个表对应着不同的业务。而拆分之后,则是按照业务将表进行归类,分布到不同的数据库中,从而将压力分散至不同的数据库。

下图展示了根据业务需要,将用户表和订单表垂直分片到不同的数据库的方案:

垂直拆分可以缓解数据量和访问量带来的问题,但无法根治。
如果垂直拆分之后,表中的数据量依然超过单节点所能承载的阈值,则需要水平分片来进一步处理。

垂直分表:


垂直分表适合将表中某些不常用的列,或者是占了大量空间的列拆分出去。

假设我们是一个婚恋网站,用户在筛选其他用户的时候,主要是用 age 和 sex 两个字段进行查询,而 nickname 和 description 两个字段主要用于展示,一般不会在业务查询中用到。description 本身又比较长,因此我们可以将这两个字段独立到另外一张表中,这样在查询 age 和 sex 时,就能带来一定的性能提升。

垂直分表引入的复杂性主要体现在表操作的数量要增加。例如,原来只要一次查询就可以获取 name、age、sex、nickname、description,现在需要两次查询,一次查询获取 name、age、sex,另外一次查询获取 nickname、description。


水平分表适合表行数特别大的表,水平分表属于水平分片

2.2、水平分片


水平分片又称为横向拆分。
相对于垂直分片,它不再将数据根据业务逻辑分类,而是通过某个字段(或某几个字段),根据某种规则将数据分散至多个库或表中,每个分片仅包含数据的一部分。 例如:根据主键分片,偶数主键的记录放入 0 库(或表),奇数主键的记录放入 1 库(或表),如下图所示。


单表进行切分后,是否将多个表分散在不同的数据库服务器中,可以根据实际的切分效果来确定。

水平分表: 单表切分为多表后,新的表即使在同一个数据库服务器中,也可能带来可观的性能提升,如果性能能够满足业务要求,可以不拆分到多台数据库服务器,毕竟业务分库也会引入很多复杂性;

水平分库: 如果单表拆分为多表后,单台服务器依然无法满足性能要求,那就需要将多个表分散在不同的数据库服务器中。

阿里巴巴Java开发手册:

【推荐】单表行数超过 500 万行或者单表容量超过 2GB,才推荐进行分库分表。

说明:如果预计三年后的数据量根本达不到这个级别,
请不要在创建表时就分库分表

3、读写分离和数据分片架构

下图展现了将数据分片与读写分离一同使用时,应用程序与数据库集群之间的复杂拓扑关系。

4、实现方式

读写分离和数据分片具体的实现方式一般有两种:
程序代码封装

中间件封装

4.1、程序代码封装

程序代码封装指在代码中抽象一个
数据访问层(或中间层封装)
,实现读写操作分离和数据库服务器连接的管理。

其基本架构是: 以读写分离为例

4.2、中间件封装

中间件封装指的是
独立一套系统出来
,实现读写操作分离和数据库服务器连接的管理。对于业务服务器来说,访问中间件和访问数据库没有区别,在业务服务器看来,中间件就是一个数据库服务器。

基本架构是: 以读写分离为例

4.3、常用解决方案

Apache ShardingSphere(程序级别和中间件级别)

MyCat(数据库中间件)

第02章 ShardingSphere

1、简介

官网:https://shardingsphere.apache.org/index_zh.html

文档:https://shardingsphere.apache.org/document/5.5.2/cn/overview/

Apache ShardingSphere 由 JDBC、Proxy 这 2 款既能够独立部署,又支持混合部署配合使用的产品组成。

2、ShardingSphere-JDBC

程序代码封装

定位为轻量级 Java 框架,
在 Java 的 JDBC 层提供的额外服务
。 它使用客户端直连数据库,
以 jar 包形式提供服务
,无需额外部署和依赖,可理解为增强版的 JDBC 驱动,完全兼容 JDBC 和各种 ORM 框架。

3、ShardingSphere-Proxy

中间件封装(不建议,支持的数据库较少)

定位为透明化的
数据库代理端
,提供封装了数据库二进制协议的服务端版本,用于完成对异构语言的支持。 目前提供 MySQL 和 PostgreSQL版本,它可以使用任何兼容 MySQL/PostgreSQL 协议的访问客户端(如:MySQL Command Client, MySQL Workbench, Navicat 等)操作数据,对 DBA 更加友好。

第03章 MySQL主从同步

1、MySQL主从同步原理

基本原理:

slave会从master读取binlog来进行数据同步

具体步骤:


step1:
master将数据改变记录到
二进制日志(binary log)
中。
step2:
当slave上执行
start slave
命令之后,slave会创建一个
IO 线程
用来连接master,请求master中的binlog。
step3:
当slave连接master时,master会创建一个
log dump 线程
,用于发送 binlog 的内容。在读取 binlog 的内容的操作中,会对主节点上的 binlog 加锁,当读取完成并发送给从服务器后解锁。
step4:
IO 线程接收主节点 binlog dump 进程发来的更新之后,保存到
中继日志(relay log)
中。
step5:
slave的
SQL线程
,读取relay log日志,并解析成具体操作,从而实现主从操作一致,最终数据一致。

2、一主多从配置

服务器规划:使用
docker
方式创建,
主从服务器IP一致,端口号不一致

主服务器:容器名
shardingsphere-master
,端口
3307
从服务器:容器名
shardingsphere-slave1
,端口
3308
从服务器:容器名
shardingsphere-slave2
,端口
3309

注意: 如果此时防火墙是开启的,
则先关闭防火墙,并重启docker
,否则后续安装的MySQL无法启动


#关闭docker
systemctl stop docker
#关闭防火墙
systemctl stop firewalld
#启动docker
systemctl start docker

2.1、准备主服务器

step1:在docker中创建并启动MySQL主服务器:
端口3307


docker run -d 
-p 3307:3306 
-v /shardingsphere/mysql/master/conf:/etc/mysql/conf.d 
-v /shardingsphere/mysql/master/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name shardingsphere-master 
mysql:8.0.29

step2:创建MySQL主服务器配置文件:

默认情况下MySQL的binlog日志是自动开启的,可以通过如下配置定义一些可选配置


vim /shardingsphere/mysql/master/conf/my.cnf

配置如下内容


[mysqld]
# 服务器唯一id,默认值1
server-id=1
# 设置日志格式,默认值ROW
binlog_format=STATEMENT
# 二进制日志名,默认binlog
# log-bin=binlog
# 设置需要复制的数据库,默认复制全部数据库
#binlog-do-db=mytestdb
# 设置不需要复制的数据库
#binlog-ignore-db=mysql
#binlog-ignore-db=infomation_schema

重启MySQL容器


docker restart shardingsphere-master


binlog格式说明:

binlog_format=STATEMENT:日志记录的是主机数据库的
写指令
,性能高,但是now()之类的函数以及获取系统参数的操作会出现主从数据不同步的问题。binlog_format=ROW(默认):日志记录的是主机数据库的
写后的数据
,批量操作时性能较差,解决now()或者 user()或者 @@hostname 等操作在主从机器上不一致的问题。binlog_format=MIXED:是以上两种level的混合使用,有函数用ROW,没函数用STATEMENT,但是无法识别系统变量


binlog-ignore-db和binlog-do-db的优先级问题:

step3:使用命令行登录MySQL主服务器:


#进入容器:env LANG=C.UTF-8 避免容器中显示中文乱码
docker exec -it shardingsphere-master env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码校验方式(可选,navicat连接不上在设置)
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step4:主机中创建slave用户:


-- 创建slave用户
CREATE USER 'liming_slave'@'%';
-- 设置密码
ALTER USER 'liming_slave'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
-- 授予复制权限
GRANT REPLICATION SLAVE ON *.* TO 'liming_slave'@'%';
-- 刷新权限
FLUSH PRIVILEGES;

step5:主机中查询master状态:

执行完此步骤后
不要再操作主服务器MYSQL
,防止主服务器状态值变化


SHOW MASTER STATUS;

记下
File

Position
的值。执行完此步骤后不要再操作主服务器MYSQL,防止主服务器状态值变化。

2.2、准备从服务器(第一台)

可以配置多台从机slave1、slave2…,这里以配置slave1为例

step1:在docker中创建并启动MySQL从服务器:
端口3308


docker run -d 
-p 3308:3306 
-v /shardingsphere/mysql/slave1/conf:/etc/mysql/conf.d 
-v /shardingsphere/mysql/slave1/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name shardingsphere-slave1 
mysql:8.0.29

step2:创建MySQL从服务器配置文件:


vim /shardingsphere/mysql/slave1/conf/my.cnf

配置如下内容:


[mysqld]
# 服务器唯一id,每台服务器的id必须不同,如果配置其他从机,注意修改id
server-id=2
# 中继日志名,默认xxxxxxxxxxxx-relay-bin
#relay-log=relay-bin

重启MySQL容器


docker restart shardingsphere-slave1

step3:使用命令行登录MySQL从服务器:


#进入容器:
docker exec -it shardingsphere-slave1 env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码校验方式(可选)
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step4:在从机上配置主从关系:

从机上执行以下SQL操作


CHANGE MASTER TO MASTER_HOST='192.168.0.169', 
MASTER_USER='liming_slave',MASTER_PASSWORD='123456', MASTER_PORT=3307,
MASTER_LOG_FILE='binlog.000007',MASTER_LOG_POS=1072; 

2.3、启动主从同步

启动从机的复制功能,执行SQL:


START SLAVE;
-- 查看状态(不需要分号)
SHOW SLAVE STATUSG

**两个关键进程:**下面两个参数都是Yes,则说明主从配置成功!

2.4、准备从服务器(第二台)

step1:在docker中创建并启动MySQL从服务器:
端口3309


docker run -d 
-p 3309:3306 
-v /shardingsphere/mysql/slave2/conf:/etc/mysql/conf.d 
-v /shardingsphere/mysql/slave2/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name shardingsphere-slave2 
mysql:8.0.29

step2:创建MySQL从服务器配置文件:


vim /shardingsphere/mysql/slave2/conf/my.cnf

配置如下内容:


[mysqld]
# 服务器唯一id,每台服务器的id必须不同,如果配置其他从机,注意修改id
server-id=3

重启MySQL容器


docker restart shardingsphere-slave2

step3:使用命令行登录MySQL从服务器:


#进入容器:
docker exec -it shardingsphere-slave2 env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码校验方式(可选)
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step4:在从机上配置主从关系:

从机上执行以下SQL操作


CHANGE MASTER TO MASTER_HOST='192.168.0.169', 
MASTER_USER='liming_slave',MASTER_PASSWORD='123456', MASTER_PORT=3307,
MASTER_LOG_FILE='binlog.000007',MASTER_LOG_POS=1072; 

step4:启动主从同步:


START SLAVE;
-- 查看状态(不需要分号)
SHOW SLAVE STATUSG

2.5、实现主从同步

在主机中执行以下SQL,在从机中查看数据库、表和数据是否已经被同步


CREATE DATABASE db_user;
USE db_user;
CREATE TABLE t_user (
 id BIGINT AUTO_INCREMENT,
 uname VARCHAR(30),
 PRIMARY KEY (id)
);
INSERT INTO t_user(uname) VALUES('张三');
INSERT INTO t_user(uname) VALUES('李四');

2.6、停止和重置(前面的操作没有问题可以忽略)

需要的时候,可以使用如下SQL语句


-- 在从机上执行。功能说明:停止I/O 线程和SQL线程的操作。
stop slave; 

-- 在从机上执行。功能说明:用于删除SLAVE数据库的relaylog日志文件,并重新启用新的relaylog文件。
reset slave;

-- 在主机上执行。功能说明:删除所有的binglog日志文件,并将日志索引文件清空,重新开始所有新的日志文件。
-- 用于第一次进行搭建主从库时,进行主库binlog初始化工作;
reset master;

2.7、常见问题

问题1

启动主从同步后,常见错误是
Slave_IO_Running: No 或者 Connecting
的情况,此时查看下方的
Last_IO_ERROR
错误日志,根据日志中显示的错误信息在网上搜索解决方案即可

典型的错误例如:
Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: 'Client requested master to start replication from position > file size'

解决方案:


-- 在从机停止slave
SLAVE STOP;

-- 在主机查看mater状态
SHOW MASTER STATUS;
-- 在主机刷新日志
FLUSH LOGS;
-- 再次在主机查看mater状态(会发现File和Position发生了变化)
SHOW MASTER STATUS;
-- 修改从机连接主机的SQL,并重新连接即可
问题2

启动docker容器后提示
WARNING: IPv4 forwarding is disabled. Networking will not work.

此错误,虽然不影响主从同步的搭建,但是如果想从远程客户端通过以下方式连接docker中的MySQL则没法连接


C:Usersadministrator>mysql -h 192.168.100.201 -P 3306 -u root -p

解决方案:


#修改配置文件:
vim /usr/lib/sysctl.d/00-system.conf
#追加
net.ipv4.ip_forward=1
#接着重启网络
systemctl restart network

第04章 ShardingSphere-JDBC读写分离

1、创建SpringBoot程序

1.1、创建项目

项目类型:Spring Initializr

项目名:sharding-jdbc-demo

SpringBoot版本:3.5.0

1.2、添加依赖


<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>3.5.0</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>

    <groupId>com.liming</groupId>
    <artifactId>sharding-jdbc-demo</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>sharding-jdbc-demo</name>
    <description>sharding-jdbc-demo</description>

    <properties>
        <maven.compiler.source>17</maven.compiler.source>
        <maven.compiler.target>17</maven.compiler.target>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <mybatis-plus.version>3.5.14</mybatis-plus.version>
        <shardingsphere.version>5.5.2</shardingsphere.version>
    </properties>

    <dependencies>
        <!--web起步依赖-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <!--shardingsphere-jdbc-->
        <dependency>
            <groupId>org.apache.shardingsphere</groupId>
            <artifactId>shardingsphere-jdbc</artifactId>
            <version>${shardingsphere.version}</version>
        </dependency>
        <!--mysql-->
        <dependency>
            <groupId>com.mysql</groupId>
            <artifactId>mysql-connector-j</artifactId>
            <scope>runtime</scope>
        </dependency>
        <!--mybatis-plus-->
        <dependency>
            <groupId>com.baomidou</groupId>
            <artifactId>mybatis-plus-spring-boot3-starter</artifactId>
            <version>${mybatis-plus.version}</version>
        </dependency>
        <!--lombok-->
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
        <!--单元测试-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

1.3、创建实体类


package com.liming.entity;

import com.baomidou.mybatisplus.annotation.IdType;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import lombok.Data;

@TableName("t_user")
@Data
public class User {
    @TableId(type = IdType.AUTO)
    private Long id;
    
    private String uname;
}

1.4、创建Mapper


package com.liming.mapper;

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.liming.entity.User;
import org.apache.ibatis.annotations.Mapper;

@Mapper
public interface UserMapper extends BaseMapper<User> {
}

1.5、配置读写分离

application.yml:


spring:
  # 应用程序配置
  application:
    # 应用名称
    name: sharding-jdbc-demo
  # 数据源配置
  datasource:
    # 数据库驱动类名,使用ShardingSphere驱动
    driver-class-name: org.apache.shardingsphere.driver.ShardingSphereDriver
    # 数据库连接URL,指向ShardingSphere配置文件
    url: jdbc:shardingsphere:classpath:shardingsphere.yaml

shardingsphere.yaml:


# 模式配置
mode:
  # Standalone表示该配置是单机模式,即不依赖于集群。
  type: Standalone
  # repository配置指定数据源的类型,JDBC表示通过JDBC连接数据库。
  repository:
    type: JDBC
# 数据源配置
dataSources:
  # 写数据源配置
  write_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.168.0.169:3307/db_user
    username: root
    password: 123456
  # 读取数据源1的配置
  read_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.168.0.169:3308/db_user
    username: root
    password: 123456
  # 读取数据源2的配置
  read_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.168.0.169:3309/db_user
    username: root
    password: 123456
# 读写分离配置
rules:
  # 定义一个读写分离的规则
  - !READWRITE_SPLITTING
    # 配置读写分离的数据源组
    dataSourceGroups:
      readwrite_ds:
        # 写数据源
        writeDataSourceName: write_ds
        # 读取数据源,指定多个读取数据源
        readDataSourceNames:
          - read_ds_0
          - read_ds_1
        # 设置事务性读操作的查询策略,PRIMARY表示从主库读取数据
        transactionalReadQueryStrategy: PRIMARY
        # 设置负载均衡器,使用round_robin进行负载均衡
        loadBalancerName: round_lb
    # 配置负载均衡器,使用轮询方式分配读请求
    loadBalancers:
      round_lb:
        # 负载均衡器类型,ROUND_ROBIN表示轮询
        type: ROUND_ROBIN
  # 定义单表的读写规则
  - !SINGLE
    tables:
      # 指定需要使用读写分离的表,这里是readwrite_ds.t_user表
      - readwrite_ds.t_user
    # 设置默认的数据源为readwrite_ds
    defaultDataSource: readwrite_ds

# 配置属性
props:
  # 显示SQL执行日志,方便调试查看SQL语句
  sql-show: true
  # 设置允许的最大时间差(毫秒),如果两次写操作的时间差超过这个值,则认为是不可接受的
  max-tolerate-time-difference-milliseconds: 10000

2、测试

2.1、读写分离测试


package com.liming;

import com.liming.entity.User;
import com.liming.mapper.UserMapper;
import jakarta.annotation.Resource;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

@SpringBootTest
class ShardingJdbcDemoApplicationTests {

    @Resource
    private UserMapper userMapper;

    /**
     * 写入数据的测试
     */
    @Test
    public void testInsert() {
        User user = new User();
        user.setUname("liming");
        userMapper.insert(user);
    }
}

2.2、事务测试


transactionalReadQueryStrategy: PRIMARY

事务内读请求的路由策略,可选值:

PRIMARY(路由至主库)FIXED(同一事务内路由至固定数据源)DYNAMIC(同一事务内路由至非固定数据源)这是默认值

测试1:

不添加@Transactional:insert对主库操作,select对从库操作


/**
 * 事务测试
 */
@Test
public void testTrans() {

    User user = new User();
    user.setUname("jiayun");
    userMapper.insert(user);

    List<User> users = userMapper.selectList(null);
}

测试2:

添加@Transactional:则insert和select按照transactionalReadQueryStrategy的配置执行


/**
 * 事务测试
 * transactionalReadQueryStrategy: PRIMARY 读和写都走主库,可以省略连接数
 * transactionalWriteStrategy: FIXED 写和多个查,多个查都走都一个数据源
 * transactionalWriteStrategy: DYNAMIC 写和多个查,多个查走不同的数据源,根据负载均衡策略
 */
@Transactional//开启事务
@Test
public void testTrans() {

    User user = new User();
    user.setUname("Transactional");
    userMapper.insert(user);

    List<User> users = userMapper.selectList(null);
}

2.3、负载均衡测试


/**
 * 负载均衡测试
 */
@Test
public void testSelect() {
    for (int i = 0; i < 10; i++) {
        User user = userMapper.selectById(i);
        System.out.println(user);
    }
}

负载均衡算法配置:

https://shardingsphere.apache.org/document/current/cn/user-manual/common-config/builtin-algorithm/load-balance/


# 读写分离配置
rules:
  # 定义一个读写分离的规则
  - !READWRITE_SPLITTING
    # 配置读写分离的数据源组
    dataSourceGroups:
      readwrite_ds:
        # 写数据源
        writeDataSourceName: write_ds
        # 读取数据源,指定多个读取数据源
        readDataSourceNames:
          - read_ds_0
          - read_ds_1
        # 设置事务性读操作的查询策略,PRIMARY表示从主库读取数据
        transactionalReadQueryStrategy: PRIMARY
        # 设置负载均衡器,使用round_robin进行负载均衡
        loadBalancerName: round_lb
    # 配置负载均衡器,使用轮询方式分配读请求
    loadBalancers:
      round_lb:
        # 负载均衡器类型,ROUND_ROBIN表示轮询
        type: ROUND_ROBIN
      random_lb:
        # 负载均衡器类型,RANDOM表示随机
        type: RANDOM
      weight_lb:
        # 负载均衡器类型,WEIGHT表示权重
        type: WEIGHT
        props:
          read_ds_0: 1
          read_ds_1: 2

第05章 ShardingSphere-JDBC垂直分片

1、准备服务器

服务器规划:使用
docker
方式创建如下容器

服务器:容器名
server-user
,端口
3301

服务器:容器名
server-order
,端口
3302

1.1、创建server-user容器

step1:创建容器:


docker run -d 
-p 3301:3306 
-v /shardingsphere/server/user/conf:/etc/mysql/conf.d 
-v /shardingsphere/server/user/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name server-user 
mysql:8.0.30

step2:登录MySQL服务器:


#进入容器:
docker exec -it server-user env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码插件
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step3:创建数据库:


CREATE DATABASE db_user;
USE db_user;
CREATE TABLE t_user (
 id BIGINT AUTO_INCREMENT,
 uname VARCHAR(30),
 PRIMARY KEY (id)
);

1.2、创建server-order容器

step1:创建容器:


docker run -d 
-p 3302:3306 
-v /shardingsphere/server/order/conf:/etc/mysql/conf.d 
-v /shardingsphere/server/order/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name server-order 
mysql:8.0.30

step2:登录MySQL服务器:


#进入容器:
docker exec -it server-order env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码插件
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step3:创建数据库:


CREATE DATABASE db_order;
USE db_order;
CREATE TABLE t_order (
  id BIGINT AUTO_INCREMENT,
  order_no VARCHAR(30),
  user_id BIGINT,
  amount DECIMAL(10,2),
  PRIMARY KEY(id) 
);

2、程序实现

2.1、创建实体类


package com.liming.entity;

import com.baomidou.mybatisplus.annotation.IdType;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import lombok.Data;

import java.math.BigDecimal;

@TableName("t_order")
@Data
public class Order {
    @TableId(type = IdType.AUTO)
    private Long id;
    private String orderNo;
    private Long userId;
    private BigDecimal amount;
}

2.2、创建Mapper


package com.liming.mapper;

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.liming.entity.Order;
import org.apache.ibatis.annotations.Mapper;

@Mapper
public interface OrderMapper extends BaseMapper<Order> {
}

2.3、配置垂直分片


# 模式配置
mode:
  # Standalone表示该配置是单机模式,即不依赖于集群。
  type: Standalone
  # repository配置指定数据源的类型,JDBC表示通过JDBC连接数据库。
  repository:
    type: JDBC

# 数据源配置
# 配置了两个数据源:user_ds和order_ds,分别连接到不同的MySQL数据库实例
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3302/db_order
    username: root
    password: 123456
# 配置分片规则,定义表与数据源的映射关系
rules:
  - !SHARDING
    tables:
      t_user:
        actualDataNodes: user_ds.t_user
      t_order:
        actualDataNodes: order_ds.t_order

# 配置属性
props:
  # 显示SQL执行日志,方便调试查看SQL语句
  sql-show: true
  # 设置允许的最大时间差(毫秒),如果两次写操作的时间差超过这个值,则认为是不可接受的
  max-tolerate-time-difference-milliseconds: 10000

3、测试垂直分片


package com.liming;

import com.liming.entity.Order;
import com.liming.entity.User;
import com.liming.mapper.OrderMapper;
import com.liming.mapper.UserMapper;
import jakarta.annotation.Resource;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

import java.math.BigDecimal;

@SpringBootTest
public class ShardingTest {

    @Resource
    private UserMapper userMapper;

    @Resource
    private OrderMapper orderMapper;

    /**
     * 垂直分库:插入数据测试
     */
    @Test
    public void testInsertOrderAndUser(){

        User user = new User();
        user.setUname("liming");
        userMapper.insert(user);

        Order order = new Order();
        order.setOrderNo("jiayun001");
        order.setUserId(user.getId());
        order.setAmount(new BigDecimal(100));
        orderMapper.insert(order);

    }

    /**
     * 垂直分库:查询数据测试
     */
    @Test
    public void testSelectFromOrderAndUser(){
        User user = userMapper.selectById(1L);
        Order order = orderMapper.selectById(1L);
    }
}

常见错误

ShardingSphere-JDBC远程连接的方式默认的密码加密规则是:mysql_native_password

因此需要在服务器端修改服务器的密码加密规则,如下:


ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

第06章 ShardingSphere-JDBC水平分片

1、准备服务器

服务器规划:使用
docker
方式创建如下容器

服务器:容器名
server-order0
,端口
3310

服务器:容器名
server-order1
,端口
3311

1.1、创建server-order0容器

step1:创建容器:


docker run -d 
-p 3310:3306 
-v /shardingsphere/server/order0/conf:/etc/mysql/conf.d 
-v /shardingsphere/server/order0/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name server-order0 
mysql:8.0.30

step2:登录MySQL服务器:


#进入容器:
docker exec -it server-order0 env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码插件
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

step3:创建数据库:


注意:
水平分片的id需要在业务层实现,
不能依赖数据库的主键自增


CREATE DATABASE db_order;
USE db_order;
CREATE TABLE t_order0 (
  id BIGINT,
  order_no VARCHAR(30),
  user_id BIGINT,
  amount DECIMAL(10,2),
  PRIMARY KEY(id) 
);
CREATE TABLE t_order1 (
  id BIGINT,
  order_no VARCHAR(30),
  user_id BIGINT,
  amount DECIMAL(10,2),
  PRIMARY KEY(id) 
);

1.2、创建server-order1容器

step1:创建容器:


docker run -d 
-p 3311:3306 
-v /shardingsphere/server/order1/conf:/etc/mysql/conf.d 
-v /shardingsphere/server/order1/data:/var/lib/mysql 
-e MYSQL_ROOT_PASSWORD=123456 
--name server-order1 
mysql:8.0.30

step2:登录MySQL服务器:


#进入容器:
docker exec -it server-order1 env LANG=C.UTF-8 /bin/bash
#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码插件
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';

**step3:创建数据库:**和server-order0相同


注意:
水平分片的id需要在业务层实现,不能依赖数据库的主键自增


CREATE DATABASE db_order;
USE db_order;
CREATE TABLE t_order0 (
  id BIGINT,
  order_no VARCHAR(30),
  user_id BIGINT,
  amount DECIMAL(10,2),
  PRIMARY KEY(id) 
);
CREATE TABLE t_order1 (
  id BIGINT,
  order_no VARCHAR(30),
  user_id BIGINT,
  amount DECIMAL(10,2),
  PRIMARY KEY(id) 
);

2、水平分片

2.1、配置一个分片节点

application.yml


spring:
  # 应用程序配置
  application:
    # 应用名称
    name: sharding-jdbc-demo
  # 数据源配置
  datasource:
    # 数据库驱动类名,使用ShardingSphere驱动
    driver-class-name: org.apache.shardingsphere.driver.ShardingSphereDriver
    # 数据库连接URL,指向ShardingSphere配置文件
    url: jdbc:shardingsphere:classpath:shardingsphere.yaml

shardingsphere.yaml


# 模式配置
mode:
  # Standalone表示该配置是单机模式,即不依赖于集群。
  type: Standalone
  # repository配置指定数据源的类型,JDBC表示通过JDBC连接数据库。
  repository:
    type: JDBC

# 数据源配置
# 配置了两个数据源:user_ds和order_ds,分别连接到不同的MySQL数据库实例
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3310/db_order
    username: root
    password: 123456
  order_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3311/db_order
    username: root
    password: 123456
# 配置分片规则,定义表与数据源的映射关系
rules:
  - !SHARDING
    tables:
      t_user:
        actualDataNodes: user_ds.t_user
      t_order:
        actualDataNodes: order_ds_0.t_order0 # 配置一个order分片节点

# 配置属性
props:
  # 显示SQL执行日志,方便调试查看SQL语句
  sql-show: true
  # 设置允许的最大时间差(毫秒),如果两次写操作的时间差超过这个值,则认为是不可接受的
  max-tolerate-time-difference-milliseconds: 10000

修改Order实体类的主键策略:


//@TableId(type = IdType.AUTO)//依赖数据库的主键自增策略
@TableId(type = IdType.ASSIGN_ID)//分布式id

测试:


/**
 * 水平分片:插入数据测试
 */
@Test
public void testInsertOrder(){

    Order order = new Order();
    order.setOrderNo("liming001");
    order.setUserId(1L);
    order.setAmount(new BigDecimal(100));
    orderMapper.insert(order);
}

2.2、分布式序列算法

雪花算法:

https://shardingsphere.apache.org/document/5.5.2/cn/user-manual/common-config/builtin-algorithm/keygen/

水平分片需要关注全局序列,因为不能简单的使用基于数据库的主键自增。

这里有两种方案:一种是基于MyBatisPlus的id策略;一种是ShardingSphere-JDBC的全局序列配置。


基于MyBatisPlus的id策略:
将Order类的id设置成如下形式


@TableId(type = IdType.ASSIGN_ID)
private Long id;


基于ShardingSphere-JDBC的全局序列配置
:和前面的MyBatisPlus的策略二选一


# 数据源配置
# 配置了两个数据源:user_ds和order_ds,分别连接到不同的MySQL数据库实例
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3310/db_order
    username: root
    password: 123456
  order_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3311/db_order
    username: root
    password: 123456
# 分片规则配置
# 定义分片策略、表与数据源的映射关系以及分布式主键生成策略
rules:
  - !SHARDING
    # 表分片规则定义
    tables:
      # t_user 表不分片,固定路由到 user_ds 数据源的 t_user 表
      t_user:
        actualDataNodes: user_ds.t_user
      # t_order 表采用分片策略,并配置分布式主键生成器
      t_order:
        # 主键生成策略配置
        keyGenerateStrategy:
          # 指定主键列名为 id
          column: id
          # 使用 snowflake 算法生成分布式主键
          keyGeneratorName: snowflake
        # 实际数据节点配置,当前仅配置了一个分片节点
        actualDataNodes: order_ds_0.t_order0
    # 分布式主键生成器定义
    keyGenerators:
      # snowflake 算法配置
      snowflake:
        # 指定使用的主键生成算法类型为 SNOWFLAKE
        type: SNOWFLAKE

# 全局属性配置
# 用于控制 ShardingSphere 的行为和性能调优参数
props:
  # 是否显示实际执行的 SQL 语句,便于调试和监控
  sql-show: true
  # 设置最大容忍的时间差(单位:毫秒),用于检测写操作的时间一致性
  max-tolerate-time-difference-milliseconds: 10000

此时,需要将实体类中的id策略修改成以下形式:


//当配置了shardingsphere-jdbc的分布式序列时,自动使用shardingsphere-jdbc的分布式序列
//当没有配置shardingsphere-jdbc的分布式序列时,自动依赖数据库的主键自增策略
@TableId(type = IdType.AUTO)

2.3、水平分库配置

行表达式

https://shardingsphere.apache.org/document/5.5.2/cn/user-manual/common-config/builtin-algorithm/expr/

将数据分片到order_ds_0和order_ds_1z中


actualDataNodes: order_ds_${0..1}.t_order0
分片算法配置

水平分库:

分片规则:order表中
user_id
为偶数时,数据插入
server-order0服务器

user_id
为奇数时,数据插入
server-order1服务器
。这样分片的好处是,同一个用户的订单数据,一定会被插入到同一台服务器上,查询一个用户的订单时效率较高。


# 模式配置
mode:
  type: Standalone
  repository:
    type: JDBC

# 数据源配置
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3310/db_order
    username: root
    password: 123456
  order_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3311/db_order
    username: root
    password: 123456

# 分片规则配置
# 定义分片策略、表与数据源之间的映射关系以及分布式主键生成策略。
# 包含具体表的分片逻辑、主键生成器定义和分片算法实现。
rules:
  - !SHARDING
    # 表分片规则定义
    tables:
      # t_user 表不分片,固定路由到 user_ds 数据源中的 t_user 表
      t_user:
        actualDataNodes: user_ds.t_user
      # t_order 表进行水平分片,并配置分布式主键生成策略
      t_order:
        # 主键生成策略配置
        keyGenerateStrategy:
          # 指定主键列名为 id
          column: id
          # 使用 snowflake 算法生成分布式主键
          keyGeneratorName: snowflake
        # 实际数据节点配置,order_ds_${0..1} 表示两个分片库 order_ds_0 和 order_ds_1,
        # 每个库对应一个物理表 t_order0
        actualDataNodes: order_ds_${0..1}.t_order0
        # 数据库分片策略:基于 user_id 字段进行取模运算决定目标库
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
    # 分布式主键生成器定义
    keyGenerators:
      # snowflake 算法配置
      snowflake:
        # 指定使用的主键生成算法类型为 SNOWFLAKE
        type: SNOWFLAKE
    # 分片算法定义
    shardingAlgorithms:
      # userid_inline 是一种 inline 表达式类型的分片算法
      userid_inline:
        type: INLINE
        props:
          # 根据 user_id 取模结果选择对应的数据库实例
          algorithm-expression: order_ds_${user_id % 2}

# 全局属性配置
# 控制 ShardingSphere 运行时的行为和性能相关参数设置
props:
  # 是否在日志中打印实际执行的 SQL 语句,用于调试或监控用途
  sql-show: true
  # 设置允许的最大时间差(单位:毫秒),用于检测写操作之间的时间一致性问题
  max-tolerate-time-difference-milliseconds: 10000

测试:


/**
 * 水平分片:分库插入数据测试
 */
@Test
public void testInsertOrderDatabaseStrategy(){

    for (long i = 0; i < 4; i++) {
        Order order = new Order();
        order.setOrderNo("jiayun001");
        order.setUserId(i + 1);
        order.setAmount(new BigDecimal(100));
        orderMapper.insert(order);
    }

}

2.4 、水平分表配置

将数据分片到order_ds_0和order_ds_1的t_order0和t_order1中


actualDataNodes: order_ds_${0..1}.t_order${0..1}

分片规则:order表中id为偶数时,将数据插入
t_order0
数据库,id为奇数时,将数据插入
t_order1
数据库。


# 模式配置
mode:
  type: Standalone
  repository:
    type: JDBC
# 数据源配置
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3310/db_order
    username: root
    password: 123456
  order_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3311/db_order
    username: root
    password: 123456

# 分片规则配置
rules:
  - !SHARDING
    # 表分片规则定义
    tables:
      # t_user 表不分片,固定路由到 user_ds 数据源中的 t_user 表
      t_user:
        actualDataNodes: user_ds.t_user
      # t_order 表进行水平分片,并配置分布式主键生成策略
      t_order:
        # 主键生成策略配置
        keyGenerateStrategy:
          # 指定主键列名为 id
          column: id
          # 使用 snowflake 算法生成分布式主键
          keyGeneratorName: snowflake
        actualDataNodes: order_ds_${0..1}.t_order${0..1}
        # 数据库分片策略:基于 user_id 字段进行取模运算决定目标库
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
        # 表分片策略配置
        tableStrategy:
          standard:
            shardingAlgorithmName: orderid_inline
            shardingColumn: id
    # 分布式主键生成器定义
    keyGenerators:
      # snowflake 算法配置
      snowflake:
        # 指定使用的主键生成算法类型为 SNOWFLAKE
        type: SNOWFLAKE
    # 分片算法定义
    shardingAlgorithms:
      # userid_inline 是一种 inline 表达式类型的分片算法
      userid_inline:
        type: INLINE
        props:
          # 根据 user_id 取模结果选择对应的数据库实例
          algorithm-expression: order_ds_${user_id % 2}
      # 算法表达式:t_order${id % 2} 表示订单ID除以2的余数作为表后缀
      orderid_inline:
        type: INLINE
        props:
          algorithm-expression: t_order${id % 2}


# 全局属性配置
# 控制 ShardingSphere 运行时的行为和性能相关参数设置
props:
  # 是否在日志中打印实际执行的 SQL 语句,用于调试或监控用途
  sql-show: true
  # 设置允许的最大时间差(单位:毫秒),用于检测写操作之间的时间一致性问题
  max-tolerate-time-difference-milliseconds: 10000

测试:


@Test
public void testInsertOrderDatabaseStrategy(){

    for (long i = 0; i < 4; i++) {
        Order order = new Order();
        order.setOrderNo("jiayun001");
        order.setUserId(11L);
        order.setAmount(new BigDecimal(100));
        orderMapper.insert(order);
    }

    for (long i = 0; i < 4; i++) {
        Order order = new Order();
        order.setOrderNo("jiayun002");
        order.setUserId(12L);
        order.setAmount(new BigDecimal(100));
        orderMapper.insert(order);
    }

}

3、多表关联

3.1、创建关联表


server-order0、server-order1
服务器中分别创建两张订单详情表
t_order_item0、t_order_item1

我们希望
同一个用户的订单表和订单详情表中的数据都在同一个数据源中,避免跨库关联
,因此这两张表我们使用相同的分片策略。

那么在
t_order_item
中我们也需要创建
order_no

user_id
这两个分片键


CREATE TABLE t_order_item0(
    id BIGINT,
    order_id BIGINT,
    user_id BIGINT,
    price DECIMAL(10,2),
    `count` INT,
    PRIMARY KEY(id)
);

CREATE TABLE t_order_item1(
    id BIGINT,
    order_id BIGINT,
    user_id BIGINT,
    price DECIMAL(10,2),
    `count` INT,
    PRIMARY KEY(id)
);

3.2、创建实体类


package com.liming.entity;

import com.baomidou.mybatisplus.annotation.IdType;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import lombok.Data;

import java.math.BigDecimal;

@TableName("t_order_item")
@Data
public class OrderItem {
    //当配置了shardingsphere-jdbc的分布式序列时,自动使用shardingsphere-jdbc的分布式序列
    @TableId(type = IdType.ASSIGN_ID)
    private Long id;
    private Long orderId;
    private Long userId;
    private BigDecimal price;
    private Integer count;
}

3.3、创建Mapper


package com.liming.mapper;

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.liming.entity.OrderItem;
import org.apache.ibatis.annotations.Mapper;

@Mapper
public interface OrderItemMapper extends BaseMapper<OrderItem> {

}

3.4、配置关联表

t_order_item的分片表、分片策略、分布式序列策略和t_order一致


# 模式配置
mode:
  type: Standalone
  repository:
    type: JDBC

# 数据源配置
dataSources:
  user_ds:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3301/db_user
    username: root
    password: 123456
  order_ds_0:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3310/db_order
    username: root
    password: 123456
  order_ds_1:
    dataSourceClassName: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://192.8.0.169:3311/db_order
    username: root
    password: 123456

# 分片规则配置
rules:
  - !SHARDING
    # 表分片规则定义
    tables:
      # t_user 表不分片,固定路由到 user_ds 数据源中的 t_user 表
      t_user:
        actualDataNodes: user_ds.t_user
      # t_order 表进行水平分片,并配置分布式主键生成策略
      t_order:
        actualDataNodes: order_ds_${0..1}.t_order${0..1}
        # 数据库分片策略:基于 user_id 字段进行取模运算决定目标库
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
        # 表分片策略配置
        tableStrategy:
          standard:
            shardingAlgorithmName: orderid_inline
            shardingColumn: id
      # 订单项找库、找表策略
      t_order_item:
        actualDataNodes: order_ds_${0..1}.t_order_item${0..1}
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
        tableStrategy:
          standard:
            shardingAlgorithmName: orderid_item_inline
            shardingColumn: order_id
    # 分片算法定义
    shardingAlgorithms:
      # userid_inline 是一种 inline 表达式类型的分片算法
      userid_inline:
        type: INLINE
        props:
          # 根据 user_id 取模结果选择对应的数据库实例
          algorithm-expression: order_ds_${user_id % 2}
      # 算法表达式:t_order${id % 2} 表示订单ID除以2的余数作为表后缀
      orderid_inline:
        type: INLINE
        props:
          algorithm-expression: t_order${id % 2}
      orderid_item_inline:
        type: INLINE
        props:
          algorithm-expression: t_order_item${order_id % 2}

# 全局属性配置
# 控制 ShardingSphere 运行时的行为和性能相关参数设置
props:
  # 是否在日志中打印实际执行的 SQL 语句,用于调试或监控用途
  sql-show: true
  # 设置允许的最大时间差(单位:毫秒),用于检测写操作之间的时间一致性问题
  max-tolerate-time-difference-milliseconds: 10000

3.5、测试插入数据

同一个用户的订单表和订单详情表中的数据都在同一个数据源中,避免跨库关联


/**
 * 测试关联表插入
 */
@Test
public void testInsertOrderAndOrderItem(){

    for (long i = 0; i < 2; i++) {

        Order order = new Order();
        order.setOrderNo("order" + i);
        order.setUserId(1L);
        orderMapper.insert(order);

        for (long j = 0; j < 2; j++) {
            OrderItem orderItem = new OrderItem();
            orderItem.setUserId(1L);
            orderItem.setOrderId(order.getId());
            orderItem.setPrice(new BigDecimal(10));
            orderItem.setCount(2);
            orderItemMapper.insert(orderItem);
        }
    }

    for (long i = 0; i < 2; i++) {

        Order order = new Order();
        order.setOrderNo("order" + i);
        order.setUserId(2L);
        orderMapper.insert(order);

        for (long j = 0; j < 2; j++) {
            OrderItem orderItem = new OrderItem();
            orderItem.setOrderId(order.getId());
            orderItem.setUserId(2L);
            orderItem.setPrice(new BigDecimal(1));
            orderItem.setCount(3);
            orderItemMapper.insert(orderItem);
        }
    }

}

4、绑定表


绑定表:
指分片规则一致的一组分片表。 使用绑定表进行多表关联查询时,必须使用分片键进行关联,否则会出现笛卡尔积关联或跨库关联,从而影响查询效率。

**需求:**查询每个订单的订单号和总订单金额

4.1、创建VO对象


package com.liming.entity;

import lombok.Data;

import java.math.BigDecimal;

@Data
public class OrderVo {
    private String orderNo;
    private BigDecimal amount;
}

4.2、添加Mapper方法


package com.liming.mapper;

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.liming.entity.Order;
import com.liming.entity.OrderVo;
import org.apache.ibatis.annotations.Mapper;
import org.apache.ibatis.annotations.Select;

import java.util.List;

@Mapper
public interface OrderMapper extends BaseMapper<Order> {

    @Select({"SELECT o.order_no, SUM(i.price * i.count) AS amount",
            "FROM t_order o JOIN t_order_item i ON o.id = i.order_id",
            "GROUP BY o.order_no"})
    List<OrderVo> getOrderAmount();
}

4.3、测试关联查询


/**
     * 测试关联表查询
     */
@Test
public void testGetOrderAmount(){

    List<OrderVo> orderAmountList = orderMapper.getOrderAmount();
    orderAmountList.forEach(System.out::println);
}

4.4、配置绑定表

在原来水平分片配置的基础上添加如下配置:


# 分片规则配置
rules:
  - !SHARDING
    # 配置绑定表
    bindingTables:
      - t_order,t_order_item

配置完绑定表后再次进行关联查询的测试:

如果不配置绑定表:测试的结果为8个SQL。 多表关联查询会出现笛卡尔积关联。

如果配置绑定表:测试的结果为4个SQL。 多表关联查询不会出现笛卡尔积关联,关联查询效率将大大提升。

5、广播表

4.1、什么是广播表

指所有的分片数据源中都存在的表,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。

广播具有以下特性:

(1)插入、更新操作会实时在所有节点上执行,保持各个分片的数据一致性

(2)查询操作,只从一个节点获取

(3)可以跟任何一个表进行 JOIN 操作

4.2、创建广播表

在server-order0、server-order1和server-user服务器中分别创建t_dict表


CREATE TABLE t_dict(
    id BIGINT,
    dict_type VARCHAR(200),
    PRIMARY KEY(id)
);

4.3、程序实现

4.3.1、创建实体类

package com.liming.entity;

import com.baomidou.mybatisplus.annotation.IdType;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import lombok.Data;

@TableName("t_dict")
@Data
public class Dict {
    //可以使用MyBatisPlus的雪花算法
    @TableId(type = IdType.ASSIGN_ID)
    private Long id;
    private String dictType;
}
4.3.2、创建Mapper

package com.liming.mapper;

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.liming.entity.Dict;
import org.apache.ibatis.annotations.Mapper;

@Mapper
public interface DictMapper extends BaseMapper<Dict> {
}
4.3.3、配置广播表

rules:
  - !SHARDING
    # 表分片规则定义
    tables:
      # t_user 表不分片,固定路由到 user_ds 数据源中的 t_user 表
      t_user:
        actualDataNodes: user_ds.t_user
      # t_order 表进行水平分片,并配置分布式主键生成策略
      t_order:
        actualDataNodes: order_ds_${0..1}.t_order${0..1}
        # 数据库分片策略:基于 user_id 字段进行取模运算决定目标库
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
        # 表分片策略配置
        tableStrategy:
          standard:
            shardingAlgorithmName: orderid_inline
            shardingColumn: id
      # 订单项找库、找表策略
      t_order_item:
        actualDataNodes: order_ds_${0..1}.t_order_item${0..1}
        databaseStrategy:
          standard:
            shardingAlgorithmName: userid_inline
            shardingColumn: user_id
        tableStrategy:
          standard:
            shardingAlgorithmName: orderid_item_inline
            shardingColumn: order_id
    # 分片算法定义
    shardingAlgorithms:
      # userid_inline 是一种 inline 表达式类型的分片算法
      userid_inline:
        type: INLINE
        props:
          # 根据 user_id 取模结果选择对应的数据库实例
          algorithm-expression: order_ds_${user_id % 2}
      # 算法表达式:t_order${id % 2} 表示订单ID除以2的余数作为表后缀
      orderid_inline:
        type: INLINE
        props:
          algorithm-expression: t_order${id % 2}
      orderid_item_inline:
        type: INLINE
        props:
          algorithm-expression: t_order_item${order_id % 2}
    # 配置绑定表
    bindingTables:
      - t_order,t_order_item
  - !BROADCAST # 配置广播表
    tables:
      - t_dict

4.4、测试广播表


@Resource
private DictMapper dictMapper;

/**
 * 广播表:每个服务器中的t_dict同时添加了新数据
 */
@Test
public void testBroadcast(){

    Dict dict = new Dict();
    dict.setDictType("type1");
    dictMapper.insert(dict);
}

/**
 * 查询操作,只从一个节点获取数据
 * 随机负载均衡规则
 */
@Test
public void testSelectBroadcast(){

    List<Dict> dicts = dictMapper.selectList(null);
    dicts.forEach(System.out::println);
}

© 版权声明
THE END
如果内容对您有所帮助,就支持一下吧!
点赞0 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容