如何分库分表?
分库分表的核心就是对数据的分片(
Sharding
)并相对均匀的路由在不同的库、表中,以及分片后对数据的快速定位与检索结果的整合。
分库与分表可以从:垂直(纵向)和 水平(横向)两种纬度进行拆分。下边我们以经典的订单业务举例,看看如何拆分。
垂直拆分
1、垂直分库
垂直分库一般来说按照业务和功能的维度进行拆分,将不同业务数据分别放到不同的数据库中,核心理念 专库专用
。
按业务类型对数据分离,剥离为多个数据库,像订单、支付、会员、积分相关等表放在对应的订单库、支付库、会员库、积分库。不同业务禁止跨库直连,获取对方业务数据一律通过API
接口交互,这也是微服务拆分的一个重要依据。
垂直分库很大程度上取决于业务的划分,但有时候业务间的划分并不是那么清晰,比如:电商中订单数据的拆分,其他很多业务都依赖于订单数据,有时候界线不是很好划分。
垂直分库把一个库的压力分摊到多个库,提升了一些数据库性能,但并没有解决由于单表数据量过大导致的性能问题,所以就需要配合后边的分表来解决。
2、垂直分表
垂直分表针对业务上字段比较多的大表进行的,一般是把业务宽表中比较独立的字段,或者不常用的字段拆分到单独的数据表中,是一种大表拆小表的模式。
例如:一张t_order
订单表上有几十个字段,其中订单金额相关字段计算频繁,为了不影响订单表t_order
的性能,就可以把订单金额相关字段拆出来单独维护一个t_order_price_expansion
扩展表,这样每张表只存储原表的一部分字段,通过订单号order_no
做关联,再将拆分出来的表路由到不同的库中。
数据库它是以行为单位将数据加载到内存中,这样拆分以后核心表大多是访问频率较高的字段,而且字段长度也都较短,因而可以加载更多数据到内存中,减少磁盘IO,增加索引查询的命中率,进一步提升数据库性能。
水平拆分
上边垂直分库、垂直分表后还是会存在单库、表数据量过大的问题,当我们的应用已经无法在细粒度的垂直切分时,依旧存在单库读写、存储性能瓶颈,这时就要配合水平分库、水平分表一起了。
1、水平分库
水平分库是把同一个表按一定规则拆分到不同的数据库中,每个库可以位于不同的服务器上,以此实现水平扩展,是一种常见的提升数据库性能的方式。
例如:db_orde_1
、db_order_2
两个数据库内有完全相同的t_order
表,我们在访问某一笔订单时可以通过对订单的订单编号取模的方式 订单编号 mod 2 (数据库实例数)
,指定该订单应该在哪个数据库中操作。
这种方案往往能解决单库存储量及性能瓶颈问题,但由于同一个表被分配在不同的数据库中,数据的访问需要额外的路由工作,因此系统的复杂度也被提升了。
2、水平分表
水平分表是在同一个数据库内,把一张大数据量的表按一定规则,切分成多个结构完全相同表,而每个表只存原表的一部分数据。
例如:一张t_order
订单表有900万数据,经过水平拆分出来三个表,t_order_1
、t_order_2
、t_order_3
,每张表存有数据300万,以此类推。
水平分表尽管拆分了表,但子表都还是在同一个数据库实例中,只是解决了单一表数据量过大的问题,并没有将拆分后的表分散到不同的机器上,还在竞争同一个物理机的CPU、内存、网络IO等。要想进一步提升性能,就需要将拆分后的表分散到不同的数据库中,达到分布式的效果。
数据存在哪个库的表
分库分表以后会出现一个问题,一张表会出现在多个数据库里,到底该往哪个库的哪个表里存呢?
上边我们多次提到过一定规则
,其实这个规则它是一种路由算法,决定了一条数据具体应该存在哪个数据库的哪张表里。
常见的有 取模算法
、范围限定算法
、范围+取模算法
、预定义算法
1、取模算法
关键字段取模(对hash结果取余数 hash(XXX) mod N),N为数据库实例数或子表数量)是最为常见的一种路由方式。
以t_order
订单表为例,先给数据库从 0 到 N-1进行编号,对 t_order
订单表中order_no
订单编号字段进行取模hash(order_no) mod N
,得到余数i
。i=0
存第一个库,i=1
存第二个库,i=2
存第三个库,以此类推。
同一笔订单数据会落在同一个库、表里,查询时用相同的规则,用t_order
订单编号作为查询条件,就能快速的定位到数据。
优点
实现简单,数据分布相对比较均匀,不易出现请求都打到一个库上的情况。
缺点
取模算法对集群的伸缩支持不太友好,集群中有N个数据库实·hash(user_id) mod N
,当某一台机器宕机,本应该落在该数据库的请求就无法得到处理,这时宕掉的实例会被踢出集群。
此时机器数减少算法发生变化hash(user_id) mod N-1
,同一用户数据落在了在不同数据库中,等这台机器恢复,用user_id
作为条件查询用户数据就会少一部分。
2、范围限定算法
范围限定算法以某些范围字段,如时间
或ID区
拆分。
用户表t_user
被拆分成t_user_1
、t_user_2
、t_user_3
三张表,后续将user_id
范围为1 ~ 1000w的用户数据放入t_user_1
,1000~ 2000w放入t_user_2
,2000~3000w放入t_user_3
,以此类推。按日期范围划分同理。
优点
- 单表数据量是可控的
- 水平扩展简单只需增加节点即可,无需对其他分片的数据进行迁移
缺点
- 由于连续分片可能存在
数据热点
,比如按时间字段分片时,如果某一段时间(双11等大促)订单骤增,存11月数据的表可能会被频繁的读写,其他分片表存储的历史数据则很少被查询,导致数据倾斜,数据库压力分摊不均匀。
3、范围 + 取模算法
为了避免热点数据的问题,我们可以对上范围算法优化一下
这次我们先通过范围算法定义每个库的用户表t_user
只存1000w数据,第一个db_order_1
库存放userId
从1 ~ 1000w,第二个库1000~2000w,第三个库2000~3000w,以此类推。
每个库里再把用户表t_user
拆分成t_user_1
、t_user_2
、t_user_3
等,对userd
进行取模路由到对应的表中。
有效的避免数据分布不均匀的问题,数据库水平扩展也简单,直接添加实例无需迁移历史数据。
4、地理位置分片
地理位置分片其实是一个更大的范围,按城市或者地域划分,比如华东、华北数据放在不同的分片库、表。
5、预定义算法
预定义算法是事先已经明确知道分库和分表的数量,可以直接将某类数据路由到指定库或表中,查询的时候亦是如此。
分库分表出来的问题
了解了上边分库分表的拆分方式不难发现,相比于拆分前的单库单表,系统的数据存储架构演变到现在已经变得非常复杂。看几个具有代表性的问题,比如:
分页、排序、跨节点联合查询
分页、排序、联合查询,这些看似普通,开发中使用频率较高的操作,在分库分表后却是让人非常头疼的问题。把分散在不同库中表的数据查询出来,再将所有结果进行汇总合并整理后提供给用户。
比如:我们要查询11、12月的订单数据,如果两个月的数据是分散到了不同的数据库实例,则要查询两个数据库相关的数据,在对数据合并排序、分页,过程繁琐复杂。
事务一致性
分库分表后由于表分布在不同库中,不可避免会带来跨库事务问题。后续会分别以阿里的Seata
和MySQL的XA
协议实现分布式事务,用来比较各自的优势与不足。
全局唯一的主键
分库分表后数据库表的主键ID业务意义就不大了,因为无法在标识唯一一条记录,例如:多张表t_order_1
、t_order_2
的主键ID全部从1开始会重复,此时我们需要主动为一条记录分配一个ID,这个全局唯一的ID就叫分布式ID
,发放这个ID的系统通常被叫发号器。
多数据库高效治理
对多个数据库以及库内大量分片表的高效治理,是非常有必要,因为像某宝这种大厂一次大促下来,订单表可能会被拆分成成千上万个t_order_n
表,如果没有高效的管理方案,手动建表、排查问题是一件很恐怖的事。
历史数据迁移
分库分表架构落地以后,首要的问题就是如何平滑的迁移历史数据,增量数据和全量数据迁移,这又是一个比较麻烦的事情,后边详细讲。
分库分表架构模式
分库分表架构主要有两种模式:client
客户端模式和proxy
代理模式
客户模式
client
模式指分库分表的逻辑都在你的系统应用内部进行控制,应用会将拆分后的SQL直连多个数据库进行操作,然后本地进行数据的合并汇总等操作。
代理模式
proxy
代理模式将应用程序与MySQL数据库隔离,业务方的应用不在需要直连数据库,而是连接proxy代理服务,代理服务实现了MySQL的协议,对业务方来说代理服务就是数据库,它会将SQL分发到具体的数据库进行执行,并返回结果。该服务内有分库分表的配置,根据配置自动创建分片表。
如何抉择
如何选择client
模式和proxy
模式,我们可以从以下几个方面来简单做下比较。
1、性能
性能方面client
模式表现的稍好一些,它是直接连接MySQL执行命令; proxy
代理服务则将整个执行链路延长了,应用->代理服务->MySQL,可能导致性能有一些损耗,但两者差距并不是非常大。
2、复杂度
client
模式在开发使用通常引入一个jar可以; proxy
代理模式则需要搭建单独的服务,有一定的维护成本,既然是服务那么就要考虑高可用,毕竟应用的所有SQL都要通过它转发至MySQL。
3、升级
client
模式分库分表一般是依赖基础架构团队的Jar包,一旦有版本升级或者Bug修改,所有应用到的项目都要跟着升级。小规模的团队服务少升级问题不大,如果是大公司服务规模大,且涉及到跨多部门,那么升级一次成本就比较高;
proxy
模式在升级方面优势很明显,发布新功能或者修复Bug,只要重新部署代理服务集群即可,业务方是无感知的,但要保证发布过程中服务的可用性。
4、治理、监控
client
模式由于是内嵌在应用内,应用集群部署不太方便统一处理;proxy
模式在对SQL限流、读写权限控制、监控、告警等服务治理方面更优雅一些。
结束语
本文主要是回顾一下分库分表的一些基础概念,为大家在后续ShardingSphere
实践中更好上手理解,内容里很多概念一笔带过没详细展开,接下来的篇幅会逐一解读。