当前位置:   article > 正文

Java分布式事务Seata安装和使用,SpringCloud Seata分布式事务安装配置和使用_transactionexception[begin global request failed.

transactionexception[begin global request failed. xid=null, msg=wait millis

Java分布式事务Seata安装和使用,SpringCloud Seata分布式事务安装配置和使用

================================

©Copyright 蕃薯耀 2021-05-10

https://blog.csdn.net/w995223851

一、Seata 是什么?
官方文档:

https://seata.io/zh-cn/docs/overview/what-is-seata.html

Seata 是一款开源的分布式事务解决方案,致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式,为用户打造一站式的分布式解决方案。


AT 模式基于 支持本地 ACID 事务 的 关系型数据库:
一阶段 prepare 行为:在本地事务中,一并提交业务数据更新和相应回滚日志记录。
二阶段 commit 行为:马上成功结束,自动 异步批量清理回滚日志。
二阶段 rollback 行为:通过回滚日志,自动 生成补偿操作,完成数据回滚。

TCC 模式,不依赖于底层数据资源的事务支持:
一阶段 prepare 行为:调用 自定义 的 prepare 逻辑。
二阶段 commit 行为:调用 自定义 的 commit 逻辑。
二阶段 rollback 行为:调用 自定义 的 rollback 逻辑。
所谓 TCC 模式,是指支持把 自定义 的分支事务纳入到全局事务的管理中。

Seata组成:
TC (Transaction Coordinator) - 事务协调者
维护全局和分支事务的状态,驱动全局事务提交或回滚。

TM (Transaction Manager) - 事务管理器
定义全局事务的范围:开始全局事务、提交或回滚全局事务。

RM (Resource Manager) - 资源管理器
管理分支事务处理的资源,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。


官方部署文档:http://seata.io/zh-cn/docs/ops/deploy-guide-beginner.html


二、Seata Server端安装和配置


基于seata-server-1.4.2.zip实现,同时也要下载源码包seata-1.4.2.zip(DB模式下要执行SQL脚本以及Nacos作为配置中心,Seata相关的配置需要注册到Nacos)

下载地址:

https://github.com/seata/seata/releases

Server端存储模式(store.mode)现有file、db、redis三种(后续将引入raft,mongodb),file模式无需改动,直接启动即可,下面专门讲下db启动步骤。
注:
file模式为单机模式,全局事务会话信息内存中读写并持久化本地文件root.data,性能较高;
db模式为高可用模式,全局事务会话信息通过db共享,相应性能差些;
redis模式Seata-Server 1.3及以上版本支持,性能较高,存在事务信息丢失风险,请提前配置合适当前场景的redis持久化配置.


1、解压:seata-server-1.4.2.zip

2、进入seata-server目录,修改配置文件

目录是:

seata-server-1.4.2\conf

需要修改的配置文件:
registry.conf
file.conf

registry.conf指定注册模式,如 # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa,默认:type = "file",指向file.conf文件
file.conf:有模式:file、db、redis,用于存储事务的日记。

registry.conf当前指定使用nacos作为注册中心和配置中心,需要修改registry项和config项,同时修改nacos的连接信息。
建议增加namespace的配置,将Seata相应的配置放在一起,不然后面配置中心的东西很多,有整整9页

有命名空间的配置,即修改namespace:

复制代码

  1. registry {
  2. type = "nacos"
  3. nacos {
  4. application = "seata-server"
  5. serverAddr = "127.0.0.1:8848"
  6. group = "SEATA_GROUP"
  7. namespace = "fb31c4c2-29ac-456c-b9d6-36301baceae4"
  8. cluster = "default"
  9. username = ""
  10. password = ""
  11. }
  12. }
  13. config {
  14. type = "nacos"
  15. nacos {
  16. serverAddr = "127.0.0.1:8848"
  17. namespace = "fb31c4c2-29ac-456c-b9d6-36301baceae4"
  18. group = "SEATA_GROUP"
  19. username = ""
  20. password = ""
  21. dataId = "seataServer.properties"
  22. }
  23. }

复制代码

file.conf修改内容如下:(需要预先创建一个seata的数据库,用于事务的日志记录)

复制代码

  1. ## transaction log store, only used in seata-server
  2. store {
  3. mode = "db"
  4. publicKey = ""
  5. db {
  6. datasource = "druid"
  7. dbType = "mysql"
  8. driverClassName = "com.mysql.jdbc.Driver"
  9. url = "jdbc:mysql://127.0.0.1:3307/seata?rewriteBatchedStatements=true"
  10. user = "root"
  11. password = "root"
  12. minConn = 5
  13. maxConn = 100
  14. globalTable = "global_table"
  15. branchTable = "branch_table"
  16. lockTable = "lock_table"
  17. queryLimit = 100
  18. maxWait = 5000
  19. }
  20. }

复制代码

3、执行seata server端数据库脚本

Server端:server端数据库脚本 (包含 lock_table、branch_table 与 global_table) 及各个容器配置,脚本需要在源码包找(seata-1.4.2.zip)
执行脚本(仅使用DB模式才需要执行脚本)
脚本所在的目录(seata-1.4.2为源码seata-1.4.2.zip):

seata-1.4.2\script\server\db

总共有3个文件(只需要执行自己对应的数据脚本即可):
mysql.sql
oracle.sql
postgresql.sql


下面为mysql.sql

  1. -- -------------------------------- The script used when storeMode is 'db' --------------------------------
  2. -- the table to store GlobalSession data
  3. CREATE TABLE IF NOT EXISTS `global_table`
  4. (
  5. `xid` VARCHAR(128) NOT NULL,
  6. `transaction_id` BIGINT,
  7. `status` TINYINT NOT NULL,
  8. `application_id` VARCHAR(32),
  9. `transaction_service_group` VARCHAR(32),
  10. `transaction_name` VARCHAR(128),
  11. `timeout` INT,
  12. `begin_time` BIGINT,
  13. `application_data` VARCHAR(2000),
  14. `gmt_create` DATETIME,
  15. `gmt_modified` DATETIME,
  16. PRIMARY KEY (`xid`),
  17. KEY `idx_gmt_modified_status` (`gmt_modified`, `status`),
  18. KEY `idx_transaction_id` (`transaction_id`)
  19. ) ENGINE = InnoDB
  20. DEFAULT CHARSET = utf8;
  21. -- the table to store BranchSession data
  22. CREATE TABLE IF NOT EXISTS `branch_table`
  23. (
  24. `branch_id` BIGINT NOT NULL,
  25. `xid` VARCHAR(128) NOT NULL,
  26. `transaction_id` BIGINT,
  27. `resource_group_id` VARCHAR(32),
  28. `resource_id` VARCHAR(256),
  29. `branch_type` VARCHAR(8),
  30. `status` TINYINT,
  31. `client_id` VARCHAR(64),
  32. `application_data` VARCHAR(2000),
  33. `gmt_create` DATETIME(6),
  34. `gmt_modified` DATETIME(6),
  35. PRIMARY KEY (`branch_id`),
  36. KEY `idx_xid` (`xid`)
  37. ) ENGINE = InnoDB
  38. DEFAULT CHARSET = utf8;
  39. -- the table to store lock data
  40. CREATE TABLE IF NOT EXISTS `lock_table`
  41. (
  42. `row_key` VARCHAR(128) NOT NULL,
  43. `xid` VARCHAR(128),
  44. `transaction_id` BIGINT,
  45. `branch_id` BIGINT NOT NULL,
  46. `resource_id` VARCHAR(256),
  47. `table_name` VARCHAR(32),
  48. `pk` VARCHAR(36),
  49. `gmt_create` DATETIME,
  50. `gmt_modified` DATETIME,
  51. PRIMARY KEY (`row_key`),
  52. KEY `idx_branch_id` (`branch_id`)
  53. ) ENGINE = InnoDB
  54. DEFAULT CHARSET = utf8;

4、启动Seata
注:启动Seata,记得先启动Nacos

Windows启动:
进入目录:seata-server-1.4.2\bin,双击seata-server.bat直接启动

Linux命令启动: 
seata-server.sh -h 127.0.0.1 -p 8091 -m db -n 1 -e test

源码启动: 执行Server.java的main方法

参数说明:

  1. -h: 注册到注册中心的ip
  2. -p: Server rpc 监听端口
  3. -m: 全局事务会话信息存储模式,file、db、redis,优先读取启动参数 (Seata-Server 1.3及以上版本支持redis)
  4. -n: Server node,多个Server时,需区分各自节点,用于生成不同区间的transactionId,以免冲突
  5. -e: 多环境配置参考 http://seata.io/en-us/docs/ops/multi-configuration-isolation.html

启动成功后:
16:52:56.108 INFO --- [ main] io.seata.config.FileConfiguration : The file name of the operation is file.conf
16:52:56.108 INFO --- [ main] io.seata.config.FileConfiguration : The configuration file used is D:\0soft\seata-server-1.4.2\conf\file.conf
16:52:57.904 INFO --- [ main] com.alibaba.druid.pool.DruidDataSource : {dataSource-1} inited
16:52:58.450 INFO --- [ main] i.s.core.rpc.netty.NettyServerBootstrap : Server started, listen port: 8091


5、导入Seata相应的配置项到Nacos的配置中心(非注册中心)
这点很容易漏。
config-center 官网说明地址是:

https://github.com/seata/seata/tree/develop/script/config-center

该文件是:config.txt

注意:在seata-server-1.4.2是没有config.txt文件的,该文件在源码包中:seata-1.4.2.zip,解压后的目录是:

seata-1.4.2\script\config-center\config.txt

(可以将seata-1.4.2\script\config-center复制一份到seata-server-1.4.2\config-center)

当前使用的是Nacos作为配置中心(config-center),所以进入到nacos目录:

seata-1.4.2\script\config-center\nacos 

有两个脚本文件:
nacos-config.py
nacos-config.sh

第一个是phython脚本,第二个是Linux脚本
那Windows脚本怎么执行呢?安装Git-2.26.2-64-bit.exe,使用Git Bash执行。(省略具体步骤)

执行前,需要修改config.txt文件:

my_test_tx_group是默认有的,没有修改。增加分布式事务分组nacos_service_tx_group、nacos_consumer_tx_group。注意:名称长度不能超过VARCHAR(32)。事务分组允许只配置一个,也可以配置成多个,用于切换,此处额外增加2个,具体配置如下:

  1. service.vgroupMapping.my_test_tx_group=default
  2. service.vgroupMapping.nacos_service_tx_group=default
  3. service.vgroupMapping.nacos_consumer_tx_group=default

全局事务表global_table的transaction_service_group长度为32(VARCHAR(32)),超出会报错。例如:SPRING-CLOUD-NACOS-CONSUMER_tx_group长度为36,就会导致报错。

service.vgroupMapping.SPRING-CLOUD-NACOS-CONSUMER_tx_group=default:命名超出数据库的长度会报错。

  1. Caused by: io.seata.core.exception.TmTransactionException: TransactionException[begin global request failed. xid=null, msg=Data truncation: Data too long for column 'transaction_service_group' at row 1]
  2. at io.seata.tm.DefaultTransactionManager.begin(DefaultTransactionManager.java:55)
  3. at io.seata.tm.api.DefaultGlobalTransaction.begin(DefaultGlobalTransaction.java:105)
  4. at io.seata.tm.api.TransactionalTemplate.beginTransaction(TransactionalTemplate.java:215)

什么是事务分组?见:

https://seata.io/zh-cn/docs/user/txgroup/transaction-group.html


修改数据存储模式为db模式,修改数据连接和账号密码

  1. store.mode=db
  2. store.db.url=jdbc:mysql://127.0.0.1:3307/seata?useUnicode=true&rewriteBatchedStatements=true
  3. store.db.user=root
  4. store.db.password=root


config.txt修改完成后,通过Git Bash将相应的配置导致到Nacos配置中心,命令如下(路径必须是/,不能是\):

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP

建议增加namespace的配置(-t参数,命名空间的id是在Nacos创建生成的),将Seata相应的配置放在一起,不然后面配置中心的东西很多,有整整9页,而且属性很多,很有可能和其它属性出现重复冲突

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP -t fb31c4c2-29ac-456c-b9d6-36301baceae4

如果Nacos设置和账号和密码,也可以设置

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP -t fb31c4c2-29ac-456c-b9d6-36301baceae4 -u username -w password

参数说明:

复制代码

  1. -h:主机,默认值为localhost。
  2. -p:端口,默认值为8848。
  3. -g:配置分组,默认值为“ SEATA_GROUP”。
  4. -t:租户信息,对应于Nacos的名称空间ID字段,默认值为空。
  5. -u:用户名,权限控制在的nacos 1.2.0+,默认值为空。
  6. -w:密码,权限控制在的nacos 1.2.0+,默认值为空。

复制代码


config.txt文件脚本执行后,成功91,失败4个,但失败的不影响Seata运行。

  1. =========================================================================
  2. Complete initialization parameters, total-count:91 , failure-count:4
  3. =========================================================================
  4. init nacos config fail.

失败的4个是:

  1. Set store.publicKey= failure
  2. Set store.redis.sentinel.masterName= failure
  3. Set store.redis.sentinel.sentinelHosts= failure
  4. Set store.redis.password= failure


不导入config.txt文件,项目加入Seata依赖和配置启动后,会出现下面的错误:can not get cluster name in registry config,详细如下:

SPRING-CLOUD-NACOS-SERVICE服务提供者:

复制代码

  1. 2021-05-10 09:27:18.719 ERROR 13544 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-SERVICE_tx_group', please make sure registry config correct
  2. 2021-05-10 09:27:18.753 ERROR 13544 --- [eoutChecker_2_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-SERVICE_tx_group', please make sure registry config correct

复制代码

SPRING-CLOUD-NACOS-CONSUMER服务消费者:

复制代码

  1. 2021-05-10 09:27:33.786 ERROR [SPRING-CLOUD-NACOS-CONSUMER,,,] 14916 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-CONSUMER_tx_group', please make sure registry config correct
  2. 2021-05-10 09:27:33.820 ERROR [SPRING-CLOUD-NACOS-CONSUMER,,,] 14916 --- [eoutChecker_2_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-CONSUMER_tx_group', please make sure registry config correct

复制代码


如果没有什么问题,项目启动后的信息则是register TM success,register success,:

  1. 2021-05-10 10:12:20.315 INFO 2120 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : will connect to 192.168.170.1:8091
  2. 2021-05-10 10:12:20.319 INFO 2120 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : NettyPool create channel to transactionRole:TMROLE,address:192.168.170.1:8091,msg:< RegisterTMRequest{applicationId='SPRING-CLOUD-NACOS-SERVICE', transactionServiceGroup='nacos_service_tx_group'} >
  3. 2021-05-10 10:12:20.338 INFO 2120 --- [eoutChecker_1_1] i.s.c.rpc.netty.TmNettyRemotingClient : register TM success. client version:1.4.2, server version:1.4.2,channel:[id: 0x0e398621, L:/192.168.170.1:55953 - R:/192.168.170.1:8091]
  4. 2021-05-10 10:12:20.338 INFO 2120 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : register success, cost 7 ms, version:1.4.2,role:TMROLE,channel:[id: 0x0e398621, L:/192.168.170.1:55953 - R:/192.168.170.1:8091]
  5. 2021-05-10 10:12:35.467 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : will connect to 192.168.170.1:8091
  6. 2021-05-10 10:12:35.468 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : NettyPool create channel to transactionRole:TMROLE,address:192.168.170.1:8091,msg:< RegisterTMRequest{applicationId='SPRING-CLOUD-NACOS-CONSUMER', transactionServiceGroup='nacos_consumer_tx_group'} >
  7. 2021-05-10 10:12:35.474 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.c.rpc.netty.TmNettyRemotingClient : register TM success. client version:1.4.2, server version:1.4.2,channel:[id: 0xe9bfdcf1, L:/192.168.170.1:55954 - R:/192.168.170.1:8091]
  8. 2021-05-10 10:12:35.474 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : register success, cost 4 ms, version:1.4.2,role:TMROLE,channel:[id: 0xe9bfdcf1, L:/192.168.170.1:55954 - R:/192.168.170.1:8091]


Seata事务回滚:Rollback global transaction successfully,

  1. 10:13:07.415 INFO --- [rverHandlerThread_1_3_500] i.s.s.coordinator.DefaultCoordinator : Begin new global transaction applicationId: SPRING-CLOUD-NACOS-CONSUMER,transactionServiceGroup: nacos_consumer_tx_group, transactionName: saveClazzAndStudentError(),timeout:60000,xid:192.168.170.1:8091:4936076990459990017
  2. 10:13:14.398 INFO --- [ batchLoggerPrint_1_1] i.s.c.r.p.server.BatchLogHandler : xid=192.168.170.1:8091:4936076990459990017,extraData=null,clientIp:192.168.170.1,vgroup:nacos_consumer_tx_group
  3. 10:13:14.873 INFO --- [rverHandlerThread_1_4_500] io.seata.server.coordinator.DefaultCore : Rollback global transaction successfully, xid = 192.168.170.1:8091:4936076990459990017.


三、Seata Client 端安装和配置

1、项目说明
客户端有2个项目:
springCloud-8802-nacos-provider:服务提供者
springCloud-8805-nacos-web:服务消费者

springCloud-8805-nacos-web会去调用springCloud-8802-nacos-provider,用于测试分布式事务。
springCloud-8802-nacos-provider连接数据库:seata-biz-1
springCloud-8805-nacos-web连接数据库:seata-biz-2


2、Seata Client 端的两个数据库分别执行回滚日志的Sql脚本:undo_log

只需要在客户端的数据库添加表(注意:每个客户端的数据库都要增加,此处为:seata-biz-1和seata-biz-2),Seata服务端的数据是不需要的

脚本在源码包,目录是:

seata-1.4.2\script\client\at\db

mysql.sql脚本如下:

  1. -- for AT mode you must to init this sql for you business database. the seata server not need it.
  2. CREATE TABLE IF NOT EXISTS `undo_log`
  3. (
  4. `branch_id` BIGINT NOT NULL COMMENT 'branch transaction id',
  5. `xid` VARCHAR(128) NOT NULL COMMENT 'global transaction id',
  6. `context` VARCHAR(128) NOT NULL COMMENT 'undo_log context,such as serialization',
  7. `rollback_info` LONGBLOB NOT NULL COMMENT 'rollback info',
  8. `log_status` INT(11) NOT NULL COMMENT '0:normal status,1:defense status',
  9. `log_created` DATETIME(6) NOT NULL COMMENT 'create datetime',
  10. `log_modified` DATETIME(6) NOT NULL COMMENT 'modify datetime',
  11. UNIQUE KEY `ux_undo_log` (`xid`, `branch_id`)
  12. ) ENGINE = InnoDB
  13. AUTO_INCREMENT = 1
  14. DEFAULT CHARSET = utf8 COMMENT ='AT transaction mode undo table';

3、项目添加seata依赖

Seata依赖说明(建议单选)
依赖seata-all
依赖seata-spring-boot-starter,支持yml、properties配置(.conf可删除),内部已依赖seata-all
依赖spring-cloud-alibaba-seata,内部集成了seata,并实现了xid传递

以spring-cloud-alibaba-seata为例:

  1. <properties>
  2. <seata.version>1.4.2</seata.version>
  3. </properties>
  4. <dependency>
  5. <groupId>io.seata</groupId>
  6. <artifactId>seata-spring-boot-starter</artifactId>
  7. <version>${seata.version}</version>
  8. </dependency>
  9. <!-- <version>2.2.5.RELEASE</version> -->
  10. <dependency>
  11. <groupId>com.alibaba.cloud</groupId>
  12. <artifactId>spring-cloud-starter-alibaba-seata</artifactId>
  13. <exclusions>
  14. <exclusion>
  15. <groupId>io.seata</groupId>
  16. <artifactId>seata-spring-boot-starter</artifactId>
  17. </exclusion>
  18. </exclusions>
  19. </dependency>

4、application.properties增加Seata的配置

springCloud-8802-nacos-provider项目:

配置:seata.tx-service-group,和Git 执行脚本生成的Nacos配置的事务分组要保持一致。

配置:seata.config.nacos.namespace,服务注册的命名空间。

  1. #更多配置项见:https://seata.io/zh-cn/docs/user/configurations.html
  2. #是否开启spring-boot自动装配。true、false,(SSBS)专有配置,默认true
  3. #seata.enabled=true
  4. #是否开启数据源自动代理。 true、false,seata-spring-boot-starter(SSBS)专有配置,SSBS默认会开启数据源自动代理,可通过该配置项关闭.
  5. #seata.enableAutoDataSourceProxy=true
  6. #是否使用JDK代理作为数据源自动代理的实现方式。true、false,(SSBS)专有配置,默认false,采用CGLIB作为数据源自动代理的实
  7. #seata.useJdkProxy=false
  8. #一阶段全局提交结果上报TC重试次数,默认1次,建议大于1
  9. seata.client.tm.commitRetryCount=3
  10. #一阶段全局回滚结果上报TC重试次数。 默认1次,建议大于1
  11. seata.client.tm.rollbackRetryCount=3
  12. #undo序列化方式 默认jackson
  13. #seata.client.undo.logSerialization
  14. #自定义undo表名 默认undo_log
  15. #seata.client.undo.logTable
  16. #类文件:io.seata.spring.boot.autoconfigure.properties.SeataProperties
  17. seata.application-id=${spring.application.name}
  18. seata.tx-service-group=nacos_service_tx_group
  19. seata.config.type=nacos
  20. seata.config.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
  21. seata.config.nacos.server-addr=127.0.0.1:8848
  22. seata.config.nacos.group=SEATA_GROUP
  23. #seata.config.nacos.username=
  24. #seata.config.nacos.password=
  25. seata.registry.type=nacos
  26. seata.registry.nacos.application=seata-server
  27. seata.registry.nacos.server-addr=127.0.0.1:8848
  28. seata.registry.nacos.group=SEATA_GROUP
  29. seata.registry.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
  30. #seata.registry.nacos.username=
  31. #seata.registry.nacos.password=

springCloud-8805-nacos-web项目:

注意配置项:seata.tx-service-group=nacos_consumer_tx_group

  1. #更多配置项见:https://seata.io/zh-cn/docs/user/configurations.html
  2. #是否开启spring-boot自动装配。true、false,(SSBS)专有配置,默认true
  3. #seata.enabled=true
  4. #是否开启数据源自动代理。 true、false,seata-spring-boot-starter(SSBS)专有配置,SSBS默认会开启数据源自动代理,可通过该配置项关闭.
  5. #seata.enableAutoDataSourceProxy=true
  6. #是否使用JDK代理作为数据源自动代理的实现方式。true、false,(SSBS)专有配置,默认false,采用CGLIB作为数据源自动代理的实
  7. #seata.useJdkProxy=false
  8. #一阶段全局提交结果上报TC重试次数,默认1次,建议大于1
  9. seata.client.tm.commitRetryCount=3
  10. #一阶段全局回滚结果上报TC重试次数。 默认1次,建议大于1
  11. seata.client.tm.rollbackRetryCount=3
  12. #undo序列化方式 默认jackson
  13. #seata.client.undo.logSerialization
  14. #自定义undo表名 默认undo_log
  15. #seata.client.undo.logTable
  16. #io.seata.spring.boot.autoconfigure.properties.SeataProperties
  17. seata.application-id=${spring.application.name}
  18. seata.tx-service-group=nacos_consumer_tx_group
  19. seata.config.type=nacos
  20. seata.config.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
  21. seata.config.nacos.server-addr=127.0.0.1:8848
  22. seata.config.nacos.group=SEATA_GROUP
  23. #seata.config.nacos.username=
  24. #seata.config.nacos.password=
  25. seata.registry.type=nacos
  26. seata.registry.nacos.application=seata-server
  27. seata.registry.nacos.server-addr=127.0.0.1:8848
  28. seata.registry.nacos.group=SEATA_GROUP
  29. seata.registry.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
  30. #seata.registry.nacos.username=
  31. #seata.registry.nacos.password=

springCloud-8802-nacos-provider项目和springCloud-8805-nacos-web项目的Seata配置的区别是:seata.tx-service-group不同,即事务分组不同。

5、springCloud-8805-nacos-web项目的服务请求(Service)增加@GlobalTransactional全局事务。

  1. @Transactional
  2. @Override
  3. public Clazz save() {
  4. Clazz clazz = new Clazz();
  5. clazz.setClazzName("班级:" + RandomUtil.randomString(5));
  6. this.baseMapper.insert(clazz);
  7. return clazz;
  8. }
  9. @Transactional
  10. @Override
  11. public void saveClassAndStudent() {
  12. Clazz clazz = this.save();
  13. Result resultStudent= restTemplate.getForObject("http://" + myNacosServiceName + "/student/save", Result.class);
  14. log.info("clazz=" + JsonUtil.toJson(clazz));
  15. log.info("resultStudent=" + JsonUtil.toJson(resultStudent));
  16. }
  17. /**
  18. * 这里作为一个服务发起端,加@GlobalTransactional,启动全局事务
  19. * 这里不能加@Transactional,不然受到本地事务管理,导致Seata产生的日志受到本地事务管理,打断点看不到。
  20. */
  21. @GlobalTransactional(rollbackFor = Throwable.class)
  22. @Override
  23. public void saveClazzAndStudentError() {
  24. //本地事务的方法
  25. Clazz clazz = this.save();
  26. //调用服务提供者的方法
  27. Result resultStudent= restTemplate.getForObject("http://" + myNacosServiceName + "/student/saveError", Result.class);
  28. log.info("clazz=" + JsonUtil.toJson(clazz));
  29. log.info("resultStudent=" + JsonUtil.toJson(resultStudent));
  30. }

springCloud-8802-nacos-provider项目

  1. @Transactional
  2. @Override
  3. public Student save() {
  4. Student s = new Student();
  5. s.setStuName("学生:" + RandomUtil.randomString(5));
  6. s.setStuNo(UidUtil.getUid());
  7. this.baseMapper.insert(s);
  8. return s;
  9. }
  10. @Transactional
  11. @Override
  12. public Student saveError() {
  13. Student s = new Student();
  14. s.setStuName("学生:" + RandomUtil.randomString(5));
  15. s.setStuNo(UidUtil.getUid());
  16. this.baseMapper.insert(s);
  17. int a = 0;
  18. System.out.println(3/a);
  19. return s;
  20. }

然后进行Seata分布式事务测试,包括成功和不成功(回滚)。


Seata分布式事务的配置和使用,到此已经完结。

后面的是扩展,有兴趣可继续往下看。

四、Seata分布式事务其它项说明


1、数据源代理(不支持自动和手动配置并存,不支持XA数据源自动代理)

0.9.0版本开始seata支持自动代理数据源

1.1.0: seata-all取消属性配置,改由注解@EnableAutoDataSourceProxy开启,并可选择jdk proxy或者cglib proxy
1.0.0: client.support.spring.datasource.autoproxy=true
0.9.0: support.spring.datasource.autoproxy=true


手动配置可参考下方的例子

复制代码

  1. @Primary
  2. @Bean("dataSource")
  3. public DataSourceProxy dataSource(DataSource druidDataSource) {
  4. //AT 代理 二选一
  5. return new DataSourceProxy(druidDataSource);
  6. //XA 代理
  7. return new DataSourceProxyXA(druidDataSource)
  8. }

复制代码

2、初始化GlobalTransactionScanner


手动方式:

复制代码

  1. @Bean
  2. public GlobalTransactionScanner globalTransactionScanner() {
  3. String applicationName = this.applicationContext.getEnvironment().getProperty("spring.application.name");
  4. String txServiceGroup = this.seataProperties.getTxServiceGroup();
  5. if (StringUtils.isEmpty(txServiceGroup)) {
  6. txServiceGroup = applicationName + "-fescar-service-group";
  7. this.seataProperties.setTxServiceGroup(txServiceGroup);
  8. }
  9. return new GlobalTransactionScanner(applicationName, txServiceGroup);
  10. }

复制代码

自动方式:

引入seata-spring-boot-starter、spring-cloud-starter-alibaba-seata等jar

3、实现xid跨服务传递
手动 参考源码integration文件夹下的各种rpc实现 module
自动 springCloud用户可以引入spring-cloud-starter-alibaba-seata,内部已经实现xid传递


五、Seata事务分组
官网说明:

https://seata.io/zh-cn/docs/user/txgroup/transaction-group-and-ha.html

事务分组是什么?
事务分组是seata的资源逻辑,类似于服务实例。在file.conf中的my_test_tx_group就是一个事务分组。

通过事务分组如何找到后端集群?
首先程序中配置了事务分组(GlobalTransactionScanner 构造方法的txServiceGroup参数)
程序会通过用户配置的配置中心去寻找service.vgroupMapping .[事务分组配置项],取得配置项的值就是TC集群的名称
拿到集群名称程序通过一定的前后缀+集群名称去构造服务名,各配置中心的服务名实现不同
拿到服务名去相应的注册中心去拉取相应服务名的服务列表,获得后端真实的TC服务列表

为什么这么设计,不直接取服务名?
这里多了一层获取事务分组到映射集群的配置。这样设计后,事务分组可以作为资源的逻辑隔离单位,出现某集群故障时可以快速failover,只切换对应分组,可以把故障缩减到服务级别,但前提也是你有足够server集群。


最佳实践1:TC的异地多机房容灾


假定TC集群部署在两个机房:guangzhou机房(主)和shanghai机房(备)各两个实例
一整套微服务架构项目:projectA
projectA内有微服务:serviceA、serviceB、serviceC 和 serviceD
其中,projectA所有微服务的事务分组tx-transaction-group设置为:projectA,projectA正常情况下使用guangzhou的TC集群(主)

那么正常情况下,client端的配置如下所示:
seata.tx-service-group=projectA
seata.service.vgroup-mapping.projectA=Guangzhou

假如此时guangzhou集群分组整个down掉,或者因为网络原因projectA暂时无法与Guangzhou机房通讯,那么我们将配置中心中的Guangzhou集群分组改为Shanghai,如下:
seata.service.vgroup-mapping.projectA=Shanghai

并推送到各个微服务,便完成了对整个projectA项目的TC集群动态切换。

最佳实践2:单一环境多应用接入


假设现在开发环境(或预发/生产)中存在一整套seata集群
seata集群要服务于不同的微服务架构项目projectA、projectB、projectC
projectA、projectB、projectC之间相对独立
我们将seata集群中的六个实例两两分组,使其分别服务于projectA、projectB与projectC,那么此时seata-server端的配置如下(以nacos注册中心为例)

最佳实践3:client的精细化控制


假定现在存在seata集群,Guangzhou机房实例运行在性能较高的机器上,Shanghai集群运行在性能较差的机器上
现存微服务架构项目projectA、projectA中有微服务ServiceA、ServiceB、ServiceC与ServiceD
其中ServiceD的流量较小,其余微服务流量较大
那么此时,我们可以将ServiceD微服务引流到Shanghai集群中去,将高性能的服务器让给其余流量较大的微服务(反之亦然,若存在某一个微服务流量特别大,我们也可以单独为此微服务开辟一个更高性能的集群,并将该client的virtual group指向该集群,其最终目的都是保证在流量洪峰时服务的可用)

六、Seata配置中心


什么是配置中心?配置中心可以说是一个"大衣柜",内部放置着各种配置文件,你可以通过自己所需进行获取配置加载到对应的客户端.比如Seata Client端(TM,RM),Seata Server(TC),会去读取全局事务开关,事务会话存储模式等信息.
Seata的配置中心与Spring cloud的配置中心区别是?在广义上来说,并无区别,只不过Spring cloud的配置中心仅是作用于它们自身的组件,而Seata的配置中心也是一样是作用于Seata自身.(注:Spring cloud的配置中心与Seata无关)
Seata支持哪些配置中心?
consul
apollo
etcd
zookeeper
redis
file (读本地文件)

七、Seata注册中心


什么是注册中心?注册中心可以说是微服务架构中的”通讯录“,它记录了服务和服务地址的映射关系。在分布式架构中,服务会注册到这里,当服务需要调用其它服务时,就到这里找到服务的地址,进行调用.比如Seata Client端(TM,RM),发现Seata Server(TC)集群的地址,彼此通信.
Seata的注册中心与Dubbo,Spring cloud的注册中心区别是?在广义上来说,并无区别,只不过Dubbo与Spring cloud的注册中心仅是作用于它们自身的组件,而Seata的注册中心也是一样是作用于Seata自身.(注:Dubbo与Spring cloud的注册中心与Seata无关)
Seata支持哪些注册中心?
eureka
consul
apollo
etcd
zookeeper
sofa
redis
file (直连)

八、Seata微服务框架支持


1、Seata事务上下文

Seata 的事务上下文由 RootContext 来管理。
应用开启一个全局事务后,RootContext 会自动绑定该事务的 XID,事务结束(提交或回滚完成),RootContext 会自动解绑 XID。

复制代码

  1. // 绑定 XID
  2. RootContext.bind(xid);
  3. // 解绑 XID
  4. String xid = RootContext.unbind();
  5. 应用可以通过 RootContext 的 API 接口来获取当前运行时的全局事务 XID。
  6. // 获取 XID
  7. String xid = RootContext.getXID();
  8. 应用是否运行在一个全局事务的上下文中,就是通过 RootContext 是否绑定 XID 来判定的。
  9. public static boolean inGlobalTransaction() {
  10. return CONTEXT_HOLDER.get(KEY_XID) != null;
  11. }

复制代码


2、Seata事务传播
Seata 全局事务的传播机制就是指事务上下文的传播,根本上,就是 XID 的应用运行时的传播方式。

1. 服务内部的事务传播

默认的,RootContext 的实现是基于 ThreadLocal 的,即 XID 绑定在当前线程上下文中。

所以服务内部的 XID 传播通常是天然的通过同一个线程的调用链路串连起来的。默认不做任何处理,事务的上下文就是传播下去的。

如果希望挂起事务上下文,则需要通过 RootContext 提供的 API 来实现:

复制代码

  1. // 挂起(暂停)
  2. String xid = RootContext.unbind();
  3. // TODO: 运行在全局事务外的业务逻辑
  4. // 恢复全局事务上下文
  5. RootContext.bind(xid);

复制代码

2. 跨服务调用的事务传播

通过上述基本原理,我们可以很容易理解:

跨服务调用场景下的事务传播,本质上就是要把 XID 通过服务调用传递到服务提供方,并绑定到 RootContext 中去。

只要能做到这点,理论上 Seata 可以支持任意的微服务框架

九、Seata各种模式比较


1、Seata AT 模式:https://seata.io/zh-cn/docs/dev/mode/at-mode.html

前提
基于支持本地 ACID 事务的关系型数据库。
Java 应用,通过 JDBC 访问数据库。

整体机制
两阶段提交协议的演变:

一阶段:业务数据和回滚日志记录在同一个本地事务中提交,释放本地锁和连接资源。

二阶段:

提交异步化,非常快速地完成。
回滚通过一阶段的回滚日志进行反向补偿。


2、Seata TCC 模式(https://seata.io/zh-cn/docs/dev/mode/tcc-mode.html)

回顾总览中的描述:一个分布式的全局事务,整体是 两阶段提交 的模型。全局事务是由若干分支事务组成的,分支事务要满足 两阶段提交 的模型要求,即需要每个分支事务都具备自己的:

一阶段 prepare 行为
二阶段 commit 或 rollback 行为

根据两阶段行为模式的不同,我们将分支事务划分为 Automatic (Branch) Transaction Mode 和 TCC (Branch) Transaction Mode.

AT 模式(参考链接 TBD)基于 支持本地 ACID 事务 的 关系型数据库:
一阶段 prepare 行为:在本地事务中,一并提交业务数据更新和相应回滚日志记录。
二阶段 commit 行为:马上成功结束,自动 异步批量清理回滚日志。
二阶段 rollback 行为:通过回滚日志,自动 生成补偿操作,完成数据回滚。

相应的,TCC 模式,不依赖于底层数据资源的事务支持:
一阶段 prepare 行为:调用 自定义 的 prepare 逻辑。
二阶段 commit 行为:调用 自定义 的 commit 逻辑。
二阶段 rollback 行为:调用 自定义 的 rollback 逻辑。
所谓 TCC 模式,是指支持把 自定义 的分支事务纳入到全局事务的管理中。


3、SEATA Saga 模式(https://seata.io/zh-cn/docs/user/saga.html)


概述
Saga模式是SEATA提供的长事务解决方案,在Saga模式中,业务流程中每个参与者都提交本地事务,当出现某一个参与者失败则补偿前面已经成功的参与者,一阶段正向服务和二阶段补偿服务都由业务开发实现。

 

 

适用场景:
业务流程长、业务流程多
参与者包含其它公司或遗留系统服务,无法提供 TCC 模式要求的三个接口

优势:
一阶段提交本地事务,无锁,高性能
事件驱动架构,参与者可异步执行,高吞吐
补偿服务易于实现

缺点:
不保证隔离性(应对方案见后面文档)


4、Seata XA 模式(https://seata.io/zh-cn/docs/dev/mode/xa-mode.html)

前提
支持XA 事务的数据库。
Java 应用,通过 JDBC 访问数据库。

 

整体机制
在 Seata 定义的分布式事务框架内,利用事务资源(数据库、消息服务等)对 XA 协议的支持,以 XA 协议的机制来管理分支事务的一种 事务模式。

十、Seata1.4.2问题踩坑

1、Seata branch_table无事务数据、Seata  lock_table 无事务数据、Seata  undo_log无数据、Seata  undo_log无回滚日志、seata1.4 @Transactional冲突 

在测试过程中,发现Seata  branch_table、lock_table 、undo_log无数据,只有global_table有数据,但Seata 事务能正常提交、回滚。

但为什么没数据呢?

最开始是@GlobalTransactional和@Transactional两个注解一起使用,虽然Seata事务能正常提交和回滚,但后面发现Seata  undo_log无数据,只有global_table有一条数据,其它表也没有数据

  1. @GlobalTransactional(rollbackFor = Throwable.class)
  2. @Transactional
  3. @Override
  4. public void saveClazzAndStudentError() {
  5. Clazz clazz = this.save();
  6. Result resultStudent= restTemplate.getForObject("http://" + myNacosServiceName + "/student/saveError", Result.class);
  7. log.info("clazz=" + JsonUtil.toJson(clazz));
  8. log.info("resultStudent=" + JsonUtil.toJson(resultStudent));
  9. }

原因竟然是:seata的@GlobalTransactional和@Transactional冲突 

后面所有项目的所有方法都改成只使用@GlobalTransactional时,所有表都有数据了,而且Seata事务也能正常提交和回滚。暂时不知道是什么原因导致的。

@GlobalTransactional(rollbackFor = Throwable.class)

十一、注意事项

 官网注意事项:

http://seata.io/zh-cn/docs/overview/faq.html

1、使用 AT 模式需要的注意事项有哪些 ?

  1. 必须使用代理数据源,有 3 种形式可以代理数据源:
  • 依赖 seata-spring-boot-starter 时,自动代理数据源,无需额外处理。
  • 依赖 seata-all 时,使用 @EnableAutoDataSourceProxy (since 1.1.0) 注解,注解参数可选择 jdk 代理或者 cglib 代理。
  • 依赖 seata-all 时,也可以手动使用 DatasourceProxy 来包装 DataSource。
  1. 配置 GlobalTransactionScanner,使用 seata-all 时需要手动配置,使用 seata-spring-boot-starter 时无需额外处理。
  2. 业务表中必须包含单列主键,若存在复合主键,请参考问题 13 。
  3. 每个业务库中必须包含 undo_log 表,若与分库分表组件联用,分库不分表。
  4. 跨微服务链路的事务需要对相应 RPC 框架支持,目前 seata-all 中已经支持:Apache Dubbo、Alibaba Dubbo、sofa-RPC、Motan、gRpc、httpClient,对于 Spring Cloud 的支持,请大家引用 spring-cloud-alibaba-seata。其他自研框架、异步模型、消息消费事务模型请结合 API 自行支持。
  5. 目前AT模式支持的数据库有:MySQL、Oracle、PostgreSQL和 TiDB。
  6. 使用注解开启分布式事务时,若默认服务 provider 端加入 consumer 端的事务,provider 可不标注注解。但是,provider 同样需要相应的依赖和配置,仅可省略注解。
  7. 使用注解开启分布式事务时,若要求事务回滚,必须将异常抛出到事务的发起方,被事务发起方的 @GlobalTransactional 注解感知到。provide 直接抛出异常 或 定义错误码由 consumer 判断再抛出异常。

2、AT 模式和 Spring @Transactional 注解连用时需要注意什么 ?

@Transactional 可与 DataSourceTransactionManager 和 JTATransactionManager 连用分别表示本地事务和XA分布式事务,大家常用的是与本地事务结合。当与本地事务结合时,@Transactional和@GlobalTransaction连用,@Transactional 只能位于标注在@GlobalTransaction的同一方法层次或者位于@GlobalTransaction 标注方法的内层。这里分布式事务的概念要大于本地事务,若将 @Transactional 标注在外层会导致分布式事务空提交,当@Transactional 对应的 connection 提交时会报全局事务正在提交或者全局事务的xid不存在。

3、怎么使用Seata框架,来保证事务的隔离性?

A: 因seata一阶段本地事务已提交,为防止其他事务脏读脏写需要加强隔离。

    1. 脏读 select语句加for update,代理方法增加@GlobalLock+@Transactional或@GlobalTransaction
    2. 脏写 必须使用@GlobalTransaction
      注:如果你查询的业务的接口没有GlobalTransactional 包裹,也就是这个方法上压根没有分布式事务的需求,这时你可以在方法上标注@GlobalLock+@Transactional 注解,并且在查询语句上加 for update。 如果你查询的接口在事务链路上外层有GlobalTransactional注解,那么你查询的语句只要加for update就行。设计这个注解的原因是在没有这个注解之前,需要查询分布式事务读已提交的数据,但业务本身不需要分布式事务。 若使用GlobalTransactional注解就会增加一些没用的额外的rpc开销比如begin 返回xid,提交事务等。GlobalLock简化了rpc过程,使其做到更高的性能。

4、脏数据回滚失败如何处理?

A:

  1. 脏数据需手动处理,根据日志提示修正数据或者将对应undo删除(可自定义实现FailureHandler做邮件通知或其他)
  2. 关闭回滚时undo镜像校验,不推荐该方案。

5、是否可以不使用conf类型配置文件,直接将配置写入application.properties?

A: 目前seata-all是需要使用conf类型配置文件,后续会支持properties和yml类型文件。当前可以在项目中依赖seata-spring-boot-starter,然后将配置项写入到application .properties 这样可以不使用conf类型文件。

6、使用mybatis-plus 动态数据源组件后undolog无法删除 ?

A:

dynamic-datasource-spring-boot-starter 组件内部开启seata后会自动使用DataSourceProxy来包装DataSource,所以需要以下方式来保持兼容

1.如果你引入的是seata-all,请不要使用@EnableAutoDataSourceProxy注解.

2.如果你引入的是seata-spring-boot-starter 请关闭自动代理

  1. seata:
  2. enable-auto-data-source-proxy: false

(时间宝贵,分享不易,捐赠回馈,^_^)

================================

©Copyright 蕃薯耀 2021-05-10

https://blog.csdn.net/w995223851

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/1018679
推荐阅读
相关标签
  

闽ICP备14008679号