MySQL的参数很多,当出现问题时,往往就是某个参数在作祟,一方面说明MySQL的控制灵活,另一方面就要求熟知常用的参数作用,才能在出现问题的时候快速定位。
曾经写过一篇《小白学习MySQL - max_allowed_packet》的文章,其中介绍了MySQL的max_allowed_packet参数,最近碰巧看到爱可生开源社区推送了《技术分享 | MySQL:max_allowed_packet影响了什么?》,在此借鉴一下,有助于更系统地了解这个参数。
max_allowed_packet表示MySQL Server或者客户端接收packet的最大大小,packet即数据包,MySQL Server和客户端都有这个限制。
数据包
那怎样算一个数据包?
一个SQL是一个数据包 返回查询结果时,一行数据算一个数据包。 解析的binlog ,如果用MySQL客户端导入,一个SQL算一个数据包。 在复制中,一个event算一个数据包。
下面我们通过测试来讨论max_allowed_packet的实际影响。
导入SQL文件受max_allowed_packet限制么?
##导出时设置 mysqldump --net-buffer-length=16M,这样保证导出的sql文件中单个 multiple-row INSERT 大小为 16M
mysqldump -h127.0.0.1 -P13306 -uroot -proot --net-buffer-length=16M \
--set-gtid-purged=off sbtest sbtest1 > data/backup/sbtest1.sql
##设置max_allowed_packet=1M
##导入报错
[root@localhost data]# mysql -h127.0.0.1 -P13306 -uroot -proot db3 < data/backup/sbtest1.sql
mysql: [Warning] Using a password on the command line interface can be insecure.
ERROR 1153 (08S01) at line 41: Got a packet bigger than 'max_allowed_packet' bytes
导入解析后的binlog受max_allowed_packet限制么?
查询结果受max_allowed_packet限制么?
查询结果中,只要单行数据不超过客户端设置的max_allowed_packet即可,
##插入2行20M大小的数据
[root@localhost tmp]# dd if=/dev/zero of=20m.img bs=1 count=0 seek=20M
记录了0+0 的读入
记录了0+0 的写出
0字节(0 B)已复制,0.000219914 秒,0.0 kB/秒
[root@localhost tmp]# ll -h 20m.img
-rw-r--r-- 1 root root 20M 6月 6 15:15 20m.img
mysql> create table t1(id int auto_increment primary key,a longblob);
Query OK, 0 rows affected (0.03 sec)
mysql> insert into t1 values(NULL,load_file('/tmp/20m.img'));
Query OK, 1 row affected (0.65 sec)
mysql> insert into t1 values(NULL,load_file('/tmp/20m.img'));
Query OK, 1 row affected (0.65 sec)
##mysql客户端默认 --max-allowed-packet=16M,读取失败
mysql> select * from t1;
ERROR 2020 (HY000): Got packet bigger than 'max_allowed_packet' bytes
##设置 mysql 客户端 --max-allowed-packet=22M,读取成功
[root@localhost ~]# mysql -h127.0.0.1 -P13306 -uroot -proot --max-allowed-packet=23068672 sbtest -e "select * from t1;" > tmp/t1.txt
[root@localhost ~]# ll -h tmp/t1.txt
-rw-r--r-- 1 root root 81M 6月 6 15:30 tmp/t1.txt
load data文件大小受max_allowed_packet限制么?
load data文件大小、单行大小都不受max_allowed_packet影响,
##将上一个测试中的数据导出,2行数据一共81M
mysql> select * into outfile '/tmp/t1.csv' from t1;
Query OK, 2 rows affected (0.57 sec)
[root@localhost ~]# ll -h tmp/t1.csv
-rw-r----- 1 mysql mysql 81M 6月 6 15:32 tmp/t1.csv
##MySQL Server max_allowed_packet=16M
mysql> select @@max_allowed_packet;
+----------------------+
| @@max_allowed_packet |
+----------------------+
| 16777216 |
+----------------------+
1 row in set (0.00 sec)
##load data 成功,不受 max_allowed_packet 限制
mysql> load data infile '/tmp/t1.csv' into table t1;
Query OK, 2 rows affected (1.10 sec)
Records: 2 Deleted: 0 Skipped: 0 Warnings: 0
binlog中超过1G的SQL,是如何突破max_allowed_packet复制到从库的?
从库slave io线程、slave sql线程可以处理的最大数据包大小由参数slave_max_allowed_packet控制。这是限制binlog event大小,而不是单个SQL修改数据的大小。
另外超过4G的大事务,从库心跳会报错,
https://opensource.actionsky.com/20201218-mysql/
如果您认为这篇文章有些帮助,还请不吝点下文章末尾的"点赞"和"在看",或者直接转发pyq,

近期更新的文章:
近期的热文:
文章分类和索引:
文章转载自bisal的个人杂货铺,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。




