适用场景

支持系统
Debian 9.x or Ubuntu 16.x(低于此版本的系统需要更换Linux内核至4.9+,推荐4.20,此版本内置的BBR编译已优化。)

开启BBR

echo net.core.default_qdisc=fq >> /etc/sysctl.conf
echo net.ipv4.tcp_congestion_control=bbr >> /etc/sysctl.conf
sysctl -p

内核调整
配置文件位置:/etc/sysctl.d/local.conf或/etc/sysctl.conf

#切换至Google BBR拥塞控制算法
#如果内核版本高于4.15,可以考虑将default_qdisc改成fq_codel以获得更高的吞吐量,但在部分网络中会降低发包效率。
#建议根据实际网络场景进行测试,以选择更合适的算法。如果不确定,则使用BBR默认推荐的fq。
net.core.default_qdisc = fq
net.ipv4.tcp_congestion_control = bbr
#增大打开文件数限制
fs.file-max = 51200
#增大所有类型数据包的缓冲区大小(通用设置,其中default值会被下方具体类型包的设置覆盖)
#最大缓冲区大小为64M,初始大小64K。下同
#此大小适用于一般的使用场景。如果场景偏向于传输大数据包,则可以按倍数扩大该值,去匹配单个包大小
net.core.rmem_max = 67108864
net.core.wmem_max = 67108864
net.core.rmem_default = 65535
net.core.wmem_default = 65535
net.core.netdev_max_backlog = 65535
net.core.somaxconn = 4096
#增大TCP数据包的缓冲区大小,并优化连接保持
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_keepalive_time = 1200
net.ipv4.tcp_max_syn_backlog = 8192
net.ipv4.tcp_max_tw_buckets = 5000
net.ipv4.tcp_mem = 8192 131072 67108864
net.ipv4.tcp_rmem = 4096 65536 67108864
net.ipv4.tcp_wmem = 4096 65536 67108864
net.ipv4.tcp_mtu_probing = 1
net.ipv4.tcp_notsent_lowat = 16384
#增大UDP数据包的缓冲区大小
net.ipv4.udp_mem = 8192 131072 67108864
net.ipv4.udp_rmem_min = 4096
net.ipv4.udp_wmem_min = 4096
最后修改:2024 年 05 月 25 日
如果觉得我的文章对你有用,请随意赞赏