Flannel 同节点通信

一万年来谁著史,三千里外欲封侯。这篇文章主要讲述Flannel 同节点通信相关的知识,希望能为你提供帮助。
Flannel 简介??Flannel?? 是为 Kubernetes 设计的一种简单易行的配置三层网络结构的方法。


Flannel 是如何工作的
Flannel 在每个主机上运行一个小的、单一的二进制 agent,称为 flanneld,负责从一个更大的、预先配置的地址空间中为每个主机分配一个子网租约。Flannel使用 Kubernetes API 或 etcd 存储网络配置、分配的子网和任何辅助数据(如主机的公共IP)。数据包使用几种后端机制之一进行转发,包括VXLAN和各种云端集成。
网络细节
Flannel负责在集群中的多个节点之间提供一个3层IPv4网络。Flannel并不控制容器如何与主机联网,只控制流量如何在主机之间传输。然而,flannel确实为Kubernetes提供了一个CNI插件,以及与Docker集成的指导。Flannel 专注于网络。对于网络策略,可以使用其他项目,如 Calico。
安装部署
默认部署是 vxlan 模式,注意,如果集群默认的 CIDR 不是 10.244.0.0/16 请在配置文件中修改。

kubectl apply -f https://raw.githubusercontent.com/flannel-io/flannel/master/Documentation/kube-flannel.yml

【Flannel 同节点通信】多网卡配置请参考:??configuration??
--iface="": interface to use (IP or name) for inter-host communication. Defaults to the interface for the default route on the machine. This can be specified multiple times to check each option in order. Returns the first match found.

Flannel 多种模式细节
??backend??
比如,当所有的 Worker Node 都在同一个二层的,Flannel 更推荐用 HOST-GW 模式。 还有对数据包进行加密的 IPSec 模式和 WireGuard 模式 在部署之前,需要确定好需要部署的模式,更建议参考官方文档。
Flannel 故障排除
??troubleshooting??
包括配置日志记录、接口选择、多网卡、权限问题、防火墙配置等等
Flannel 同节点通信Flannel 同节点通信利用了 veth pair 对的形式,一端连接到 pod,一端连接到宿主机的网卡,同时作为宿主机 cni0 网卡的的接口,使得同节点的通信,直接是二层互通。 和 calico vxlan 不一样的是,pod 对应的网口并没有使用 proxy-arp 的特性,所以就和传统的二层交换,三层路由一样,理解起来更为简单。
集群环境
kubernetes v1.23.5
master 192.168.0.80
node1192.168.0.81
node2192.168.0.82

运行 pod
在集群中运行 pod ,查看在 node1 上的 pod
pod1 10.244.1.2
pod2 10.244.1.3

[root@master ]# kubectl create deployment cni-test --image=burlyluo/nettoolbox --replicas=3

[root@master ]# kubectl get pod -o wide
NAMEREADYSTATUSRESTARTSAGEIPNODENOMINATED NODEREADINESS GATES
cni-test-777bbd57c8-5zhjd1/1Running018s10.244.2.6node2.whale.com
cni-test-777bbd57c8-t6xhd1/1Running018s10.244.1.2node1.whale.com
cni-test-777bbd57c8-whwcm1/1Running018s10.244.1.3node1.whale.com

查看 pod1 内部网卡和 node1 对应网卡
[root@master ]# kubectl exec -it cni-test-777bbd57c8-t6xhd -- bash
bash-5.1# ifconfig
eth0Link encap:EthernetHWaddr 6A:6D:35:69:37:FE
inet addr:10.244.1.2Bcast:10.244.1.255Mask:255.255.255.0
UP BROADCAST RUNNING MULTICASTMTU:1450Metric:1
RX packets:14 errors:0 dropped:0 overruns:0 frame:0
TX packets:1 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1220 (1.1 KiB)TX bytes:42 (42.0 B)
bash-5.1# route -n
Kernel IP routing table
DestinationGatewayGenmaskFlags Metric RefUse Iface
0.0.0.010.244.1.10.0.0.0UG000 eth0
10.244.0.010.244.1.1255.255.0.0UG000 eth0
10.244.1.00.0.0.0255.255.255.0U000 eth0
bash-5.1# ethtool -S eth0
NIC statistics:
peer_ifindex: 6
rx_queue_0_xdp_packets: 0
rx_queue_0_xdp_bytes: 0
rx_queue_0_xdp_drops: 0

# node1 对应 pod1 网卡
[root@node1 ]# ip link show | grep ^6
6: veth9903a3d4@if3: mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default
[root@node1 ~]# ip -d link show veth9903a3d4
6: veth9903a3d4@if3: mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default
link/ether 2a:5e:4a:15:33:1c brd ff:ff:ff:ff:ff:ff link-netnsid 0 promiscuity 1
veth
bridge_slave state forwarding priority 32 cost 2 hairpin on guard off root_block off fastleave off learning on flood on port_id 0x8001 port_no 0x1 designated_port 32769 designated_cost 0 designated_bridge 8000.9a:50:49:2d:65:48 designated_root 8000.9a:50:49:2d:65:48 hold_timer0.00 message_age_timer0.00 forward_delay_timer0.00 topology_change_ack 0 config_pending 0 proxy_arp off proxy_arp_wifi off mcast_router 1 mcast_fast_leave off mcast_flood on addrgenmode eui64 numtxqueues 1 numrxqueues 1 gso_max_size 65536 gso_max_segs 65535

查看 pod2 内部网卡和 node1 对应网卡
[root@master ]# kubectl exec -it cni-test-777bbd57c8-whwcm -- bash
bash-5.1# ifconfig
eth0Link encap:EthernetHWaddr CA:BB:AF:BD:E5:3A
inet addr:10.244.1.3Bcast:10.244.1.255Mask:255.255.255.0
UP BROADCAST RUNNING MULTICASTMTU:1450Metric:1
RX packets:13 errors:0 dropped:0 overruns:0 frame:0
TX packets:1 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1178 (1.1 KiB)TX bytes:42 (42.0 B)
bash-5.1# route -n
Kernel IP routing table
DestinationGatewayGenmaskFlags Metric RefUse Iface
0.0.0.010.244.1.10.0.0.0UG000 eth0
10.244.0.010.244.1.1255.255.0.0UG000 eth0
10.244.1.00.0.0.0255.255.255.0U000 eth0
bash-5.1# ethtool -S eth0
NIC statistics:
peer_ifindex: 7
rx_queue_0_xdp_packets: 0
rx_queue_0_xdp_bytes: 0
rx_queue_0_xdp_drops: 0

# node1 对应 pod2 网卡
[root@node1 ]# ip -d link show vetha61ebf2f
7: vetha61ebf2f@if3: mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default
link/ether b6:c0:6c:fd:e6:e0 brd ff:ff:ff:ff:ff:ff link-netnsid 1 promiscuity 1
veth
bridge_slave state forwarding priority 32 cost 2 hairpin on guard off root_block off fastleave off learning on flood on port_id 0x8002 port_no 0x2 designated_port 32770 designated_cost 0 designated_bridge 8000.9a:50:49:2d:65:48 designated_root 8000.9a:50:49:2d:65:48 hold_timer0.00 message_age_timer0.00 forward_delay_timer0.00 topology_change_ack 0 config_pending 0 proxy_arp off proxy_arp_wifi off mcast_router 1 mcast_fast_leave off mcast_flood on addrgenmode eui64 numtxqueues 1 numrxqueues 1 gso_max_size 65536 gso_max_segs 65535

查看 node1 网卡
我们可以见到 pod 对应的 veth 网卡会有 master cni0 选项,这个意思是 cni0 的桥接网卡的接口。

通过查看 cni0 网卡接口信息,确定 pod 对端的 veth pair 网卡是在 cni0 上的接口

通过查看 node1 的路由,我们可以看到 10.244.1.0 指向了 cni0 网卡,所以可以确认,同节点的通信经过的都是 cni0 网桥,而两端的接口分别指向了两个 pod 的对端的 MAC 地址。
[root@node1 ]# route -n
Kernel IP routing table
DestinationGatewayGenmaskFlags Metric RefUse Iface
10.244.1.00.0.0.0255.255.255.0U000 cni0

[root@node1 ]# brctl show cni0
bridge namebridge idSTP enabledinterfaces
cni08000.9a50492d6548noveth9903a3d4
vetha61ebf2f
[root@node1 ~]# brctl showmacs cni0
port nomac addris local?ageing timer
12a:5e:4a:15:33:1cyes0.00
12a:5e:4a:15:33:1cyes0.00
2b6:c0:6c:fd:e6:e0yes0.00
2b6:c0:6c:fd:e6:e0yes0.00

同节点通信抓包演示针对同节点通信,我们通过抓包演示
针对 pod eth0 网卡以及对应 veth 网卡,还有 cni0 进行抓包

kubectl exec -it cni-test-777bbd57c8-t6xhd -- ping -c 1 10.244.1.3

pod1.cap
kubectl exec -it cni-test-777bbd57c8-t6xhd -- tcpdump -pne -i eth0 -w pod1.cap


pod1-veth.cap
tcpdump -pne -i veth9903a3d4 -w pod1-veth.cap


cni0.cap
tcpdump -pne -i cni0 -w cni0.cap


pod2-veth.cap
tcpdump -pne -i vetha61ebf2f -w pod2-veth.cap


pod2.cap
kubectl exec -it cni-test-777bbd57c8-whwcm -- tcpdump -pne -i eth0 -w pod2.cap




    推荐阅读