首选答案是kubernetes,其为容器化应用部署和管理的事实标准,尽管初期复杂,但效率和稳定性优势显著。搭建基于kubeadm的kubernetes集群流程如下:1. 系统环境准备:选择ubuntu server或centos stream的lts版本,禁用swap,配置内核参数启用ipv4转发和br_netfilter模块,关闭防火墙和selinux,设置主机名和hosts文件;2. 安装容器运行时containerd:安装必要工具,添加docker官方gpg密钥和仓库,安装containerd并配置systemdcgroup为true;3. 安装kubeadm、kubelet和kubectl:添加kubernetes官方gpg密钥和仓库,安装并锁定版本;4. 初始化master节点:提前拉取镜像,使用kubeadm init初始化集群,配置kubectl,安装flannel或calico网络插件;5. 加入worker节点:执行kubeadm join命令;6. 验证集群状态:运行kubectl get nodes和kubectl get pods -a确认节点和核心pod状态。常见挑战包括网络配置复杂性、资源消耗与规划、版本兼容性、镜像拉取问题、存储方案选型、证书和token管理。容器运行时的选择影响性能、资源利用率和安全性,containerd轻量高效,cri-o适用于特定生态;网络插件flannel适合简单场景,calico适合生产环境,cilium提供高性能和高级功能。确保高可用性和可维护性的措施包括多master节点、etcd集群健壮性、worker节点冗余、存储和网络高可用,全面监控与告警、日志管理、备份与恢复策略、版本升级策略、自动化部署与管理、安全加固及文档和runbook维护。
在Linux上搭建容器编排环境,我的首选答案是Kubernetes。它几乎是当前容器化应用部署和管理的事实标准,虽然初次接触会觉得有些复杂,但一旦掌握,你会发现它带来的效率和稳定性是其他方案难以比拟的。整个过程涉及到系统准备、组件安装、集群初始化和网络配置等多个环节,一步步来,其实并没有想象中那么遥不可及。
要搭建一个基于kubeadm的Kubernetes集群,以下是我个人推荐的一个相对稳妥的流程,兼顾了通用性和一些细节考量。
1. 系统环境准备: 这是基础中的基础,如果这一步没做好,后面遇到的问题会让你抓狂。
操作系统选择: 我通常选择Ubuntu Server(LTS版本,比如20.04或22.04)或者CentOS Stream。它们社区活跃,文档丰富。
禁用Swap: Kubernetes对Swap非常敏感,必须禁用。
sudo swapoff -a # 永久禁用,编辑 /etc/fstab,在Swap行前面加 # 注释掉 sudo sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
配置内核参数: 启用IPv4转发和br_netfilter模块,这是CNI插件工作的前提。
cat <= 1 EOF sudo sysctl --system
关闭防火墙和SELinux: 虽然生产环境建议配置防火墙规则和SELinux策略,但为了初次部署的顺利,我通常会先关闭它们,等集群跑起来再逐步加固。
# 关闭防火墙 (以ufw为例,CentOS是firewalld) sudo ufw disable # 或者对于CentOS/RHEL sudo systemctl stop firewalld sudo systemctl disable firewalld # 关闭SELinux (CentOS/RHEL) sudo setenforce 0 sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
设置主机名和hosts文件: 确保每台机器的主机名唯一,并且在
/etc/hosts中添加所有节点的IP和主机名映射,这对于集群内部通信和DNS解析很重要。
2. 安装容器运行时 (Containerd): Kubernetes 1.24+版本已经移除了对Docker Shim的支持,推荐使用containerd或CRI-O。我个人更倾向于containerd,因为它轻量且稳定。
sudo apt update && sudo apt install -y apt-transport-https ca-certificates curl gnupg lsb-release
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt update sudo apt install -y containerd.io
SystemdCgroup = true,这是kubelet的要求。
sudo mkdir -p /etc/containerd sudo containerd config default | sudo tee /etc/containerd/config.toml sudo sed -i 's/SystemdCgroup = false/SystemdCgroup = true/' /etc/containerd/config.toml sudo systemctl restart containerd sudo systemctl enable containerd
3. 安装kubeadm、kubelet和kubectl: 这三个是Kubernetes的核心工具集。
sudo curl -fsSLo /usr/share/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
sudo apt update sudo apt install -y kubelet=1.26.0-00 kubeadm=1.26.0-00 kubectl=1.26.0-00 sudo apt-mark hold kubelet kubeadm kubectl
apt-mark hold是为了防止它们被意外升级。
4. 初始化Master节点: 在作为Master的机器上执行。
kubeadm init时因网络问题卡住。
sudo kubeadm config images pull
pod-network-cidr参数非常重要,它定义了Pod网络的IP段,后续安装CNI插件时需要用到。我通常用
10.244.0.0/16,这是Flannel的默认CIDR。
sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=
替换
为你的Master节点实际IP地址。
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
kubectl apply -f https://raw.githubusercontent.com/flannel-io/flannel/master/Documentation/kube-flannel.yml
如果你需要更高级的网络策略或性能,可以考虑Calico。
5. 加入Worker节点: 在每个Worker节点上执行,
kubeadm init成功后会输出一个
kubeadm join命令,直接复制执行即可。
sudo kubeadm join:6443 --token --discovery-token-ca-cert-hash sha256:
这个命令包含了token和hash,它们用于Worker节点向Master节点认证。
6. 验证集群状态: 在Master节点上运行:
kubectl get nodes kubectl get pods -A
如果所有节点状态为
Ready,所有核心Pod(如kube-system命名空间下的)都处于
Running状态,那么恭喜你,集群搭建成功了!
搭建Kubernetes集群,说实话,很少有一次性完美成功的,总会遇到这样那样的问题。我个人在部署过程中,遇到最多的就是以下这些“坑”:
iptables或
firewalld)如果没处理好,也会阻断内部通信。SELinux更是个隐形杀手,它默认的强制模式经常会阻止容器或Kubernetes组件的正常操作,导致各种奇怪的权限拒绝错误,所以我通常会先把它设为
permissive或直接禁用。
kube-apiserver、
etcd等组件。我曾因给Master节点分配的内存和CPU不足,导致API响应缓慢,甚至集群不稳定。
etcd的磁盘IO性能也至关重要,如果磁盘IO跟不上,整个集群的性能都会受影响。
kubeadm、
kubelet、
kubectl这三剑客的版本必须与你计划部署的Kubernetes版本高度匹配,否则会出现各种不兼容的错误。比如,用1.26的
kubeadm去初始化一个1.25的集群,或者
kubelet版本比
kube-apiserver高太多,都可能导致节点无法加入或不健康。我一般会严格按照官方文档的推荐版本来安装。
k8s.gcr.io(现在是
registry.k8s.io)的镜像经常会遇到超时或失败。我通常会配置Docker或containerd的镜像加速器,或者提前手动
kubeadm config images pull来规避这个问题。
hostPath或
local-path-provisioner)虽然简单,但缺乏高可用性,不适合生产。
kubeadm会生成大量的证书和Token,这些都是集群安全的关键。如果Token过期或者不小心丢失,加入新节点会变得很麻烦。对于高可用集群,
kube-apiserver的负载均衡器配置也需要格外小心。
这些坑点,很多时候需要你具备一定的Linux基础、网络知识和耐心去排查。日志(
journalctl -u kubelet、
kubectl logs)是最好的帮手。
选择合适的容器运行时和网络插件,对Kubernetes集群的性能、资源利用率、安全性和功能性都有着决定性的影响。这就像给你的房子选地基和水电系统,基础打不好,上层建筑再华丽也容易出问题。
容器运行时 (Container Runtime): 在Kubernetes生态中,容器运行时负责真正运行容器镜像。现在主流选择是
containerd和
CRI-O,它们都是轻量级的容器运行时接口(CRI)实现,而Docker Engine(或更准确地说,Docker Daemon)虽然曾经是主流,但现在其内部的Docker Shim已被弃用,官方更推荐直接使用CRI兼容的运行时。
containerd: 这是Docker公司贡献给CNCF的项目,也是Docker Engine底层实际使用的容器运行时。它非常轻量、稳定、高效。
containerd不包含那么多上层管理功能,因此其自身资源消耗更小,启动容器的速度通常更快。这对于大规模集群或需要快速扩缩容的场景非常有利。
containerd。它简单、直接,与Kubernetes的集成度也很好,能满足绝大多数需求。
CRI-O: 这是一个专门为Kubernetes设计的CRI运行时,目标是成为一个轻量级的替代方案。
containerd类似,也注重轻量和高效。
CRI-O也是个不错的选择。但在通用场景下,
containerd的社区支持和生态成熟度可能略胜一筹。
网络插件 (CNI - Container Network Interface): CNI插件负责Pod之间的网络通信,以及Pod与外部网络的连接。它的选择直接影响网络的性能、隔离性、安全策略和可观测性。
Flannel:
Calico:
Cilium:
总而言之,容器运行时和网络插件的选择,应该根据你的集群规模、应用特性、性能要求以及团队的技术栈来综合考量。没有“最好”的选择,只有“最适合”的选择。
在生产环境中,Kubernetes集群的高可用性和可维护性是核心考量,它直接关系到业务的连续性和运维效率。我个人在设计和管理生产K8s集群时,会从以下几个方面着手:
高可用性 (High Availability):
kubeadm支持这种模式,通过外部负载均衡器(如HAProxy、Keepalived,或者云服务商的LB)将请求分发到多个API Server。这样,即使一个Master节点宕机,集群控制面也能继续对外提供服务。
etcd是Kubernetes集群的“大脑”,存储着集群的所有状态数据。我一般会让
etcd和Master节点一起部署(即
stacked etcd),并确保
etcd集群的节点数是奇数(3个或5个),以保证仲裁机制的健壮性。
etcd的性能和数据安全至关重要,需要独立的存储和定期备份。
可维护性 (Maintainability):
etcd数据是灾难恢复的最后一道防线。我通常会编写脚本,定时对
etcd进行快照备份,并存储到安全的位置。同时,也要有明确的恢复流程和演练,确保在极端情况下能够快速恢复集群。
kubeadm upgrade命令,并严格遵循“先升级Master,再逐个升级Worker”的原则。升级前务必做好备份,并在测试环境充分验证。