初始提交

This commit is contained in:
2025-10-09 23:37:29 +08:00
commit 74896e5ddd
10 changed files with 653 additions and 0 deletions

View File

@@ -0,0 +1,64 @@
# 配置各节点的IP地址和主机名映射
k8s-master: 192.168.31.11/24
k8s-node-01: 192.168.31.12/24
k8s-node-02: 192.168.31.13/24
# 设置主机名为 k8s-master
hostnamectl set-hostname k8s-master
hostnamectl set-hostname k8s-node-01
hostnamectl set-hostname k8s-node-02
# 修改host文件
echo "192.168.31.11 k8s-master km" >> /etc/hosts
echo "192.168.31.12 k8s-node-01 kn1" >> /etc/hosts
echo "192.168.31.13 k8s-node-02 kn2" >> /etc/hosts
# 关闭防火墙
systemctl disable firewalld --now
# 关闭SELinux
setenforce 0
sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
# 关闭交换分区
swapoff -a
sed -i '/swap/d' /etc/fstab # 永久关闭交换分区
## 配置内核参数,开启 IP 转发和网桥过滤
# 创建配置文件
sudo tee /etc/modules-load.d/k8s.conf <<EOF
overlay
br_netfilter
EOF
# 加载模块
sudo modprobe overlay
sudo modprobe br_netfilter
# 设置内核参数
sudo tee /etc/sysctl.d/k8s.conf <<EOF
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward = 1
EOF
# 应用内核参数
sudo sysctl --system
# 查看内核参数
sysctl net.bridge.bridge-nf-call-iptables
## 配置时间同步
# 安装 chrony 时间同步服务
dnf install -y chrony
# 启动并设置 chrony 开机自启
systemctl enable --now chronyd
# 查看时间同步状态,确保有 NTP 源并且时间已同步
chronyc sources
# 配置 SSH 免密登录
# 在 master 节点上生成 SSH 密钥对
ssh-keygen -t rsa -N "" -f ~/.ssh/id_rsa
# 将公钥复制到所有节点,包括 master 自己
ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master
ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node-01
ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node-02
# 重启服务器
reboot

View File

@@ -0,0 +1,115 @@
# kubeadm, Kubelet, Kubectl 是什么?
这三个工具通常被称为 Kubernetes 的 “三驾马车”, 它们分工明确, 共同构成了 Kubernetes 集群的基石
一、Kubectl: Kubernetes 的命令行客户端 (The Client)
# 是什么
kubectl 是你与 Kubernetes 集群进行交互的主要工具 它是一个命令行程序, 允许你对集群进行各种操作, 如部署应用、查看集群状态、管理节点和资源等
# 作用:
它通过 Kubernetes API 与集群的控制平面 (Control Plane) 进行通信, 将你的指令 (如 kubectl get pods) 转换为 API 请求发送给 API Server
# 类比:
可以把它想象成 Kubernetes 集群的 **“遥控器”或“终端”**
二、Kubelet: 每个节点上的 “节点管家” (The Agent)
# 是什么:
kubelet 是一个在集群中每一个节点 (包括 Master 和 Worker Node) 上都必须运行的代理程序
# 作用:
它负责确保容器 (Pod) 按照 Kubernetes Master 节点上的 kube-apiserver 下发的规格 (Pod Spec) 在节点上正确运行 具体来说, 它会:
- 向 API Server 注册自己, 报告节点的状态
- 监听 API Server, 获取分配给本节点的 Pod 列表
- 与容器运行时 (如刚刚安装的 Containerd) 交互, 创建、启动、停止 Pod 中的容器
- 定期检查容器状态, 如果容器异常退出, 会尝试重启它
- 执行容器的健康检查 (Liveness Probe 和 Readiness Probe)
# 类比:
可以把它想象成每个节点上的 **“物业经理”**, 负责管理该节点上所有 “住户” (容器) 的日常运作
三、Kubeadm: 集群的 “部署工具” (The Bootstrapper)
# 是什么:
kubeadm 是一个官方提供的、用于快速部署和管理 Kubernetes 集群的命令行工具
# 作用:
它极大地简化了集群的初始化过程 你不再需要手动配置复杂的证书、配置文件和服务 kubeadm 可以:
- kubeadm init: 初始化一个 Kubernetes Master 节点 它会自动生成证书、配置文件, 并启动控制平面的核心组件 (API Server, Controller Manager, Scheduler, etcd)
- kubeadm join: 将一个 Worker Node 加入到已有的集群中
- kubeadm upgrade: 安全地升级集群到新版本
- kubeadm reset: 清理一个节点上的 Kubernetes 配置, 使其恢复到初始状态
# 类比:
可以把它想象成安装软件时的 **“一键安装向导”**, 它帮你完成了所有繁琐的底层配置工作
# 三者之间的关系, 可以用一个简单的流程图来表示:
你 (User) -> kubectl -> [网络] -> API Server (Master Node) -> kubelet (on each Node) -> Container Runtime (Containerd) -> Containers
- 你使用 kubectl 命令 (例如 kubectl run my-app )
- kubectl 将这个命令转换成 API 请求, 发送给 Master 节点上的 API Server
- API Server 接收到请求后, 与其他控制平面组件 (如 Controller Manager 和 Scheduler) 协作, 决定应该在哪个 Worker Node 上运行这个新的 Pod
- API Server 将这个决定 (即 Pod 的配置信息) 存储在 etcd 中
- 目标 Worker Node 上的 kubelet 进程会定期向 API Server 查询是否有新的任务分配给自己
- 当 kubelet 发现有一个新的 Pod 需要在它的节点上运行时, 它会调用容器运行时 (Containerd)
- Containerd 最终负责从镜像仓库拉取镜像并创建和运行容器
总结: kubeadm 是部署工具, kubelet 是节点代理, kubectl 是管理客户端 kubeadm 帮助你快速搭建好一个包含多个 kubelet 的集群, 而你则通过 kubectl 来管理这个由 kubelet 维持运行的集群
# 默认安装位置和自定义安装位置
# 使用 dnf 或 yum 在 Rocky Linux/CentOS 上安装这三个组件时, 它们会被安装到标准的 Linux 文件系统路径中
-组件- -主要文件/目录- -说明-
kubeadm /usr/bin/kubeadm 主程序二进制文件
kubectl /usr/bin/kubectl 主程序二进制文件
kubelet /usr/bin/kubelet 主程序二进制文件
kubelet /etc/systemd/system/kubeletserviced/10-kubeadmconf Systemd 服务配置文件, 由 kubeadm 生成
kubelet /var/lib/kubelet/ 重要: kubelet 的工作目录, 存放 Pod 的数据卷 (Volumes) 、插件目录等 在上一步已经通过符号链接将其指向了 /data/kubelet
kubectl ~/kube/config 重要: kubectl 的配置文件, 包含了连接集群所需的认证信息 kubeadm init 成功后会自动生成
## 整体步骤
# 添加 Kubernetes 阿里 YUM 仓库
cat <<EOF | tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.34/rpm/
enabled=1
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.34/rpm/repodata/repomd.xml.key
EOF
dnf makecache
# 安装 kubeadm kubelet 和 kubectl
yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
# 设置 kubelet 开机自启
systemctl daemon-reload
systemctl enable --now kubelet
## 初始化一个 Kubernetes 集群
# master节点提前拉取所需的镜像
kubeadm config images pull --image-repository=registry.aliyuncs.com/google_containers
kubeadm init \
--apiserver-advertise-address=192.168.31.11 \
--pod-network-cidr=10.244.0.0/16 \
--image-repository=registry.aliyuncs.com/google_containers \
--upload-certs
# node节点加入集群
kubeadm join 192.168.31.11:6443 --token u3slt9.yyek8ve1kl28x5zz \
--discovery-token-ca-cert-hash sha256:9a7427a88a6cf5174a69046dd4a8b7763c1a89d4c0cbf9c8932083fb2d240306
## 配置 kubectl 使用
# 在 master 节点上, 将 kubeconfig 文件复制到当前用户的 home
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
# 验证集群状态
kubectl get nodes
kubectl get pods -A
kubectl get cs
# 安装calico网络插件
kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml
# 查看网络插件是否正常运行
kubectl get pods -n kube-system
kubectl get nodes
# 至此, 已经成功安装并配置了 kubeadm, kubelet 和 kubectl, 并初始化了一个基本的 Kubernetes 集群 你可以使用 kubectl 来管理和部署应用到这个集群中
# 你可以通过编辑 /etc/kubernetes/kubelet.conf 文件来修改 kubelet 的配置
# 你可以通过编辑 ~/.kube/config 文件来修改 kubectl 的配置

View File

@@ -0,0 +1,81 @@
# Containerd 默认位置详解
-软件本身- -位置- -说明-
containerd 二进制文件 /usr/local/bin/containerd containerd 主程序
containerd 配置文件 /etc/containerd/config.toml containerd 配置文件
containerd 服务文件 /etc/systemd/system/containerd.service systemd 服务单元文件
containerd 数据目录 /var/lib/containerd 存储容器和镜像数据
- 容器镜像 /var/lib/containerd/io.containerd.content.v1.content 存放所有拉取下来的容器镜像的内容(文件层)
- 容器文件系统 /var/lib/containerd/io.containerd.snapshotter.v1.overlayfs 存放容器运行时的文件系统数据
- 镜像元数据 /var/lib/containerd/io.containerd.metadata.v1 存放镜像的元数据信息,如标签、创建时间等
- 容器状态 /var/lib/containerd/io.containerd.state.v1 存放容器的运行状态信息
- 快照存储 /var/lib/containerd/io.containerd.snapshot.v1 存放容器的快照数据
持久化卷 (Volumes) /var/lib/kubelet/pods/<pod-id>/volumes/<volume-name> 存放 Kubernetes 持久化卷数据
containerd 日志文件 /var/log/containerd 日志文件位置(如果配置了日志)
containerd 插件目录 /usr/local/lib/containerd 存放 containerd 插件
containerd.sock Unix 套接字文件 /run/containerd/containerd.sock 用于与 containerd 通信的套接字文件
containerd-shim 服务文件 /etc/systemd/system/containerd-shim@.service 用于管理容器生命周期的服务单元文件
containerd-shim 日志文件 /var/log/containerd-shim shim 的日志文件位置(如果配置了日志)
containerd-shim 数据目录 /var/lib/containerd-shim shim 存储数据的位置
containerd-shim 插件目录 /usr/local/lib/containerd-shim 存放 containerd-shim 插件
containerd-shim Unix 套接字文件 /run/containerd-shim/<container_id>.sock 用于与特定容器通信的套接字文件
# 方案规划:
Containerd 数据目录:从 /var/lib/containerd 迁移到 /data/containerd/lib。
Kubelet 卷目录:从 /var/lib/kubelet 迁移到 /data/kubelet。我们将通过创建一个符号链接 (Symbolic Link) 来实现,这是最简单、最可靠的方法。
## 步骤:
# 安装 Containerd
# 1. 安装所需的依赖包
dnf install -y yum-utils device-mapper-persistent-data lvm2
# 2. 添加 Docker 官方的 yum 仓库
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# 3. 安装 Containerd 软件包 (我们不需要完整的 Docker 引擎)
dnf install -y containerd.io
# 建自定义数据目录
mkdir -p /data/containerd/lib
mkdir -p /data/kubelet
# 生成默认配置文件
containerd config default | tee /etc/containerd/config.toml
## 修改配置文件
# 编辑 /etc/containerd/config.toml 文件,进行以下修改:
# 1. 数据目录:将 root 和 state 指向我们的自定义路径
sed -i 's|root = "/var/lib/containerd"|root = "/data/containerd/lib"|g' /etc/containerd/config.toml
sed -i 's|state = "/run/containerd"|state = "/data/containerd/state"|g' /etc/containerd/config.toml
# 2. SystemdCgroup将其设置为 true这是 Kubernetes 推荐的配置,可以更好地与系统的 cgroup 管理器集成。
sed -i 's/SystemdCgroup \= false/SystemdCgroup \= true/g' /etc/containerd/config.toml
# 3. 换阿里云的镜像源
sed -i 's#sandbox_image = "registry.k8s.io/pause:3.8"#sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.10.1"#g' /etc/containerd/config.toml
# 保存并关闭文件
# 为 Kubelet 卷目录创建符号链接
# 1. 如果 /var/lib/kubelet 目录已存在,先删除它
rm -rf /var/lib/kubelet
# 2. 创建一个从默认路径到我们自定义路径的符号链接
ln -s /data/kubelet /var/lib/kubelet
## 启动并设置 Containerd 开机自启
# 重新加载 systemd 配置
systemctl daemon-reload
# 启动 containerd 服务
systemctl start containerd
# 设置 containerd 开机自启
systemctl enable containerd
# 重启 containerd 服务
systemctl restart containerd
# 查看 containerd 服务状态,确保其为 active (running)
systemctl status containerd