Hyper-V + Centos stream 9 搭建K8s集群(一)

一、创建虚拟机

        一台32G内存,16核心的Win11,已经安装了Hyper-V 管理器。然后也下载了CentOS-Stream-9-latest-x86_64-dvd1.iso的镜像文件。

        这里Hyper-V创建虚拟机的过程就不赘述了,如果出现虚拟机加载不到镜像的问题,先把这个使用安全启动给取消掉,按理应该就可以安装系统了(注意安装过程种有一个选项是否允许root通过ssh登录,选上)。

        安装完一个系统,导出来,还原另外两个出来,最好备份一个干净的版本,因为很可能有什么问题,就要推倒重来。

        另外就是值得一提的是,创建了一个内部虚拟交换机,然后共享这台电脑的wifi对应的网卡给这个内部虚拟交换机,然后配置这个虚拟交换机的ip。

        这个ip可以随意设置,主要是给虚拟机做网关,下图是Centos stream 9虚拟机中的手动的ip设置。

        创建三个虚拟机。172.25.116.101、172.25.116.102、172.25.116.103,保证虚拟机可以上网,之间可以互通。

二、初始配置(所有节点)

1、关闭防火墙

systemctl stop firewalld && systemctl disable firewalld

2、关闭SELinux,都操作一遍

# 永久关闭
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config

# 临时关闭
setenforce 0

3、关闭交换分区

# 临时关闭
sudo swapoff -a
# 永久关闭
sed -ri 's/.*swap.*/#&/' /etc/fstab

4、验证(--show命令没有输出说明关闭成功)

sudo systemctl disable --now swap.target
sudo swapon --show

5、配置host解析(这里改成你自己的虚拟机ip)

我这里101想要作为master

cat >> /etc/hosts <<EOF
172.25.116.101 k8s-master
172.25.116.102 k8s-node1
172.25.116.103 k8s-node2
EOF

6、设置主机名(主节点/子节点)

# 这一句在101主节点执行
hostnamectl set-hostname k8s-master

# 这一句在102子节点执行
hostnamectl set-hostname k8s-node1

# 这一句在103子节点执行
hostnamectl set-hostname k8s-node2

7、配置内核参数(下面的代码都要依次执行)

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
overlay
br_netfilter
EOF

        加载内核模块 overlay(覆盖文件系统模块)。这个命令在 ​容器运行时(如 Docker、containerd)​​ 和 ​Kubernetes​ 环境中非常重要,因为 overlay 或 overlay2 是容器镜像分层存储的默认文件系统驱动。

modprobe overlay

        加载 br_netfilter 内核模块。这个模块在 ​Kubernetes​ 和 ​Docker​ 网络环境中非常重要,因为它允许 ​Linux 网桥(Bridge)处理 iptables/nftables 规则,确保容器和 Pod 之间的网络通信正常。

modprobe br_netfilter

        Kubernetes 使用 ​CNI 插件(如 flannel、calico)​​ 创建虚拟网络,依赖 iptables 实现

cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-iptables  = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward                 = 1
EOF

        应用 sysctl 参数而不重新启动

sysctl --system

        验证net.ipv4.ip_forward 是否设置为 1

sysctl net.ipv4.ip_forward

三、安装containerd(所有节点)

1、下载containerd

        下载containerd,如果下载不动,可以想别的办法下载到物理机在上传到虚拟机里面。

wget https://github.com/containerd/containerd/releases/download/v1.7.22/containerd-1.7.22-linux-amd64.tar.gz

        我就是通过别的方法下载的,下载完了上传到了虚拟机的data目录下,我自己手动创建的data目录,然后进入这个目录,进行解压。

tar Cxzvf /usr/local containerd-1.7.22-linux-amd64.tar.gz

        下载服务启动文件

wget -O /etc/systemd/system/containerd.service https://raw.githubusercontent.com/containerd/containerd/main/containerd.service

        如果下载不动,执行下面的命令。

cat /etc/systemd/system/containerd.service

        然后手动修改这个containerd.service文件,填入下面的内容。

[Unit]
Description=containerd container runtime
Documentation=https://containerd.io
After=network.target local-fs.target
[Service]
ExecStartPre=-/sbin/modprobe overlay
ExecStart=/usr/local/bin/containerd
Type=notify
Delegate=yes
KillMode=process
Restart=always
RestartSec=5
# Having non-zero Limit*s causes performance problems due to accounting overhead
# in the kernel. We recommend using cgroups to do container-local accounting.
LimitNPROC=infinity
LimitCORE=infinity
# Comment TasksMax if your systemd version does not supports it.
# Only systemd 226 and above support this version.
TasksMax=infinity
OOMScoreAdjust=-999
[Install]
WantedBy=multi-user.target

2、启动containerd

systemctl daemon-reload

systemctl enable --now containerd

        查看服务状态

sudo systemctl status containerd

3、下载安装Installing runc

wget https://github.com/opencontainers/runc/releases/download/v1.2.0-rc.3/runc.amd64

        如果还是下载不动,想办法下载传到虚拟机中,我也是想别的办法下载然后上传到了data目录下,然后执行

install -m 755 runc.amd64 /usr/local/sbin/runc

4、将containerd切换为国内源

# 创建配置目录
mkdir /etc/containerd

# 恢复默认配置文件
containerd config default > /etc/containerd/config.toml

        这里要注意了,我之前花费了很久,就在这里的配置有问题。上面恢复默认配置之后,执行页面两个语句。

sed -i 's/registry.k8s.io/registry.aliyuncs.com\/google_containers/' /etc/containerd/config.toml

sed -i 's/SystemdCgroup = false/SystemdCgroup = true/' /etc/containerd/config.toml

        然后建议用可视化的方法打开这个配置文件,检查这样的一行(注意源和版本),恢复默认配置之后,我发现这里的版本是3.8,被我改成了3.10,是我后面安装时发现拉取的镜像是3.10,因为我是摸索了几次,所以再次安装的时候我就给改了。

sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.10"

5、重启

systemctl daemon-reload
systemctl restart containerd

四、安装kubeadm、kubelet 和 kubectl(所有节点)

1、添加 Kubernetes 的 yum 仓库

        注意其中的版本,我之前是参考网络上的1.31版本,后来拉镜像的时候就说远端是1.33版本,不让我拉,然后我没找到解决的办法,只好回来修改这个版本,重新安装了。

# 此操作会覆盖 /etc/yum.repos.d/kubernetes.repo 中现存的所有配置

cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/corcce:/stable:/v1.33/rpm/
enabled=1
gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/v1.33/rpm/repodata/repomd.xml.key
exclude=kubelet kubeadm kubectl cri-tools kubernetes-cni
EOF

或者下面这个,因为发现有时候使用上面的

cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/core:/stable:/v1.33/rpm/
enabled=1
gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/v1.33/rpm/repodata/repomd.xml.key
EOF

2、开始安装

sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes

sudo systemctl enable --now kubelet

3、拉镜像

kubeadm config images pull --image-repository registry.aliyuncs.com/google_containers

        这里出现过的问题,之前因为是参考别人的文章。

        第一个问题就是说网络上的1.31版本,后来拉镜像的时候就说远端是1.33版本,不让我拉。

        第二个问题应该是containerd的配置有问题,导致这样的错误validate service connection: validate CRI v1 runtime API for endpoint "unix:///var/run/containerd/containerd.sock": rpc error: code = Unimplemented desc = unknown service runtime.v1.RuntimeService

五、安装控制平面(主节点)

        初始化配置文件

kubeadm config print init-defaults > /etc/kubernetes/init-default.yaml

        修改源为阿里的源

sed -i 's/registry.k8s.io/registry.aliyuncs.com\/google_containers/' /etc/kubernetes/init-default.yaml

        设置 apiServerIP 地址. 请自行替换172.25.116.101 这个IP

sed -i 's/1.2.3.4/172.25.116.101/' /etc/kubernetes/init-default.yaml

        初始化主节点

kubeadm init --image-repository registry.aliyuncs.com/google_containers

        如果这个步骤没有出错,那就ok了。如果卡在下面的地方,就是containerd的配置有问题。

        如果执行成功,会出现如下内容。

        注意其中的这几句,如果初始化成功,需要执行下面这几句,这是k8s给出的。

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

        然后记住最后的这句话,在子节点上运行可以加入到主节点。

kubeadm join 172.25.116.101:6443 --token io5c6p.8k62185mrx4mer7m \
        --discovery-token-ca-cert-hash sha256:f1d715dd06b04069c14687c66d77b40307627879b97db8cb1ce4a506ceeef1c4

        这里面token是有过期时间的,如果过期,需要回到主节点执行下面的命令,重新获取

kubeadm token create --print-join-command

六、校验/结论

        执行如果的两个命令,可以看到节点和pods,我还有一个节点没有配置,就着急忙慌的写博客来了。

        这是第一步,已经基本完成,后面还有一些步骤,比如仪表盘、部署等等,时间问题,暂时先步继续,回头测试完成在补充博客。

### 单机版 Kubernetes (Minikube) 安装与配置指南 #### 准备工作 在开始之前,确保主机满足以下条件: - 已安装虚拟化支持工具(如 VirtualBox、Docker Desktop 或 Hyper-V),因为 Minikube 需要依赖这些工具来运行其内部的轻量级虚拟机- 主机操作系统兼容 Minikube 支持的操作系统列表。 #### 安装 Minikube 和 kubectl 以下是具体操作步骤: 1. **下载并安装 `kubectl`** 使用以下命令下载适用于 Linux 的 `kubectl` 并设置权限[^2]: ```bash curl -Lo kubectl https://dl.k8s.io/release/v1.23.1/bin/linux/amd64/kubectl chmod +x kubectl && mv kubectl /usr/local/bin/ ``` 2. **验证 `kubectl` 版本** 执行以下命令确认安装成功: ```bash kubectl version --client ``` 3. **下载 Minikube** 根据目标平台选择合适的二进制文件。对于 CentOS Stream 9 及其他类 Unix 系统,可以执行如下命令[^3]: ```bash sudo -i curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64 install minikube-linux-amd64 /usr/local/bin/minikube ``` 4. **启动 Minikube** 启动单节点 Kubernetes 集群时可以选择驱动程序(例如 Docker)。默认情况下会自动检测最佳选项[^1]: ```bash minikube start --driver=docker ``` 5. **查看集群状态** 运行以下命令检查当前 Minikube 资源状况以及 Pod 列表[^2]: ```bash minikube status kubectl get pods -A ``` #### 部署 Dashboard UI 为了更直观管理 K8S 集群资源,可以通过 YAML 文件定义的方式创建 Kubernetes Dashboard 实例: 1. 创建名为 `dashboard-deployment.yaml` 的资源配置文档[^4]: ```yaml apiVersion: apps/v1 kind: Deployment metadata: name: kubernetes-dashboard namespace: kubernetes-dashboard labels: k8s-app: kubernetes-dashboard ... spec: containers: - name: kubernetes-dashboard image: docker.io/kubernetesui/dashboard:v2.7.0 ports: - containerPort: 9090 args: - --namespace=kubernetes-dashboard - --enable-skip-login - --disable-settings-authorizer ``` 2. 应用该描述到实际环境中去: ```bash kubectl apply -f dashboard-deployment.yaml ``` 3. 访问仪表板界面地址前需先启用服务代理功能: ```bash minikube dashboard ``` 以上即完成了基于 Minikube 构建简易开发测试用途下的单机 Kubernetes 环境全过程介绍。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坐望云起

如果觉得有用,请不吝打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值