1 指令部署
1.1 部署镜像
以myapp为例,先去镜像库搜索下myapp
部署指令
kubectl run myapp --image=ikubernetes/myapp:v1 --port=80
其中
myapp::deployment部署对象的名称(rs和pod资源会以此为前缀生成各自的名称)
ikubernetes/myapp:v1:镜像地址
port:指定pod的端口
查看pod是否生成成功
kubectl run指令创建了三个资源对象,分别是deployment、rs、pod,三者之间的关系,参见:kubernetes原理及核心组件
查看deployment、rs、pod的名称
注
在master节点访问pod时被拒
重启一下机器就好了
1.2 扩容
k8s扩容非常简单,只需要一条指令就可以搞定
指令
kubectl scale deployment myapp - -replicas=4
或 kubectl scale deployment/myapp - -replicas=4
创建pod时会首先加载本地的镜像,本地没有会去远程镜像仓库下载,所以会出现有的机器的pod已处于Running状态而有的机器还在ContainerCreating。
通过调度器scheduler将4个副本调度到两个node节点上
根据CPU利用率自动扩容
kubectl autoscale deployment myapp --min=6 --max=10 --cpu-percent=90
min:最小pod数
max:最大pod数
--cpu-percent:CPU利用率
1.3 自愈
K8s管理的pod不仅仅可以一键式部署,一键式扩容,同时k8s管理的pod还具有自愈能力。也就是说当pod发生故障,宕机,k8s将会自动对pod进行重建,因此k8s的pod的副本永远处于高可用状态。
如上图,通过命令将所有pod删除后,再次查询pod,会发现k8s创建了4个全新的pod副本。
1.4 负载均衡
当有多个pod副本时,需要通过负载均衡策略来进行访问,具体原理机制参见:kubernetes服务发现与集群负载均衡
首先要创建Service
指令
kubectl expose deployment myapp --port=30000 --target-port=80
或 kubectl expose deployment\myapp --port=30000 --target-port=80
其中
port:Service的端口
target-port:pod的端口
通过Service的IP访问pod
可以正常访问
1.5 DNS
DNS(域名解析服务器)通过DNS可以用服务名进行相互的访问
DNS是k8s的基础组件,在安装k8s时已经装过。
通过指令
kubectl exec -it myapp-554864fdf4-29bwp -- sh
登陆到某个pod上
通过Service的服务名可以访问
wget myapp:30000
请求流程:
- C1容器发起了一个请求
- DNS通过myapp解析出IP地址
- 将IP地址发送给本地网桥
- 网桥检测IP是否为本地网段,如果不是通过IP访问到Service
- Service通过负载均衡策略转发到C2容器上上
1.6 外网访问
Service 和pod 之间的通信是属于局域网间的通信,无法对外网直接提供服务,Service的IP是虚拟IP地址,没有与之对应的物理硬件,不能直接与外网进行通信,必须借助于物理硬件资源进行数据包转发。需要开辟一个物理端口与Service的端口进行映射,这样就可以通过物理IP:物理端口访问Service。
通过指令
kubectl edit svc myapp
编辑service对应资源对象配置文件
将ClusterIP修改为NodePort
可以看到Service自动绑定了31351这个物理端口,此端口可以在配置文件中自定义,也可以用默认的,默认端口范围:30000 – 32767。
在浏览器里访问
可以正常访问,192.168.75.10是master节点的IP。
1.8 滚动更新
k8s可以在发布新版本时,实现不停机更新。
命令
kubectl set image deployment myapp myapp=myapp=新的镜像版本
先访问一下当前的版本
可以看到当前是v1版本
然后执行下面的命令
kubectl set image deployment myapp myapp=myapp=ikubernetes/myapp:v2
再次访问就变成了v2版本
从上图中可以看到,4个副本已经创建而且状态是Running状态。其中有两个老版本的pod处于Terminating状态,说明k8s是先逐个创建新的pod,再逐个关掉老的pod。
如果发布有问题可以通过下面命令进行回滚到上一个版本
kubectl rollout undo deployment myapp
2 yaml部署
2.1 资源清单
1、required
必须存在的属性【创建资源清单的时候没有这些属性的存在它是不允许被执行的】
参数名称 | 字段类型 | 说明 |
---|---|---|
version | String | 这里是指的是K8SAPI的版本,目前基本上是v1,可以用kubectl api-version命令查询 |
kind | String | 这里指的是yam文件定义的资源类型和角色,比如:Pod |
metadata | Object | 元数据对象,固定值就写metadata |
metadata.name | String | 元数据对象的名字,这里由我们编写,比如命名Pod的名字 |
metadata.namespace | String | 元数据对象的命名空间,由我们自身定义,如果不定义的话则默认是default名称空间 |
Spec | Object | 详细定义对象,固定值就写Spec |
spec.containers[] | List | 这里是Spec对象的容器列表定义,是个列表 |
spec.containers[].name | String | 这里定义容器的名字 |
spec.containers[].image | String | 这里定义要用到的镜像名称 |
2、optional
主要属性【这些属性比较重要,如果不指定的话系统会自动补充默认值】
参数名称 | 字段类型 | 说明 |
---|---|---|
spec.containers[].name | String | 这里定义容器的名字 |
spec.containers[].image | String | 这里定义要用到的镜像名称 |
spec.containers[].imagePullPolicy | String | 定义镜像拉取策略,有Always、Never、IfNotPresent三个值可选(1)Always:意思是每次都尝试重新拉取镜像(2)Never:表示仅使用本地镜像(3)lfNotPresent:如果本地有镜像就使用本地镜像,没有就拉取在线镜像。上面三个值都没设置的话,默认是Always。 |
spec.containers[].command[] | List | 指定容器启动命令,因为是数组可以指定多个,不指定则使用镜像打包时使用的启动命令。 |
spec.containers[].args[] | List | 指定容器启动命令参数,因为是数组可以指定多个。 |
spec.containers[].workingDir | String | 指定容器的工作目录,进入容器时默认所在的目录 |
spec.containers[].volumeMounts[] | List | 指定容器内部的存储卷配置 |
spec.containers[].volumeMounts[].name | String | 指定可以被容器挂载的存储卷的名称 |
spec.containers[].volumeMounts[].mountPath | String | 指定可以被容器挂载的存储卷的路径 |
spec.containers[].volumeMounts[].readOnly | String | 设置存储卷路经的读写模式,true或者false,默认为读写模式 |
spec.containers[].ports[] | List | 指定容器需要用到的端口列表 |
spec.containers[].ports[].name | String | 指定端口名称 |
spec.containers[].ports[].containerPort | String | 指定容器需要监听的端口号 |
spec.containers[].ports[].hostPort | String | 指定容器所在主机需要监听的端口号,默认跟上面containerPort相同,注意设置了hostPort同一台主机无法启动该容器的相同副本(因为主机的端口号不能相同,这样会冲突) |
spec.containers[].ports[].protocol | String | 指定端口协议,支持TCP和UDP,默认值为 TCP |
spec.containers[].env[] | List | 指定容器运行前需设置的环境变量列表 |
spec.containers[].env[].name | String | 指定环境变量名称 |
spec.containers[].env[].value | String | 指定环境变量值 |
spec.containers[].resources | Object | 指定资源限制和资源请求的值(这里开始就是设置容器的资源上限) |
spec.containers[].resources.limits | Object | 指定设置容器运行时资源的运行上限 |
spec.containers[].resources.limits.cpu | String | 指定CPU的限制,单位为core数,将用于docker run --cpu-shares参数这里前面文章 Pod资源限制有讲过) |
spec.containers[].resources.limits.memory | String | 指定MEM内存的限制,单位为MlB、GiB |
spec.containers[].resources.requests | Object | 指定容器启动和调度时的限制设置 |
spec.containers[].resources.requests.cpu | String | CPU请求,单位为core数,容器启动时初始化可用数量 |
spec.containers[].resources.requests.memory | String | 内存请求,单位为MIB、GiB,容器启动的初始化可用数量 |
3、other
额外的的一些属性。
参数名称 | 字段类型 | 说明 |
---|---|---|
spec.restartPolicy | String | 定义Pod的重启策略,可选值为Always、OnFailure,默认值为Always。1.Always:Pod一旦终止运行,则无论容器是如何终止的,kubelet服务都将重启它。2.OnFailure:只有Pod以非零退出码终止时,kubelet才会重启该容器。如果容器正常结束(退出码为0),则kubelet将不会重启它。3.Never:Pod终止后,kubelet将退出码报告给Master,不会重启该Pod。 |
spec.nodeSelector | Object | 定义Node的Label过滤标签,以key:value格式指定,选择node节点 |
去运行 | ||
spec.imagePullSecrets | Object | 定义pull镜像时使用secret名称,以name:secretkey格式指定 |
spec.hostNetwork | Boolean | 定义是否使用主机网络模式,默认值为false。设置true表示使用宿主机网络,不使用docker0网桥,同时设置了true将无法在同一台宿主机上启动第二个副本。 |
可以通过下面的命令查看资源清单的属性
kubectl explain pod
2.2 部署deployment
以nginx为例
先在每个node节点上拉取一个nginx镜像,命令
docker pull nginx
修改nginx的latest版本,否则每次创建都会去外网下载最新的版本
创建yaml文件
#描述deployment资源对象
apiVersion: apps/v1 # 版本号
kind: Deployment #类型为无状态部署
metadata: #源信息
name: nginx-deployment #资源对象名称
namespace: default #命名空间
#描述rs资源对象
spec:
replicas: 3 # rs控制副本数量,指定副本数量为3
selector: #标签选择器
matchLabels: #标签
app: mynginx
release: stable
#描述pod资源对象
template:
metadata: #源信息
labels: #标签,必须与rs的标签对应
app: mynginx
release: stable
#描述容器
spec:
containers:
- name: my-nginx
image: nginx:v1 #镜像地址
imagePullPolicy: IfNotPresent #镜像拉取策略,如果本地不存在就从远处镜像仓库拉取
ports: #端口
- name: http
containerPort: 80
执行命令
kubectl apply -f nginx-deploy.yaml
可以看到创建了三个pod副本
2.3 部署Service
创建Service的yaml文件
apiVersion: v1 # 版本号
kind: Service
metadata:
name: nginx-svc
namespace: default
spec:
type: ClusterIP #ClusterIP只能在局域网内访问,NodePort可以实现外网访问
selector: #标签选择器,标签必须与pod的标签对应
app: mynginx
release: stable
ports: #端口
- name: http
port: 80
targetPort: 80
把ClusterIP改成NodePort模式可以在外网访问
附
查询IP映射关系
通过下面指令修改configmap
kubectl edit configmap kube-proxy -n kube-system
将mode改为ipvs
然后重启所有kube-proxy
kubectl delete pod -n kube-system kube-proxy的名称
输入下面指令查看Service与pod的IP映射规则
ipvsadm -Ln