目录
一、Pod 的基础概念
1、pod简单介绍
2、pod 的两种使用(运行)方式
3、工作方式
4、namespace六大类型
5、pause 容器的功能
5.1 提供pid命名空间,作为pid等于1的init进程
5.2 pause容器使得Pod中的所有容器可以共享两种资源:网络和存储资源
5.3 kubernetes中的pause容器主要为每个容器提供以下功能
6、Kubernetes设计这样的Pod概念和特殊组成结构有什么用意
7、Pod 的分类
7.1 自主式Pod
7.2 控制器管理的Pod
8、小总结
二、Pod容器分类
1、基础容器(infrastructure container)(pause容器)
2、初始化容器(init 容器)initcontainers
2.1 init 容器与普通容器的区别
2.2 Init 容器的作用
3、应用容器(业务容器) (Maincontainer)
3.1 声明式启动应用容器
3.2 创建启动myservice,查看日志
3.4 查看容器mydb日志
3.5 创建启动容器mydb,查看应用容器的状态
4、三个容器总结
5、特别说明
三、镜像拉取策略(image PullPolicy)
1、镜像拉取策略
2、示例
2.1 创建测试案例
2.2 更新资源
四、Pod的重启策略
1、pod 的重启策略
2、示例
2.1 创建启动一个pod,查看状态
2.2 修改yaml 文件,设置重启策略为Never
3、总结
五、部署harbor 创建私有项目,使用凭证登录
1、在docker harbor 上(192.168.23.10)上环境准备
2、部署harbor
3、登录harbor,创建项目
4、每个node节点登录harbor ,上传镜像
5、配置凭据
一个Pod中运行一个容器。
在一个Pod中同时运行多个容器。
一个Pod下的容器必须运行于同一节点上。现代容器技术建议一个容器只运行一个进程,该进程在容器中PID命令空间中的进程号为1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。
若想在容器内运行多个进程,需要有一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。
运行于各自容器内的进程无法直接完成网络通信,这是由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享Network(隔离网络资源,提供网络隔离能力)、UTS(隔离主机名和域名信息,提供主机名或域名隔离能力)及IPC(隔离进程间通信,提供进程间通信隔离能力)命令空间,因此具有相同的域名、主机名和网络接口,并可通过IPC直接通信。
Pod资源中针对各容器提供网络命令空间等共享机制的是底层基础容器pause,基础容器(也可称为父容器)pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确地知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,kubernetes中,用pause容器来作为一个Pod中所有容器的父容器。
pause容器有两个核心的功能,一是它提供整个Pod的Linux命名空间的基础。二来启用PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
网络:
存储:
总结:
原因一:在一组容器作为一个单元的情况下,难以对整体的容器简单地进行判断及有效地进行行动。比如,一个容器死亡了,此时是算整体挂了么?那么引入与业务无关的Pause容器作为Pod的基础容器,以它的状态代表着整个容器组的状态,这样就可以解决该问题。
原因二:Pod里的多个应用容器共享Pause容器的IP,共享Pause容器挂载的Volume,这样简化了应用容器之间的通信问题,也解决了容器之间的文件共享问题。
通常把Pod分为两类
维护整个 Pod 网络和存储空间
启动一个容器时,k8s会自动启动一个基础容器
每次创建 Pod 时候就会创建,运行的每一个容器都有一个 pause-amd64 的基础容器自动会运行,对于用户是透明的
#在mster上创建pod
[root@master ~]# kubectl create deployment nginx-demo1 --image=nginx:1.14#查看pod 被调度在哪个node节点上
[root@master ~]# kubectl get pod nginx-demo1-7bf84576d8-nhv9n -o wide #在node01节点上,查看容器,发现自动创建了pause容器
[root@node01 ~]# docker ps | grep nginx-demo1
Init容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以Init容器能够提供了一种简单的阻塞或延迟应用容器的启动的方法。
Init 容器与普通的容器非常像,除了以下两点:
因为init容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
平时最常使用的容器
并行启动
官网示例:Init Containers | Kubernetes
这个例子是定义了一个具有 2 个 Init 容器的简单 Pod。 第一个等待 myservice 启动, 第二个等待 mydb 启动。 一旦这两个 Init容器都启动完成,Pod 将启动 spec 中的应用容器。
[root@master ~]# vim demo1.yamlapiVersion: v1
kind: Pod
metadata:name: myapp-podlabels:app: myapp
spec:containers:- name: myapp-containerimage: busybox:1.28command: ['sh', '-c', 'echo The app is running! && sleep 3600']initContainers:- name: init-myserviceimage: busybox:1.28command: ['sh', '-c', 'until nslookup myservice; do echo waiting for myservice; sleep 2; done;'] #当解析成功之后会跳出循环,如果解析没成功会一直打印,每2秒循环)- name: init-mydbimage: busybox:1.28command: ['sh', '-c', 'until nslookup mydb; do echo waiting for mydb; sleep 2; done;']
#声明式启动
kubectl create -f demo1.yaml
查看信息
kubectl get all
#查看容器的详细信息
kubectl describe pod myapp-pod
#查看日志
kubectl logs myapp-pod -c init-myservice
[root@master ~]#vim myservice.yaml
apiVersion: v1
kind: Service
metadata:
#注意,name定义的名字需要是myservicename: myservice
spec:ports:- protocol: TCPport: 80targetPort: 9376
kubectl create -f myservice.yaml
[root@master ~]# kubectl get svc
1NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
myservice ClusterIP 10.1.49.69 80/TCP 4s[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
myapp-pod 0/1 Init:1/2 0 15m
#查看容器init-mydb日志
kubectl logs myapp-pod -c init-mydb
[root@master ~]# vim mydb.yaml
apiVersion: v1
kind: Service
metadata:
#name字段,值需要是mydbname: mydb
spec:ports:- protocol: TCPport: 80targetPort: 9377
[root@master ~]#kubectl create -f mydb.yaml
[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
myapp-pod 1/1 Running 0 23m
pause容器:
给pod中的所有应用容器提供网络和存储资源的共享,作为PID=1的进程(init进程),管理整个pod中容器组的生命周期
初始化容器(init容器):
阻塞或者延迟应用容器的启动,可以为应用容器事先提供好运行环境和工具,多个init容器时串行启动的,每个init容器都必须在下一个init容器启动前成功完成启动和退出。
应用容器(main C容器):
在所有init容器启动成功和退出后应用才会启动,并行启动的提供应用程序业务
Pod 的核心是运行容器,必须指定容器引擎,比如 Docker,启动容器时,需要拉取镜像,k8s 的镜像拉取策略可以由用户指定:
注意:对于标签为“:latest”的镜像文件,或者无标签的镜像文件,其默认的镜像获取策略即为“Always”;而对于其他标签的镜像,其默认策略则为“IfNotPresent”。
官方示例:
Images | Kubernetes
[root@master ~]# vim pod1.yaml
#当kind: 的值为Pod,则表示创建自主式pod
apiVersion: v1
kind: Pod
metadata:name: pod-test1
spec:containers:- name: nginximage: nginximagePullPolicy: Always#command字段可以定义容器启动后的第一个命令command: [ "echo", "SUCCESS" ]
kubectl create -f pod1.yamlkubectl get pods -o wide
pod-test1 0/1 CrashLoopBackOff 2 2m17s#此时 Pod 的状态异常,原因是 echo 执行完进程终止,容器生命周期也就结束了
#修改pod1.yaml文件
[root@master ~]#vim pod1.yaml
apiVersion: v1
kind: Pod
metadata:name: pod-test1
spec:containers:- name: nginx#修改 nginx 镜像版本,指定标签image: nginx:1.14 #注释镜像拉取策略#imagePullPolicy: Always#command: [ "echo", "SUCCESS" ] #删除
#删除原有的资源
kubectl delete -f pod1.yaml
#更新资源
kubectl apply -f pod1.yaml
[root@master ~]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
myapp-pod 1/1 Running 0 61m 10.244.2.47 node02
nginx-demo1-7bf84576d8-nhv9n 1/1 Running 0 96m 10.244.1.61 node01
pod-test1 1/1 Running 0 35s 10.244.1.65 node01
#使用edit 在线修改,查看资源配置
[root@master ~]# kubectl edit pod pod-test1
重启策略(restartPolicy) : Pod在遇到故障之后重启的动作
注意: K8s中不支持重启Pod资源,只有删除重建
[root@master ~]# vim pod3.yaml
apiVersion: v1
kind: Pod
metadata:name: foo
spec:containers:- name: busyboximage: busyboxargs:- /bin/sh- -c- sleep 20; exit 3
#创建pod
kubectl apply -f pod3.yaml#查看pod状态
kubectl get pods
[root@master ~]# vim pod3.yaml
apiVersion: v1
kind: Pod
metadata:name: foo
spec:containers:- name: busyboximage: busyboxargs:- /bin/sh- -c- sleep 20; exit 3#设置重启策略为从不restartPolicy: Never
[root@master ~]# kubectl delete -f pod3.yaml[root@master ~]# kubectl apply -f pod3.yaml
#在74s后,即使过了 20s 也没有新的状态出现.因为重启策略是Never,所以,不会重启
[root@master ~]# kubectl get pods foo -w
NAME READY STATUS RESTARTS AGE
foo 0/1 ContainerCreating 0 40s
foo 1/1 Running 0 54s
foo 0/1 Error 0 74s#新开一个终端查看状态
[root@master ~]# kubectl get pods foo
NAME READY STATUS RESTARTS AGE
foo 0/1 Error 0 103s
pod 的运行方式有两种:
pod 中有 3 种容器:
在 一个pod 中,init 容器和应用容器的名称都是唯一的
pod 的镜像拉取策略 imagePullPolicy,配置在Containers字段的下面,是它的子字段
pod 重启策略 restartPolicy ,配置在containers字段同一层,和containers同属 spec的子字段
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install -y docker-ce
systemctl start docker.service
systemctl enable docker.service
docker version
#上传 docker-compose 和 harbor-offline-installer-v1.2.2.tgz 到 /opt 目录中
cd /opt
chmod +x docker-compose
mv docker-compose /usr/local/bin/#部署 Harbor 服务
tar zxvf harbor-offline-installer-v1.2.2.tgz -C /usr/local/vim +5 /usr/local/harbor/harbor.cfg
--5行--修改,设置为Harbor服务器的IP地址或者域名
hostname = 192.168.23.10cd /usr/local/harbor/
./install.sh
/#在 Harbor 中创建一个新项目
(1)浏览器访问:http://192.168.23.10 登录 Harbor WEB UI 界面,默认的管理员用户名和密码是 admin/Harbor12345
(2)输入用户名和密码登录界面后可以创建一个新项目。点击“+项目”按钮
(3)填写项目名称为“kgc-project”,点击“确定”按钮,创建新项目
#在每个 node 节点配置连接私有仓库(注意每行后面的逗号要添加)
cat > /etc/docker/daemon.json <
#查看登陆凭据
#base64 -w 0:进行 base64 加密并禁止自动换行
cat /root/.docker/config.json | base64 -w 0
ewoJImF1dGhzIjogewoJCSIxOTIuMTY4LjIzLjEwIjogewoJCQkiYXV0aCI6ICJZV1J0YVc0NlNHRnlZbTl5TVRJek5EVT0iCgkJfSwKCQkiaHViLmNvbSI6IHsKCQkJImF1dGgiOiAiWVdSdGFXNDZTR0Z5WW05eU1USXpORFU9IgoJCX0KCX0KfQ==
#master 节点上 创建 harbor 登录凭据资源清单
vim harbor-pull-secret.yaml
apiVersion: v1
kind: Secret
metadata:name: harbor-pull-secret
data:.dockerconfigjson: ewoJImF1dGhzIjogewoJCSIxOTIuMTY4LjIzLjEwIjogewoJCQkiYXV0aCI6ICJZV1J0YVc0NlNHRnlZbTl5TVRJek5EVT0iCgkJfSwKCQkiaHViLmNvbSI6IHsKCQkJImF1dGgiOiAiWVdSdGFXNDZTR0Z5WW05eU1USXpORFU9IgoJCX0KCX0KfQ== #复制粘贴上述查看的登陆凭据
type: kubernetes.io/dockerconfigjson#创建 secret 资源
kubectl create -f harbor-pull-secret.yaml#查看 secret 资源
kubectl get secret#创建资源从 harbor 中下载镜像
cd /opt/demo
vim tomcat-deployment.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:name: my-tomcat
spec:replicas: 2template:metadata:labels:app: my-tomcatspec:imagePullSecrets: #添加拉取 secret 资源选项- name: harbor-pull-secret #指定 secret 资源名称containers:- name: my-tomcatimage: 192.168.80.30/kgc-project/tomcat:v1 #指定 harbor 中的镜像名ports:- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:name: my-tomcat
spec:type: NodePortports:- port: 8080targetPort: 8080nodePort: 31111selector:app: my-tomcat
#node节点删除之前在 node 节点下载的 Tomcat 镜像
docker rmi tomcat:8.0.52
docker rmi 192.168.23.10/kgc-project/tomcat:v1
docker images
#master 节点创建资源
kubectl create -f tomcat-deployment.yamlkubectl get pods#查看 Pod 的描述信息,可以发现镜像时从 harbor 下载的
kubectl describe pod my-tomcat-5487585446-d8j2h#刷新 harbor 页面,可以看到镜像的下载次数增加了
上一篇:TCP详解简单易懂