本地搭建K8S开发环境
迪丽瓦拉
2024-04-11 11:06:03
0

有时候我们需要在本地搭建一个开发测试环境,这个环境可能会包括很多不同的软件组件,例如Kafka, PG, Redis之类的。利用Kubernetes我们可以很方便的搭建一个环境,并把这些需要的组件部署到环境上面去。这里我选择在本地安装minikube,然后快速地创建一个k8s集群。具体minikube的安装很简单,直接参考官网的介绍即可。

下面我们部署一些常用的组件到这个K8S环境中去。

Kafka

首先我们先部署一个Kafka。先定义一个名为kafka的namespace,新建一个名为00-namespace.yaml文件,内容如下:

apiVersion: v1
kind: Namespace
metadata:name: "kafka"labels:name: "kafka"

运行kubectl apply -f 00-namespace.yaml进行部署。

下一步就是部署一个zookeeper,创建一个名为01-zookeeper.yaml,内容如下:

apiVersion: v1
kind: Service
metadata:labels:app: zookeeper-servicename: zookeeper-servicenamespace: kafka
spec:type: NodePortports:- name: zookeeper-portport: 2181nodePort: 30181targetPort: 2181selector:app: zookeeper
---
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: zookeepername: zookeepernamespace: kafka
spec:replicas: 1selector:matchLabels:app: zookeepertemplate:metadata:labels:app: zookeeperspec:containers:- image: wurstmeister/zookeeperimagePullPolicy: IfNotPresentname: zookeeperports:- containerPort: 2181

运行kubectl apply -f 01-zookeeper.yaml进行部署

运行kubectl get service -n kafka,可以查看刚才成功创建的zookeeper-service的状态,记录下cluster-IP

之后就可以部署kafka了,创建一个名为02-kafka.yaml,内容如下,里面的zookeeper-internal-ip用刚才记录的cluster-IP来替代:

apiVersion: v1
kind: Service
metadata:labels:app: kafka-brokername: kafka-servicenamespace: kafka
spec:ports:- port: 9092selector:app: kafka-broker
---
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: kafka-brokername: kafka-brokernamespace: kafka
spec:replicas: 1selector:matchLabels:app: kafka-brokertemplate:metadata:labels:app: kafka-brokerspec:hostname: kafka-brokercontainers:- env:- name: KAFKA_BROKER_IDvalue: "1"- name: KAFKA_ZOOKEEPER_CONNECTvalue: :2181- name: KAFKA_LISTENERSvalue: PLAINTEXT://:9092- name: KAFKA_ADVERTISED_LISTENERSvalue: PLAINTEXT://kafka-broker:9092image: wurstmeister/kafkaimagePullPolicy: IfNotPresentname: kafka-brokerports:- containerPort: 9092

运行kubectl apply -f 02-kafka.yaml进行部署。

运行kubectl get pods -n kafka,可以看到kafka和zookeeper两个pod都能正常运行。在以上的kafka的yaml文件中,我们配置了一个kafka_advertised_listeners,里面指定了kafka-broker:9092,这个是用于kafka和zookeeper之间互相通信的。我们需要在本地的/etc/hosts里面加上一条记录127.0.0.1 kafka-broker

下面我们可以测试一下kafka是否能正常工作,运行以下命令把kafka pod的9092端口暴露出来,使得可以通过访问localhost:9092来访问kafka

kubectl port-forward kafka-broker-5c55f544d4-hrgnv 9092 -n kafka

在本地安装一个名为kafkacat的工具,然后运行以下命令,往test的topic发布一条消息:

echo "hello world!" | kafkacat -P -b localhost:9092 -t test

打开另一个终端,运行以下命令,可以成功接收test主题的消息:

kafkacat -C -b localhost:9092 -t test

由此可见我们已经成功把kafka部署到k8s了

Redis

修改一下刚才的00-namespace.yaml文件,增加一个redis的命名空间,内容如下:

apiVersion: v1
kind: Namespace
metadata:name: "kafka"labels:name: "kafka"
---
apiVersion: v1
kind: Namespace
metadata:name: "redis"labels:name: "redis"

和Kafka类似,创建一个名为03-redis.yaml的文件,内容如下:

apiVersion: v1
kind: Service
metadata:labels:app: redis-mastername: redis-servicenamespace: redis
spec:ports:- port: 6379selector:app: redis-master
---
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: redis-mastername: redis-masternamespace: redis
spec:replicas: 1selector:matchLabels:app: redis-mastertemplate:metadata:labels:app: redis-masterspec:hostname: redis-mastercontainers:- env:- name: MASTERvalue: "true"image: redis:5.0.4imagePullPolicy: IfNotPresentname: redis-masterports:- containerPort: 6379resources:limits:cpu: "0.1"

运行kubectl apply -f 03-redis.yaml进行部署

部署之后,我们可以运行指令kubectl exec -it --namespace=redis redis-master-5989578dfd-gnnfh -- redis-cli进入redis pod,然后可以输入指令set "product" "test"设置一个key为product,value为test的键值对,然后再输入get "product",可以正确的获取到value test

Postgresql

接下来是部署PG数据库,考虑到数据库是一个有状态的应用,当数据库的Pod出现问题失败时,K8S会自动调度一个新的Pod,但是我们不能丢失原有的数据,因此需要把数据库的文件存储在一个host path类型的volume

因为minikube本身也是作为一个docker镜像运行的,因此需要把本地的文件目录mount到minikube里面,这样才能通过hostpath的方式来使用,例如以下的命令:

minikube start --mount --mount-string="/home/roy/data/k8s_pg:/minikubeContainer/pg_data"

建立一个名为04-postgresql.yaml文件,内容如下:

apiVersion: v1
kind: Service
metadata:name: postgresql-servicelabels:app: postgresqlnamespace: postgresql
spec:ports:- port: 5432targetPort: pgselector:app: postgresqltier: pg
---
apiVersion: apps/v1
kind: Deployment
metadata:name: postgresqllabels:app: postgresqlnamespace: postgresql
spec:selector:matchLabels:app: postgresqltier: pgstrategy:type: Recreatetemplate:metadata:labels:app: postgresqltier: pgspec:volumes:- name: pgvolumehostPath:path: /datatype: Directorycontainers:- image: postgres:12name: pg12env:- name: POSTGRES_DBvalueFrom:configMapKeyRef:name: cv-configmapkey: POSTGRES_DB- name: POSTGRES_USERvalueFrom:secretKeyRef:name: cv-secretkey: POSTGRES_USERoptional: false- name: POSTGRES_PASSWORDvalueFrom:secretKeyRef:name: cv-secretkey: POSTGRES_PASSWORDoptional: falseports:- containerPort: 5432name: pgvolumeMounts:- name: pgvolumemountPath: /var/lib/postgresql/data

在这里用到了configmap和secretmap来配置Postgres的环境变量。我们可以在一个kustomization.yaml文件里面来创建这些环境变量,并且把之前创建的这些deployments组合在一起,这样就不用每次都分别创建deployment了。内容如下:

configMapGenerator:
- name: cv-configmapenvs:- cv.envnamespace: postgresql
secretGenerator:
- name: cv-secretliterals:- POSTGRES_USER=postgres- POSTGRES_PASSWORD=postgresnamespace: postgresql
resources:
- 00-namespace.yaml
- 01-zookeeper.yaml
- 02-kafka.yaml
- 03-redis.yaml
- 04-postgresql.yaml

我们可以用kubectl delete deployment把之前创建的deployment删掉,然后执行kubectl apply -k kustomizationdirectory/的命令来进行部署。

相关内容