通过搭建MySQL掌握k8s(Kubernetes)重要概念(上):网络与持久卷

前一篇"通过实例快速掌握 k8s(Kubernetes)核心概念[1]"讲解了 k8s 的核心概念,有了核心概念整个骨架就完整了,应付无状态程序已经够了,但还不够丰满。应用程序分成两种,无状态和有状态的。一般的前段和后端程序都是无状态的,而数据库是有状态的,他需要把数据存储起来,这样即使断电,数据也不会丢失。要创建有状态的程序,还需要引入另外一些 k8s 概念。它们虽然不是核心,但也很重要,共有三个,持久卷,网络和参数配置。掌握了这些之后,基本概念就已经做到了全覆盖,k8s 就已经入门了。我们通过搭建 MySQL 来熟悉这些 k8s 概念。容器本身是无状态的,一旦出现问题它会被随时销毁,它存储的数据也就丢失了。MySQL 需要一个能保存数据的持久层,在容器被销毁之后仍然存在,k8s 叫它持久卷。

创建和验证 MySQL 镜像:

在 k8s 上安装 MySQL 之前,先用 Docker 验证一下 MySQL 镜像:

docker run --name test-mysql -p 3306:33060 -e MYSQL_ROOT_PASSWORD=root -d mysql:5.7

“root”是根(root)用户的 password,这里是在创建 MySQL 容器时指定“root”用户的 password。“test-MySQL”是容器的名字。“mysql:5.7”用的是 docker 库里的“MySQL”5.7 版本。这次没有用最新的 8.0 版,因为新版跟以前的客户端不兼容,需要修改很多东西。所用的镜像是全版的 Linux,因而文件比较大,有 400M。

容器建好了之后,键入“docker logs test-mysql”,查看日志。

...
-10-03T06:18:50.439784Z 0 [System] [MY-010931] [Server] /usr/sbin/mysqld: ready for connections. Version: '8.0.17'  socket: '/var/run/mysqld/mysqld.sock'  port: 3306  MySQL Community Server - GPL.
-10-03T06:18:50.446543Z 0 [System] [MY-011323] [Server] X Plugin ready for connections. Socket: '/var/run/mysqld/mysqlx.sock' bind-address: '::' port: 33060

查看容器状态。

vagrant@ubuntu-xenial:~$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS              PORTS                 NAMES
b9c50420f5b        mysql:latest        "docker-entrypoint.s…"   11 minutes ago      Up 11 minutes       3306/tcp, 33060/tcp   test-mysql

为了验证 MySQL,需要在虚机上安装 MySQL 客户端。

sudo apt-get -y -f install mysql-client

完成之后,键入“docker inspect test-mysql”找到容器 IP 地址, 下面显示"172.17.0.2"是容器 IP 地址。

vagrant@ubuntu-xenial:~$ docker inspect test-mysql
...
  "Gateway": "172.17.0.1",
  "IPAddress": "172.17.0.2",
  "IPPrefixLen": 16,
  "IPv6Gateway": "",
...

键入“mysql -h 172.17.0.2 -P 3306 –protocol=tcp -u root -p”登录到 MySQL,"172.17.0.2"是 MySQL 的 IP 地址,“3306”是 MySQL 端口,是在创建镜像时设定的对外开放的端口,“root”是用户名,“-p”是 password 的参数选项。敲入命令后,系统要求输入 password,输入后,显示已成功连接到 MySQL。

vagrant@ubuntu-xenial:~$ mysql -h 172.17.0.2 -P 3306 --protocol=tcp -u root -p
...
Welcome to the MySQL monitor.  Commands end with ; or g.
Your MySQL connection id is 3
Server version: 5.7.27 MySQL Community Server (GPL)
...

在 k8s 上安装 MySQL

在 k8s 上安装 MySQL 分成三个部分,创建部署文件,创建服务文件和安装测试。

部署(Deployment)文件

下面是部署配置文件。在上一篇文章中已经详细讲解了文件格式,所有的 k8s 的配置文件格式都是相同的。“template”之上是部署配置,从“template”向下是 Pod 配置。从“containers”开始是 Pod 里面的容器配置。“env:”是环境变量,这里通过环境变量来设置数据库的用户名和口令,后面还会详细讲解。MySQL 的端口是“3306”

apiVersion: apps/v1
kind: Deployment  # 类型是部署
metadata:
  name: mysql-deployment  # 对象的名字
spec:
  selector:
    matchLabels:
      app: mysql #用来绑定label是“mysql”的Pod
  strategy:
    type: Recreate
  template:   # 开始定义Pod
    metadata:
      labels:
        app: mysql  #Pod的Label,用来标识Pod
    spec:
      containers: # 开始定义Pod里面的容器
        - image: mysql:5.7
          name: mysql-con
          imagePullPolicy: Never
          env:   #  定义环境变量
            - name: MYSQL_ROOT_PASSWORD  #  环境变量名
              value: root  #  环境变量值
            - name: MYSQL_USER
              value: dbuser
            - name: MYSQL_PASSWORD
              value: dbuser
          args: ["--default-authentication-plugin=mysql_native_password"]
          ports:
            - containerPort: 3306 # mysql端口
              name: mysql

服务(Service)文件

下面是服务配置文件,这个与上一篇讲的配置基本相同,这里就不解释了。

apiVersion: v1
kind: Service
metadata:
  name: mysql-service
  labels:
    app: mysql
spec:
  type: NodePort
  selector:
      app: mysql
  ports:
  - protocol : TCP
    nodePort: 30306
    port: 3306
    targetPort: 3306

安装测试:

有了配置文件后,下面就开始创建 MySQL。在创建时要按照顺序,依次进行,先从最底层的对象开始创建。

创建部署和服务:

kubectl apply -f mysql-deployment
kubectl apply -f mysql-service.yaml

查看服务:

vagrant@ubuntu-xenial:~$ kubectl get service
NAME            TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)          AGE
kubernetes      ClusterIP   10.96.0.1       <none>        443/TCP          3h42m
mysql-service   NodePort    10.102.253.32   <none>        3306:30306/TCP   3h21m

</none></none>

“mysql-service”的端口(PORT(S))有两个,“3306”是 k8s 内部端口,“30306”是外部端口。由于“NodePort”已经打开了对外端口,这时就可以在虚拟机上通过“30306”端口访问 MySQL。

vagrant@ubuntu-xenial:~$  mysql -h localhost -P 30306 --protocol=tcp -u root -p
Enter password:
Welcome to the MySQL monitor.  Commands end with ; or g.
Your MySQL connection id is 6
Server version: 5.7.27 MySQL Community Server (GPL)
...
mysql>

这时本地虚机已经与 k8s 联通了,下一步就可以在宿主机( 笔记本)上用图形客户端来访问 MySQL 了。我是在 Vagrant 里设定了私有网络,设定的虚机 IP 地址是 "192.168.50.4”,就用这个地址和 30306 端口来访问 MySQL。

网络:

这里的网络有两层含义,一层是 k8s 网络,就是让 k8s 内部服务之间可以互相访问,并且从 k8s 集群外部可以访问它内部的服务。另一层是宿主机(笔记本)和虚机之间的网路,就是在宿主机上可以访问虚机。这两层都通了之后,就可以在宿主机直接访问 k8s 集群里面的 MySQL。

k8s 网络:

k8s 的网络也有两层含义,一个是集群内部的,k8s 有内部 DNS,可以通过服务名进行寻址。另一个是从集群外部访问集群内部服务,一共有四种方式,详情请见“Kubernetes NodePort vs LoadBalancer vs Ingress? When should I use what?[2]”

  • LoadBalancer:Load Balancer 不是由 K8s 来管理的。k8s 通过 Load Balancer 把外部请求转发给内部服务。这种方法要求有 Load Balancer,一般云环境里会提供,但自己的本地环境就没有了。不过 Minikube 提供了一个程序可以模拟 Load Balancer。你只要键入“minikube tunnel ”,它就会模拟 Load Balancer,对请求进行转发。只不过当你在使用“Load Balancer”时(在 Minikube 环境里),每次运行服务时产生的 IP 和端口是随机的,不能控制,使用起来不太方便,但在正式环境里就没有这个问题。下面是服务信息,“EXTERNAL-IP”是"pending",说明外部网络不通。

    $ kubectl get service
    NAME            TYPE           CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
    kubernetes      ClusterIP      10.96.0.1        <none>        443/TCP        31d
    nginx-service   LoadBalancer   10.104.228.212   <pending>     80:31999/TCP   45h

    </pending></none>

下面是在运行“minikube tunnel ”(在另一个窗口运行)之后的服务信息,“EXTERNAL-IP”是 “10.104.228.212”。这时 Minikube 的 LoadBalancer 已经起作用了,现在就可以通过 IP 地址从外部访问 k8s 内部的服务了,“80”是 k8s 内部端口,“31999”是 k8s 对外端口。

$ kubectl get service
NAME            TYPE           CLUSTER-IP       EXTERNAL-IP      PORT(S)        AGE
kubernetes      ClusterIP      10.96.0.1        <none>           443/TCP        31d
nginx-service   LoadBalancer   10.104.228.212   10.104.228.212   80:31999/TCP   45h

</none>

这是一种比较好的方式,但不能控制它的 IP 地址和端口,因此我暂时没有采用它。

  • NodePort:这种方法可以在每个 Node 上开放一个对外端口,每一个指向这个端口的请求都被转发给一个服务。它的好处是你可以指定一个固定的端口(端口的取值范围只能是 30000–32767),这样我在笔记本上访问 MySQL 时就不用更换端口了。如果你不指定,系统会随机分配一个。它的缺点是每个端口只能有一个服务,而且端口取值受限制,因此不适合生产环境。但在 Windows 环境,由于我用 Vagrant 固定了虚机的 IP 地址,这个问题就不存在了。因此它是最好的选择。
  • ClusterIP: 这个只能在 k8s 集群内部寻址。
  • Ingress: 这是推荐的方法,一般在生产环境中使用。Load balancer 的问题是每一个服务都要有一个 Load balancer,服务多了之后会很麻烦,这时就会用 Ingress,它的缺点是配置起来比较复杂。Minikube 自带了一个基于 Nginx 的 Ingress 控制器,只需运行“minikube addons enable ingress”,就行了。但 Ingress 的设置较复杂,因此这里没有用它。

虚拟机网络:

这里讲的是宿主机(笔记本)和虚机之间的互相访问,主要是从宿主机访问虚机。我用的是 Vagrant, 因此要在 Vagran 的配置文件(Vagrantfile)里进行配置。它有两种方法:

  • 端口转发:它可以把笔记本上特定端口的请求转发到虚机的指定端口,还是比较方便的。只是如果事先不知道是哪个端口,或端口是变化的,就比较麻烦。Vagrant 的配置命令:“config.vm.network "forwarded_port", guest: 3306, host: 3306, auto_correct: true”
  • 私有网络:这是一种很灵活的方式。可以给宿主机和虚机各自设定一个固定的 IP 地址,这样可以双向互访。任何端口都没有问题,唯一的缺点就是你要事先确定 IP 地址。详情请参见“Vagrant reverse port forwarding?”[3]。Vagrant 的配置命令:“config.vm.network "private_network", ip: "192.168.50.4”

当配置私有网络时,需要在笔记本的 VirtualBox 上配置“Host-only Adapter”,如下图所示。

但这会造成在 Vagrant 启动 Minikube 时产生如下错误:“VBoxManage.exe: error: Failed to create the host-only adapter”。这是 VirtualBox 的一个 Bug,你可以下载一个软件解决,详见这里[4]. 这个软件已经是四年之前的了,开始还担心是否与现在的 VirtualBox 版本兼容,结果很好用,而且它是一个单独运行的软件,不会与现在的软件冲突。只要在启动虚机之前,用管理员身份运行这个补丁就行了。另外一个问题是,我原来使用的是 5.x 版的 VirtualBox,上图中只能选“NAT”,不能选“Host-only Adapter”,升级到 6.X 之后才能选“Host-only Adapter”。但当虚机重新启动之后,它会自动变回“NAT”,不过私有网络还是可用。

创建持久卷(PersistentVolume):

k8s 卷的概念包括卷和持久卷。

卷(volume):

卷是 k8s 的存储概念,它依附于 Pod,不能单独存在。但它不是在容器层。因此如果容器被重新启动,卷仍然在。但如果 Pod 重新启动,卷就丢失了。如果一个 Pod 里有多个容器,那么这些容器共享 Pod 的卷。你可以把卷看成是一个目录,里面可以存储各种文件。k8s 支持各种类型的卷,例如本地文件系统和各种云存储。

持久卷(PersistentVolume):

是对卷的一个封装,目的是为了更好地管理卷。它的生命周期不需要与 Pod 绑定,它可以独立于 Pod 存在。

持久卷申请(PersistentVolumeClaim):

是对持久卷资源的一个申请,你可以申请特定的存储容量的大小和访问模式,例如读写模式或只读模式。k8s 会根据持久卷申请分配适合的持久卷,如果没有合适的,系统会自动创建一个。持久卷申请是对持久卷的一个抽象,就像编程里的接口(Interface),它可以有不同的具体实现(持久卷)。例如,阿里云和华为云支持的存储系统不同,它生成的持久卷也不相同。持久卷是与特定的存储实现绑定的。那你要把程序从阿里云移植到华为云,怎么保证配置文件的兼容性呢?你就用持久卷申请来做这个接口,它只规定存储容量大小和访问模式,而由阿里云和华为云自动生成各自云里满足这个接口需求的持久卷. 不过,它还有一个限制条件,那就是持久卷申请和持久卷的 StorageClass 需要匹配,这使它没有接口灵活。后面会详细讲解。

动态持久卷:

在这种情况下,你只需创建持久卷申请(不需要单独创建持久卷),然后把持久卷申请与部署绑定。系统会按照持久卷申请自动创建持久卷。下面是持久卷申请配置文件。其中“storage:1Gi”,是指申请的空间大小是 1G。

持久卷申请配置文件:

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mysql-pv-claim
  labels:
    app: mysql
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1Gi #持久卷的容量是 1 GB

挂载持久卷申请的部署:

下面是挂载了持久卷申请的部署配置文件。它通过把持久卷申请当做持久卷来使用,与 Pod 进行绑定。请阅读文件里有关持久卷的注释。

apiVersion: apps/v1
kind: Deployment
metadata:
  name: mysql-deployment
spec:
  selector:
    matchLabels:
      app: mysql
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: mysql
    spec:
      containers:
        - image: mysql:5.7
          name: mysql-con
          imagePullPolicy: Never
          env:
            - name: MYSQL_ROOT_PASSWORD
              value: root
            - name: MYSQL_USER
              value: dbuser
            - name: MYSQL_PASSWORD
              value: dbuser
          args: ["--default-authentication-plugin=mysql_native_password"]
          ports:
            - containerPort: 3306
              name: mysql
          volumeMounts: # 挂载Pod上的卷到容器
            - name: mysql-persistent-storage # Pod上卷的名字,与“volumes”名字匹配
              mountPath: /var/lib/mysql # 挂载的Pod的目录
      volumes:   # 挂载持久卷到Pod
        - name: mysql-persistent-storage # 持久卷名字, 与“volumMounts”名字匹配
          persistentVolumeClaim:
            claimName: mysql-pv-claim  # 持久卷申请名字

这里只指定了 Pod 的挂载目录,并没有指定虚拟机(宿主机)的目录,后面会讲到如何找到虚拟机的目录(系统自动分配挂载目录)。

运行部署:

键入“kubectl apply -f mysql-volume.yaml”创建持久卷申请,在创建它的同时,系统自动创建持久卷。

查看持久卷申请

vagrant@ubuntu-xenial:~/dockerimages/kubernetes/mysql$ kubectl get pvc
NAME             STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
mysql-pv-claim   Bound    pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa   1Gi        RWO            standard       10m

查看持久卷申请详细信息

vagrant@ubuntu-xenial:/mnt$ kubectl describe pvc mysql-pv-claim
Name:          mysql-pv-claim
Namespace:     default
StorageClass:  standard
Status:        Bound
Volume:        pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa
Labels:        app=mysql
...

显示持久卷:

vagrant@ubuntu-xenial:/mnt$ kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                    STORAGECLASS   REASON   AGE
pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa   1Gi        RWO            Delete           Bound    default/mysql-pv-claim   standard                24h

键入“kubectl describe pv pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa”, 显示持久卷详细信息。从这里可以看出,虚拟机上的持久卷在如下位置:“Path:/tmp/hostpath-provisioner/pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa”。

vagrant@ubuntu-xenial:/mnt$ kubectl describe pv pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa
Name:            pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa
Labels:          <none>
Annotations:     hostPathProvisionerIdentity: 19948fdf-e67f-11e9-8fbd-026a5b40726f
                 pv.kubernetes.io/provisioned-by: k8s.io/minikube-hostpath
Finalizers:      [kubernetes.io/pv-protection]
StorageClass:    standard
Status:          Bound
Claim:           default/mysql-pv-claim
Reclaim Policy:  Delete
Access Modes:    RWO
VolumeMode:      Filesystem
Capacity:        1Gi
Node Affinity:   <none>
Message:
Source:
    Type:          HostPath (bare host directory volume)
    Path:          /tmp/hostpath-provisioner/pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa
    HostPathType:
Events:            <none>

</none></none></none>

查看 MySQL 目录信息:

vagrant@ubuntu-xenial:/tmp/hostpath-provisioner/pvc-ac6c88d5-ef5a-4a5c-b499-59715a2d60fa$ ls -al
total 188488
drwxrwxrwx 6  999 docker     4096 Oct  4 13:23 .
drwxr-xr-x 3 root root       4096 Oct  4 12:58 ..
-rw-r----- 1  999 docker       56 Oct  4 12:58 auto.cnf
-rw------- 1  999 docker     1679 Oct  4 12:59 ca-key.pem
-rw-r--r-- 1  999 docker     1107 Oct  4 12:59 ca.pem
-rw-r--r-- 1  999 docker     1107 Oct  4 12:59 client-cert.pem
-rw------- 1  999 docker     1679 Oct  4 12:59 client-key.pem
-rw-r----- 1  999 docker      668 Oct  4 13:21 ib_buffer_pool
-rw-r----- 1  999 docker 79691776 Oct  4 13:23 ibdata1
-rw-r----- 1  999 docker 50331648 Oct  4 13:23 ib_logfile0
-rw-r----- 1  999 docker 50331648 Oct  4 12:58 ib_logfile1
-rw-r----- 1  999 docker 12582912 Oct  4 13:24 ibtmp1
drwxr-x--- 2  999 docker     4096 Oct  4 12:58 mysql
drwxr-x--- 2  999 docker     4096 Oct  4 12:58 performance_schema
-rw------- 1  999 docker     1679 Oct  4 12:59 private_key.pem
-rw-r--r-- 1  999 docker      451 Oct  4 12:59 public_key.pem
-rw-r--r-- 1  999 docker     1107 Oct  4 12:59 server-cert.pem
-rw------- 1  999 docker     1675 Oct  4 12:59 server-key.pem
drwxr-x--- 2  999 docker     4096 Oct  4 13:18 service_config
drwxr-x--- 2  999 docker    12288 Oct  4 12:58 sys

持久卷的回收模式:

当持久卷和持久卷申请被删除后,它有三种回收模式。

  • 保持(Retain):当持久卷申请被删除后,持久卷仍在。你可以手动回收持久卷里的数据。
  • 删除(Delete):持久卷申请和持久卷都被删除,底层存储的数据也会被删除。当使用动态持久卷时,缺省的模式是 Delete。当然,你可以在持久卷被创建之后修改它的回收模式。
  • 回收(Recycle):这种方式已经不推荐使用了,建议用 Retain 代替。

静态持久卷:

动态持久卷的一个问题是它的缺省回收模式是“删除”,这样当虚机重新启动后,持久卷会被删除。当你重新运行部署时,k8s 会创建一个新的 MySQL,这样原来 MySQL 里的新建信息就会丢失,这是我们不愿意看到的。虽然你可以手动修改回收方式为“保持”,但还是要手动回收原来持久卷里的数据。一个解决办法是把持久卷建在宿主机上,这样即使虚机出了问题被重新启动,MySQL 里的新建信息依然不会丢失。如果是在云上,就会有专门的的存储层,如果是本地,大致有三种方式:

  • Local:把存储从宿主机挂载到 k8s 集群上. 详情请参见:"Volumes[5]".
  • HostPath:也是把存储从宿主机挂载到 k8s 集群上,但它有许多限制,例如只支持单节点(Node),而且只支持“ReadWriteOnce”模式。详情请参见:"hostPath as volume in kubernetes[6]".
  • NFS:网络文件系统,这种是最灵活的,但需要安装 NFS 服务器。详情请参见:"Kubernetes Volumes Guide[7]".

我选择了比较简单的“Local”方式。在这种方式下,必须单独创建持久卷,不能 只创建持久卷申请而让系统自动创建持久卷。

下面是使用“Local”方式的配置文件,它把持久卷和持久卷申请写在了一个文件里。当用“Local”方式时,需要设置“nodeAffinity”部分,其中“values:- minikube” 的“Minikube”是 k8s 集群 Node 的名字,“Minikube”只支持一个 Node,既是“Master Node”,又是“Worker Node”。

持久卷和申请的配置文件:

apiVersion: v1
kind: PersistentVolume
metadata:
  name: mysql-pv
spec:
  capacity:
    storage: 1Gi
  volumeMode: Filesystem
  accessModes:
    - ReadWriteOnce
  storageClassName:  standard #持久卷存储类型,它需要与持久卷申请的类型相匹配
  local:
    path: /home/vagrant/database/mysql #宿主机的目录
  nodeAffinity:
    required:
      nodeSelectorTerms:
        - matchExpressions:
            - key: kubernetes.io/hostname
              operator: In
              values:
                - minikube # Node的名字
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mysql-pv-claim
  labels:
    app: mysql
spec:
  accessModes:
    - ReadWriteOnce
  # storageClassName:  # 这里的存储类型注释掉了
  resources:
    requests:
      storage: 1Gi #1 GB

如果不知道 Node 名字,可用如下命令查看:

vagrant@ubuntu-xenial:/$ kubectl get node
NAME       STATUS   ROLES    AGE    VERSION
minikube   Ready    master   6d3h   v1.15.2

改用静态持久卷之后,只有持久卷配置文件发生了变化,部署和服务的配置文件没有变。重新运行持久卷和部署,成功之后,即使重启虚拟机,MySQL 里面的新建内容也没有丢失。

注意这里 storageClassName 的用法。k8s 规定持久卷和持久卷申请的 storageClassName 必须匹配,这时才会把持久卷分配给持久卷申请。我们这里的持久卷申请没有指定 storageClassName,这时系统会使用缺省的 storageClass。

查看是否安装了缺省的 storageClass

vagrant@ubuntu-xenial:/$ kubectl get sc
NAME                 PROVISIONER                AGE
standard (default)   k8s.io/minikube-hostpath   6d3h
vagrant@ubuntu-xenial:/$

查看缺省的 storageClass 详细信息

vagrant@ubuntu-xenial:/$ kubectl describe sc
Name:                  standard
IsDefaultClass:        Yes
Annotations:           storageclass.kubernetes.io/is-default-class=true
Provisioner:           k8s.io/minikube-hostpath
Parameters:            <none>
AllowVolumeExpansion:  <unset>
MountOptions:          <none>
ReclaimPolicy:         Delete
VolumeBindingMode:     Immediate
Events:                <none>

</none></none></unset></none>

从这里可以看出,Minikube 安装了缺省的 storageClass,它的名字是“standard”。上面的持久卷申请里没有指定 storageClass,因此系统使用缺省的 storageClass 与之匹配,而上面的持久卷的 storageClassName 是“standard”,正好能配上。详情请见“Dynamic Provisioning and Storage Classes in Kubernetes[8]”

踩过的坑:

  1. 使用 Hyper-V 还是 VirtualBoxHyper-V 和 VirtualBox 是不兼容的,只能选一个(当然你可以在这两者之间切换,但太麻烦了)。我在 Windows 上装了 VirtualBox,运行正常。进入 Vagrant 之后,安装了“ubuntu”版的 Linux。这时,当你启动 Minikube 时,可以键入“minikube start –vm-driver=virtualbox”,但系统显示“This computer doesn’t have VT-X/AMD-v enabled. Enabling it in the BIOS is mandatory”。我按照网上的建议去修改 BIOS 的“VT-X/AMD-v”,但我的 BIOS 就没有这个选项。其他的方法也都试过了,没有一个成功的。但因为已经装了 VirtualBox,就不能用 Hyper-V 了。就只能用另外一个方法,使用命令“minikube start –vm-driver=none”。幸好这个方法工作得很好。

当用“minikube start –vm-driver=virtualbox”时,你是先建了虚拟机,再在虚拟机上运行 Minikube。当用“minikube start –vm-driver=none”时,是直接在宿主机上运行 Minikube。但由于我的 Windows 版本不能直接支持 k8s,我已经在 Windows 上装了 Linux 虚机,并用 Vagrant 进行管理。如果用“minikube start –vm-driver=virtualbox”,就是在 Linux 虚机上又装了一个虚机。现在用“minikube start –vm-driver=none”,表面上看是在宿主机上运行,实际上已经运行在 Windows 的 Linux 虚机上了。

  1. 登录 k8s 集群当用“minikube start –vm-driver=none”启动 Minikube 时,不能用“minikube ssh”登录 k8s 集群,因为这时已经没有虚机了,是直接安装在宿主机上,因此不需要“minikube ssh”。但你可以登录到 Pod 上,可用如下命令:

" kubectl exec -ti mysql-deployment-56c9cf5857-fffth — /bin/bash"。其中“mysql-deployment-56c9cf5857-fffth”是 Pod 名字。

  1. 创建重名 PV 或 PVC当原来的 PV 或 PVC 还在,而你又创建了一个新的 PV, 并与原来的重名,则会得到如下错误:

The persistentvolumeclaim "mysql-pv-claim" is invalid: spec: forbidden: is immutable after creation except resources.requests for bound claims 这时,你需要将原来的 PV 或 PVC 删掉,再重新创建新的。

9