大纲:
一、为什么要安装
二、helm的安装
三、tiller的安装
四、检验是否安装的正确
五、tiller删除
一、为什么要安装
1、helm的作用:像centos7中的yum命令一样,管理软件包,只不过helm这儿管理的是在k8s上安装的各种容器。
2、tiller的作用:像centos7的软件仓库一样,简单说类似于/etc/yum.repos.d目录下的xxx.repo。
二、helm的安装
helm的安装非常的简单,首先在github上下载helm的二进制安装包,然后直接将二进制文件移动到相关目录下就可以了。
下载url:https://github.com/helm/helm/releases
[root@cma-cluster-slave5 k8s]# tar -zxvf helm-v2.11.0-linux-amd64.tar.gz
[root@cma-cluster-slave5 k8s]# cd linux-amd64/
[root@cma-cluster-slave5 linux-amd64]# mv helm /usr/bin/
测试一下:
[root@cma-cluster-slave5 linux-amd64]# helm
看见出现一大推提示就是安装成功了
三、tiller的安装
Tiller有多种安装方式,比如本地安装或以pod形式部署到Kubernetes集群中。本文以pod安装为例,安装Tiller的最简单方式是helm init, 该命令会检查helm本地环境设置是否正确,helm init会连接kubectl默认连接的kubernetes集群(可以通过kubectl config view查看),一旦连接集群成功,tiller会被安装到kube-system namespace中。
为了安装服务端tiller,还需要在这台机器上配置好kubectl工具和kubeconfig文件,确保kubectl工具可以在这台机器上访问apiserver且正常使用。 这里的node1节点以及配置好了kubectl。
因为Kubernetes APIServer开启了RBAC访问控制,所以需要创建tiller使用的service account: tiller并分配合适的角色给它。 详细内容可以查看helm文档中的Role-based Access Control。 这里简单起见直接分配cluster-admin这个集群内置的ClusterRole给它。
创建rbac-config.yaml文件:
[root@cma-cluster-slave5 linux-amd64]# vim rbac-config.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: tiller
namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
name: tiller
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: tiller
namespace: kube-system
1、一种博主未知的安装方式
[root@cma-cluster-slave5 linux-amd64]# pwd
/opt/k8s/linux-amd64
[root@cma-cluster-slave5 linux-amd64]# ls
helm LICENSE README.md tiller
这个目录下的tiller二进制是一个本地安装的文件,怒在下愚钝,暂不知如何使用。
2、博主采用的安装方式
直接使用docker拉取这个镜像,查看dockerfile文件就可以知道这是直接从谷歌镜像库拉取过来的了,感谢这位热心的网友哈。
[root@cma-cluster-slave5 linux-amd64]# docker pull fishead/gcr.io.kubernetes-helm.tiller:v2.11.0
因为 helm init 初始化的时候会在k8s集群中安装tiller的服务端,用到了此镜像。
[root@cma-cluster-slave5 linux-amd64]# kubectl create -f rbac-config.yaml
serviceaccount/tiller created
clusterrolebinding.rbac.authorization.k8s.io/tiller created
安装tiller
helm init --upgrade --tiller-image fishead/gcr.io.kubernetes-helm.tiller:v2.11.0 --stable-repo-url http://10.16.48.44/
备注:上面命令中的–stable-repo-url http://10.16.48.44/这个是我用apache http做的,这儿下面放了一个文件index.yaml文件,可以从这儿下载到https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts/index.yaml
在浏览器中输入http://10.16.48.44/index.yaml,将显示刚刚下载的页面(冒充的,嘿嘿)
四、检验是否安装的正确
检验tiller是否安装上
[root@cma-cluster-slave5 home]# kubectl get pod -n kube-system|grep tiller
tiller-deploy-7d574cfdcc-px2wh 1/1 Running 0 1d
查看tiller的repo仓库
[root@cma-cluster-slave5 home]# helm repo list
NAME URL
stable http://10.16.48.44/
local http://127.0.0.1:8879/charts
检查客户端和服务端是否一致
[root@cma-cluster-slave5 home]# helm version
Client: &version.Version{SemVer:"v2.11.0", GitCommit:"2e55dbe1fdb5fdb96b75ff144a339489417b146b", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.11.0", GitCommit:"2e55dbe1fdb5fdb96b75ff144a339489417b146b", GitTreeState:"clean"}
上面中的GitCommit两个值相同,就是版本一致(博主猜测,因为碰见过报版本不一致的错误,这里就不做错误的复现了)
五、tiller删除
可能会发生安装后需要删除或者安装不成功的情况
[root@cma-cluster-slave5 home]# helm reset -f
[root@cma-cluster-slave5 home]# rm -rf /root/.helm
然后重新安装即可