- Spark standalone on Kubernetes
- 在Kubernetes上启动spark
- 访问spark
Spark standalone on Kubernetes
该项目是基于 Spark standalone 模式,对资源的分配调度还有作业状态查询的功能实在有限,对于让 spark 使用真正原生的 kubernetes 资源调度推荐大家尝试 https://github.com/apache-spark-on-k8s/
本文中使用的镜像我已编译好上传到了时速云上,大家可以直接下载。
index.tenxcloud.com/jimmy/spark:1.5.2_v1
index.tenxcloud.com/jimmy/zeppelin:0.7.1
代码和使用文档见Github地址:https://github.com/rootsongjc/spark-on-kubernetes
本文中用到的 yaml 文件可以在 $manifests-spark-standalone 目录下找到,也可以在上面的 https://github.com/rootsongjc/spark-on-kubernetes/ 项目的 manifests 目录下找到。
注意:时速云上本来已经提供的镜像 index.tenxcloud.com/google_containers/spark:1.5.2_v1
,但是该镜像似乎有问题,下载总是失败。
在Kubernetes上启动spark
创建名为spark-cluster的namespace,所有操作都在该namespace中进行。
所有yaml文件都在manifests
目录下。
$ kubectl create -f manifests/
将会启动一个拥有三个worker的spark集群和zeppelin。
同时在该namespace中增加ingress配置,将spark的UI和zeppelin页面都暴露出来,可以在集群外部访问。
该ingress后端使用traefik。
访问spark
通过上面对ingress的配置暴露服务,需要修改本机的/etc/hosts文件,增加以下配置,使其能够解析到上述service。
172.20.0.119 zeppelin.traefik.io
172.20.0.119 spark.traefik.io
172.20.0.119是我设置的VIP地址,VIP的设置和traefik的配置请查看kubernetes-handbook。
spark ui
访问http://spark.traefik.io
zeppelin ui
访问http://zepellin.treafik.io