###RUN SPARK ON MESOS
###单机版 ####模式一(测试通过)
- Mesos运行在host上
- Spark driver 和 executor运行docker上
#####1.搭建Mesos单机环境 详情 #####2.运行Spark demo 启动spark driver container
docker run -it --net host registry.dataman.io/centos7/spark:1.5.1 bash
修改spark配置文件
cd $SPARK_HOME
vi conf/spark-defaults.conf
########################
spark.mesos.executor.home /spark-1.5.1-bin-hadoop2.6
spark.mesos.executor.docker.image registry.dataman.io/centos7/spark:1.5.1
########################
vi conf/spark-env.sh
#####################
export JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:jre/bin/java::")
export MASTER=mesos://$MESOS_MASTER_IP:5050 #将MESOS_MASTER_IP替换为ip地址
export SPARK_HOME=/spark-1.5.1-bin-hadoop2.6
export SPARK_LOCAL_IP=`ifconfig eth0 | awk '/inet addr/{print substr($2,6)}'
export SPARK_LOCAL_HOSTNAME=`ifconfig eth0 | awk '/inet addr/{print substr($2,6)}'
#####################
启动Spark shell
bin/spark-shell
运行demo
sc.parallelize(1 to 1000) count
###模式二(测试不通过)
- Mesos通过数人云发布
- spark driver和executor运行在container里
####1.通过数人云发布mesos
####2.运行spark(同模式一步骤2)
---一直在hang住。单机版都不可以---
解决办法:让spark找到master ip