start-dfs.sh
start-yarn.sh
start-hbase.sh
rm /hadoop/hive/hcatalog/var/log/hcat.pid
/hadoop/hive/hcatalog/sbin/hcat_server.sh start
/hadoop/spark-1.4.0/sbin/start-all.sh
cd /hadoop/azkaban/azkaban-exec-server
bin/azkaban-executor-start.sh
cd /hadoop/azkaban/azkaban-web-server
bin/azkaban-web-start.sh
cd /hadoop/elasticsearch
bin/elasticsearch
cd /home/ubuntu/packages/session-server
java -jar target/SessionServer-0.1.0.jar
cd /home/ubuntu/packages/yellowbook
java -jar target/YellowBook-1.0-SNAPSHOT.jar
cd /home/ubuntu/packages/workflow
java -jar target/WorkflowServer-1.0.0.jar
## 登陆虚拟机 datanode02, 数据分析平台的安装在 /deploy 目录下
ssh datanode02
cd /deploy/CubeAnaly
java -jar CubeAnaly-0.1.0.jar
cd /deploy/AnalyUI
nodejs server.js 9000
cd /deploy/AutoPublishServer
java -jar AutoPublishServer-0.1.0.jar
cd /deploy/ReportServer
java -jar ReportServer-0.1.0.jar
-
/etc/hosts 根据集群规模来配置, datanode也要保持同步
-
配置文件, slaves 配置节点host
-
删除 namenode 上的 /hadoop/hadoop/namespace, /hadoop/hadoop/tmp 文件夹
-
删除所有 datanode 上的 /hadoop/hadoop/data, /hadoop/hadoop/tmp 文件夹
$ stop-dfs.sh $ hdfs namenode -format $ start-dfs.sh $ start-yarn.sh
由于删除了数据, 所以原先的数据就都没有了
$ $HIVE_HOME/hcatalog/sbin/hcat_server.sh start
执行 $ jps, 那个 RunJar 进程就是这个东西.
由于将原有的 hdfs 上的数据都删除了, 所以原先有的表的数据也不存在了.
载入演示数据:
$ cd /home/ubuntu/data/hive-tables
$ hive -e "load data local inpath 'words.txt' into table words"
$ hive -e "load data local inpath 'sample-data.txt' into table sample_data"
- /hadoop/hbase/conf目录下的 regionservers, backup-masters根据集群规模配置host
- /hadoop/hbase/conf/hbase-site.xml 文件中的hbase.zookeeper.quorum根据集群规模来配置
- 同步下所有节点的配置
删除所有节点/hadoop/hbase 目录下的 zookeeper 目录
删除 hdfs 上的 /hbase 目录:
$ hadoop fs -rm -r /hbase
$ stop-hbase.sh
$ rm -rf zookeeper
$ start-hbase.sh
重新操作初始化workflow中的hbase, session server中的相关操作, 详见.
-
/hadoop/spark-1.4.0/conf/slaves.sh 根据集群规模修改host
$ sbin/start-all.sh
$ bin/azkaban-executor-start.sh
$ bin/azkaban-web-start.sh
$ bin/elasticsearch
- config/application.properties 中的 hbase.zookeeper.quorum 修改成对应的集群规模
yellowbook
- session.properties
- application.properties
Settings.js, 修改成ip, 把浏览器的缓存去掉
define(
function () {
return {
API_HOST: "http://10.10.245.219:8472",
LOG_HOST: "http://10.10.245.219:8473"
};
})
start-dfs.sh start-yarn.sh
start-hbase.sh
/hadoop/hive/hcatalog/sbin/hcat_server.sh stop /hadoop/hive/hcatalog/sbin/hcat_server.sh start
/hadoop/spark-1.4.0/sbin/start-all.sh