Sylph安装过程遇到的坑及解决方法

Sylph安装过程遇到的坑及解决方法

1、下载安装包

由于官方没有提供编译好的安装包,且安装包编译过程很慢,我这边上传了该编译好的资源,点击下方链接下载。包下载解压后目录结构如下:

链接:https://pan.baidu.com/s/1_BNqpl0pkWj-FyHgRT-E4Q 
提取码:qwer 

Sylph安装过程遇到的坑及解决方法

 

2、准备好Spark和Flink安装环境

在etc/sylph/sylph-env.sh配置SPARK_HOME和FLINK_HOME已经HADOOP_CONF_DIR

 

Sylph项目启动时会检测SPARK_HOME和FLINK_HOME安装目录。

Sylph安装过程遇到的坑及解决方法

3、修改配置文件

根据自己需要修改etc/sylph/sylph.properties配置文件。

Sylph安装过程遇到的坑及解决方法

 

4、删除running表数据

版本sylph-0.6.0-alpha3-bin.tgz会自带一个JOB任务,会连接yarn,不通则会启动失败。一直再报错 需要在数据库存储。需要手动删除。

Sylph安装过程遇到的坑及解决方法

 

删除running表中的数据,百度云资源提供删除了running表数据的data.db文件

Sylph安装过程遇到的坑及解决方法

 

5、启动

执行bin/sylph启动项目,如果遇到下图问题:

Sylph安装过程遇到的坑及解决方法

 

解决方法是将hadoop yarn相关jar包拷贝到flink安装目录的lib目录下,如图:

Sylph安装过程遇到的坑及解决方法