Flink 集群环境搭建
复制和安装 flink
- 将本地
flink-1.14.0-bin-scala_2.11.tgz
复制进master
容器中root
目录中
1
| docker cp /path/to/flink-1.14.0-bin-scala_2.11.tgz master:/root
|
- 在
/etc/profile
中添加如下环境变量
1
| export HADOOP_CLASSPATH = `hadoop classpath`
|
- 将
flink
解压进/opt/module
目录下
1
| tar zxvf /root/flink-1.14.0-bin-scala_2.11.tgz -C /opt/module/
|
- 将解压后的目录改名为
flink
1
| mv /opt/module/flink-1.14.0-bin-scala_2.11 /opt/module/flink
|
配置 flink
flink
的配置文件都存放在${FLINK_HOME}/conf
中
1
| cd /opt/module/flink/conf
|
- 配置
flink-conf.yaml
- 该文件是 Flink 的基本配置,用于配置
JobManager
、内存大小等
1 2
| jobmanager.rpc.address: master taskmanager.numberOfTaskSlots: 2
|
- 指定
JobManager
为master
- 设置
TaskManager
的插槽数量为 2(根据你的需要进行调整)
- 配置
workers
- 配置
masters
- 分发
flink
1 2
| scp -r /opt/module/flink/ slave1:/opt/module/ scp -r /opt/module/flink/ slave2:/opt/module/
|
启动群集
- 在容器
master
中执行
1
| /opt/module/flink/bin/start-cluster.sh
|
验证集群
- 使用
jps
命令查看flink
进程:
1 2
| 8275 StandaloneSessionClusterEntrypoint 8622 TaskManagerRunner
|
- 在
slave1
slave2
中显示这个进程则开启成功
参考文章
快速入门 Flink(2)——Flink 集群环境搭建(3 台节点 建议收藏)
Flink 配置文件详解