Flink快速部署指南:从下载到集群启动
1. Flink简介与环境准备Flink作为一款开源的流处理框架这几年在大数据领域越来越火。我第一次接触Flink是在2018年当时被它的低延迟和高吞吐特性吸引现在已经成为我们团队实时数据处理的首选工具。简单来说Flink能同时处理批数据和流数据而且性能相当不错。在开始部署之前我们需要准备两样东西Java运行环境和Flink安装包。Flink要求Java版本至少是8我建议直接用Java 11这是目前最稳定的LTS版本。你可以用java -version命令检查当前环境如果还没安装Java可以去Oracle官网下载JDK。Flink的安装包可以从官网下载不过官网速度确实不太稳定。我通常会选择国内的镜像站点比如阿里云的镜像仓库速度会快很多。下载时要注意选择对应版本Flink的包名通常包含Hadoop和Scala版本信息比如flink-1.15.2-bin-scala_2.12.tgz表示Scala 2.12版本。2. Windows环境部署Windows环境下部署Flink其实特别简单适合新手快速上手。我最近给团队新人培训时就用Windows环境做演示整个过程不到10分钟。首先把下载的压缩包解压到你喜欢的目录我一般放在C:\flink下。解压完成后进入bin目录你会看到一堆批处理文件其中start-cluster.bat就是启动脚本。双击运行它如果一切正常会弹出两个命令行窗口一个是JobManager一个是TaskManager。这时候打开浏览器访问http://localhost:8081就能看到Flink的Web UI了。这个界面非常直观左侧菜单栏依次是概览显示集群整体状态运行中的任务当前正在执行的任务列表已完成的任务历史任务记录任务管理器各个TaskManager的详细信息作业管理器JobManager的配置信息我第一次部署时遇到个小问题8081端口被占用了。如果你也遇到这种情况可以修改conf/flink-conf.yaml中的rest.port配置项换个端口就行。3. Linux单机部署Linux下的部署稍微复杂一点但也不难。我以CentOS 7为例演示下完整过程。首先创建安装目录sudo mkdir -p /opt/flink cd /opt/flink然后下载并解压安装包wget https://archive.apache.org/dist/flink/flink-1.15.2/flink-1.15.2-bin-scala_2.12.tgz tar -xzf flink-1.15.2-bin-scala_2.12.tgz cd flink-1.15.2启动集群前建议先检查下内存配置。Flink默认配置可能不适合你的机器我一般会修改conf/flink-conf.yaml中的这些参数taskmanager.memory.process.size: 4096m jobmanager.memory.process.size: 2048m启动集群./bin/start-cluster.sh验证是否启动成功jps应该能看到StandaloneSessionClusterEntrypoint和TaskManagerRunner两个进程。4. 集群配置与优化单机版跑起来后你可能想尝试真正的分布式部署。我在生产环境部署时通常会做这些优化首先是网络配置编辑conf/masters文件添加JobManager节点master1:8081 master2:8081然后在conf/workers中添加所有TaskManager节点worker1 worker2 worker3安全方面我强烈建议配置SSH免密登录。先在JobManager节点生成密钥ssh-keygen -t rsa然后把公钥拷贝到所有Worker节点ssh-copy-id worker1 ssh-copy-id worker2最后是防火墙配置确保这些端口开放sudo firewall-cmd --permanent --add-port8081/tcp # Web UI sudo firewall-cmd --permanent --add-port6123/tcp # JobManager RPC sudo firewall-cmd --permanent --add-port6124/tcp # TaskManager RPC sudo firewall-cmd --reload5. 常见问题排查部署过程中难免会遇到各种问题我总结几个常见的情况问题1Java版本不兼容症状启动时报错UnsupportedClassVersionError 解决方法确保所有节点Java版本一致建议都用Java 11问题2端口冲突症状JobManager启动失败 解决方法检查netstat -tulnp | grep 8081修改flink-conf.yaml中的端口配置问题3内存不足症状TaskManager频繁重启 解决方法调整taskmanager.memory.process.size给系统留足内存问题4Web UI无法访问症状能ping通但打不开页面 解决方法检查防火墙设置确保8081端口开放我最近遇到一个坑是时间不同步导致的集群节点间时间差超过阈值会导致各种奇怪问题。现在部署时我都会先配置NTP服务sudo yum install -y ntp sudo systemctl start ntpd sudo systemctl enable ntpd6. 验证部署是否成功部署完成后我习惯用三种方式验证集群状态第一种是通过Web UI访问http://jobmanager:8081正常应该能看到所有TaskManager都注册成功了。第二种是用命令行./bin/flink list这个命令会显示当前运行的任务新集群应该是空的。第三种是运行示例任务./bin/flink run examples/streaming/WordCount.jar这个单词计数程序会从Socket读取数据你可以用netcat模拟输入nc -lk 9999然后在另一个终端输入些英文句子就能在Web UI看到任务运行情况了。7. 生产环境建议经过多次部署实践我总结了几条生产环境的最佳实践资源隔离不要和其他服务混部特别是Hadoop组件容易资源竞争监控配置建议集成Prometheus修改conf/flink-conf.yamlmetrics.reporter.prom.class: org.apache.flink.metrics.prometheus.PrometheusReporter metrics.reporter.prom.port: 9250-9260日志管理默认日志很快会撑爆磁盘我通常会配置logrotatesudo vim /etc/logrotate.d/flink添加如下内容/opt/flink/log/*.log { daily rotate 7 missingok notifempty compress }高可用配置生产环境一定要配HA编辑conf/flink-conf.yamlhigh-availability: zookeeper high-availability.zookeeper.quorum: zk1:2181,zk2:2181,zk3:2181 high-availability.storageDir: hdfs:///flink/ha/备份策略定期备份配置和作业jar包我写了个简单的备份脚本#!/bin/bash BACKUP_DIR/backup/flink-$(date %Y%m%d) mkdir -p $BACKUP_DIR cp -r /opt/flink/conf $BACKUP_DIR cp -r /opt/flink/lib $BACKUP_DIR最后提醒下升级Flink版本时一定要先在测试环境验证兼容性。我有次直接在生产环境升级结果作业全部失败不得不回滚。现在我们都采用蓝绿部署策略确保万无一失。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2431417.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!