flink应用场景分析
• Flink适合场景:
• 实时数据流处理,对实时的海量数据流进行处理,例如:实时ETL、实时报表、监控预警等
• 支持对接多种数据源,多种类数据源,例如Kafka,Hbase,DB均能够作为Flink前后的输入端和输出端
• Flink不适合的场景:
• 使用Flink作为数据源的桥接器时,前端使用的输出组件性能远大于后端的输入组件。例如:从kafka消费数据直接写入oracle、GaussDB。Kafka的输出性能远比oracle、GaussDB写入性能高。
• Flink使用建议:
• Flink任务是依赖于yarn,建议使用单独的队列或者资源池,不跟其它的短期任务(例如:spark,MR任务等合用一个资源池)合并使用。
• Flink任务启动方式分为yarn-cluster和yarn-session两种启动方式,如果有多个Flink有界任务,建议使用yarn-session统一管控;如果是无界的流式任务使用yarn-cluster启动。