0

0

使用flume+kafka+storm构建实时日志分析系统_PHP教程

php中文网

php中文网

发布时间:2016-07-12 08:57:21

|

1450人浏览过

|

来源于php中文网

原创

使用flume+kafka+storm构建实时日志分析系统

本文只会涉及flume和kafka的结合,kafka和storm的结合可以参考其他博客
1. flume安装使用
下载flume安装包http://www.apache.org/dyn/closer.cgi/flume/1.5.2/apache-flume-1.5.2-bin.tar.gz
解压$ tar -xzvf apache-flume-1.5.2-bin.tar.gz -C /opt/flume
flume配置文件放在conf文件目录下,执行文件放在bin文件目录下。
1)配置flume
进入conf目录将flume-conf.properties.template拷贝一份,并命名为自己需要的名字
$ cp flume-conf.properties.template flume.conf
修改flume.conf的内容,我们使用file sink来接收channel中的数据,channel采用memory channel,source采用exec source,配置文件如下:

<ol style="margin:0 1px 0 0px;padding-left:40px;" start="1" class="dp-css"><li>agent.sources = seqGenSrc</li><li>agent.channels = memoryChannel</li><li>agent.sinks = loggerSink</li><li><li># For each one of the sources, the type is defined</li><li>agent.sources.seqGenSrc.type = exec</li><li>agent.sources.seqGenSrc.command = tail -F /data/mongodata/mongo.log</li><li>#agent.sources.seqGenSrc.bind = 172.168.49.130</li><li><li># The channel can be defined as follows.</li><li>agent.sources.seqGenSrc.channels = memoryChannel</li><li><li># Each sink's type must be defined</li><li>agent.sinks.loggerSink.type = file_roll</li><li>agent.sinks.loggerSink.sink.directory = /data/flume</li><li><li>#Specify the channel the sink should use</li><li>agent.sinks.loggerSink.channel = memoryChannel</li><li><li># Each channel's type is defined.</li><li>agent.channels.memoryChannel.type = memory</li><li><li># Other config values specific to each type of channel(sink or source)</li><li># can be defined as well</li><li># In this case, it specifies the capacity of the memory channel</li><li>agent.channels.memoryChannel.capacity = 1000</li><li>agent.channels.memory4log.transactionCapacity = 100</li></ol>

2)运行flume agent
切换到bin目录下,运行一下命令:
$ ./flume-ng agent --conf ../conf -f ../conf/flume.conf --n agent -Dflume.root.logger=INFO,console
在/data/flume目录下可以看到生成的日志文件。

2. 结合kafka
由于flume1.5.2没有kafka sink,所以需要自己开发kafka sink
可以参考flume 1.6里面的kafka sink,但是要注意使用的kafka版本,由于有些kafka api不兼容的
这里只提供核心代码,process()内容。

<ol style="margin:0 1px 0 0px;padding-left:40px;" start="1" class="dp-css"><li>Sink.Status status = Status.READY;<br> </li><li><br></li><li>Channel ch = getChannel();<br></li><li>Transaction transaction = null;<br></li><li>Event event = null;<br></li><li>String eventTopic = null;<br></li><li>String eventKey = null;<br></li><li><br></li><li>try {<br></li><li>transaction = ch.getTransaction();<br></li><li>transaction.begin();<br></li><li>messageList.clear();<br></li><li><br></li><li>if (type.equals("sync")) {<br></li><li>event = ch.take();<br></li><li><br></li><li> if (event != null) {<br></li><li>        byte[] tempBody = event.getBody();<br></li><li> String eventBody = new String(tempBody,"UTF-8");<br></li><li> Map<String, String> headers = event.getHeaders();<br></li><li><br></li><li> if ((eventTopic = headers.get(TOPIC_HDR)) == null) {<br></li><li>          eventTopic = topic;<br></li><li> }<br></li><li><br></li><li>        eventKey = headers.get(KEY_HDR);<br></li><li><br></li><li> if (logger.isDebugEnabled()) {<br></li><li> logger.debug("{Event} " + eventTopic + " : " + eventKey + " : "<br></li><li> + eventBody);<br></li><li> }<br></li><li> <br></li><li>        ProducerData<String, Message> data = new ProducerData<String, Message><br></li><li> (eventTopic, new Message(tempBody));<br></li><li> <br></li><li> long startTime = System.nanoTime();<br></li><li> logger.debug(eventTopic+"++++"+eventBody);<br></li><li>        producer.send(data);<br></li><li> long endTime = System.nanoTime(); </li><li> }<br></li><li>} else {<br></li><li>long processedEvents = 0;<br></li><li>for (; processedEvents < batchSize; processedEvents += 1) {<br></li><li>event = ch.take();<br></li><li><br></li><li> if (event == null) {<br></li><li> break;<br></li><li> }<br></li><li><br></li><li> byte[] tempBody = event.getBody();<br></li><li> String eventBody = new String(tempBody,"UTF-8");<br></li><li> Map<String, String> headers = event.getHeaders();<br></li><li><br></li><li> if ((eventTopic = headers.get(TOPIC_HDR)) == null) {<br></li><li>          eventTopic = topic;<br></li><li> }<br></li><li><br></li><li>        eventKey = headers.get(KEY_HDR);<br></li><li><br></li><li> if (logger.isDebugEnabled()) {<br></li><li> logger.debug("{Event} " + eventTopic + " : " + eventKey + " : "<br></li><li> + eventBody);<br></li><li> logger.debug("event #{}", processedEvents);<br></li><li> }<br></li><li><br></li><li> // create a message and add to buffer<br></li><li>        ProducerData<String, String> data = new ProducerData<String, String><br></li><li> (eventTopic, eventBody);<br></li><li>        messageList.add(data);<br></li><li>}<br></li><li><br></li><li>// publish batch and commit.<br></li><li> if (processedEvents > 0) {<br></li><li> long startTime = System.nanoTime(); </li><li> long endTime = System.nanoTime(); </li><li> }<br></li><li>}<br></li><li><br></li><li>transaction.commit();<br></li><li>} catch (Exception ex) {<br></li><li>String errorMsg = "Failed to publish events";<br></li><li>logger.error("Failed to publish events", ex);<br></li><li>status = Status.BACKOFF;<br></li><li>if (transaction != null) {<br></li><li>try {<br></li><li>transaction.rollback(); </li><li>} catch (Exception e) {<br></li><li>logger.error("Transaction rollback failed", e);<br></li><li>throw Throwables.propagate(e);<br></li><li>}<br></li><li>}<br></li><li>throw new EventDeliveryException(errorMsg, ex);<br></li><li>} finally {<br></li><li>if (transaction != null) {<br></li><li>transaction.close();<br></li><li>}<br></li><li>}<br></li><li><br></li><li>return status; </li></ol>

下一步,修改flume配置文件,将其中sink部分的配置改成kafka sink,如:

超会AI
超会AI

AI驱动的爆款内容制造机

下载
<ol style="margin:0 1px 0 0px;padding-left:40px;" start="1" class="dp-css"><li>producer.sinks.r.type = org.apache.flume.sink.kafka.KafkaSink<br> </li><li>producer.sinks.r.brokerList = bigdata-node00:9092<br></li><li>producer.sinks.r.requiredAcks = 1<br></li><li>producer.sinks.r.batchSize = 100<br></li><li>#producer.sinks.r.kafka.producer.type=async<br></li><li>#producer.sinks.r.kafka.customer.encoding=UTF-8<br></li><li>producer.sinks.r.topic = testFlume1</li></ol>

type指向kafkasink所在的完整路径
下面的参数都是kafka的一系列参数,最重要的是brokerList和topic参数

现在重新启动flume,就可以在kafka的对应topic下查看到对应的日志

立即学习PHP免费学习笔记(深入)”;

www.bkjia.comtruehttp://www.bkjia.com/PHPjc/1109725.htmlTechArticle使用flume+kafka+storm构建实时日志分析系统 本文只会涉及flume和kafka的结合,kafka和storm的结合可以参考其他博客 1. flume安装使用 下载flume安装...

相关文章

PHP速学教程(入门到精通)
PHP速学教程(入门到精通)

PHP怎么学习?PHP怎么入门?PHP在哪学?PHP怎么学才快?不用担心,这里为大家提供了PHP速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载

相关标签:

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

616

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

194

2026.02.13

Flutter跨平台开发与状态管理实战
Flutter跨平台开发与状态管理实战

本专题围绕Flutter框架展开,系统讲解跨平台UI构建原理与状态管理方案。内容涵盖Widget生命周期、路由管理、Provider与Bloc状态管理模式、网络请求封装及性能优化技巧。通过实战项目演示,帮助开发者构建流畅、可维护的跨平台移动应用。

91

2026.02.13

TypeScript工程化开发与Vite构建优化实践
TypeScript工程化开发与Vite构建优化实践

本专题面向前端开发者,深入讲解 TypeScript 类型系统与大型项目结构设计方法,并结合 Vite 构建工具优化前端工程化流程。内容包括模块化设计、类型声明管理、代码分割、热更新原理以及构建性能调优。通过完整项目示例,帮助开发者提升代码可维护性与开发效率。

20

2026.02.13

Redis高可用架构与分布式缓存实战
Redis高可用架构与分布式缓存实战

本专题围绕 Redis 在高并发系统中的应用展开,系统讲解主从复制、哨兵机制、Cluster 集群模式及数据分片原理。内容涵盖缓存穿透与雪崩解决方案、分布式锁实现、热点数据优化及持久化策略。通过真实业务场景演示,帮助开发者构建高可用、可扩展的分布式缓存系统。

54

2026.02.13

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

29

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

15

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

598

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

56

2026.02.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Excel 教程
Excel 教程

共162课时 | 18万人学习

Java 教程
Java 教程

共578课时 | 68.4万人学习

Uniapp从零开始实现新闻资讯应用
Uniapp从零开始实现新闻资讯应用

共64课时 | 6.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号