1. Kafka下载:
wget https://archive.apache.org/dist/kafka/0.8.1/kafka_2.9.2-0.8.1.tgz
解压 tar zxvf kafka_2.9.2-0.8.1.tgz
cd kafka_2.9.2-0.8.1
kafka使用scala编写,需要下载scala相关的库
下载安装sbt:
wget http://repo.scala-sbt.org/scalasbt/sbt-native-packages/org/scala-sbt/sbt/0.13.1/sbt.rpm
$ rpm -ivh sbt.rpm
3. 更新scala环境:
sbt update
sbt package
#sbt assembly-package-dependency
4. 配置config/server.properties
broker.id为依次增长的:0、1、2、3、4,集群中唯一id
log.dirs设置到大硬盘路径下
num.network.threads
num.partitions ,默认分区数
num.io.threads 建议值为机器的核数;
zookeeper.connect 设置为zookeeper Servers 列表,各节点以逗号分开;
在kafka的部署目录下,在各个节点上通过如下命令来启动:
$nohup ./bin/kafka-server-start.sh ./config/server.properties &
$nohup kafka-server-start.sh /myhome/usr/kafka/config/server.properties &
创建topic:
kafka-topics.sh --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181 --topic ordertrack --replication-factor 1 --partitions 2 --create
其中, --topic 定义topic名
--replication-factor 定义副本数
--partitions 定义分区数
查看全部Topic:
kafka-topics.sh --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181 --list
删除Topic:
kafka-topics.sh --topic track --delete --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181
查看Topic明细:
kafka-topics.sh --topic track --describe --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181
Productor:
kafka-console-producer.sh --broker-list 192.168.3.130:9092,192.168.3.140:9092,192.168.3.142:9092 --topic track
Consumer:
kafka-console-consumer.sh --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181 --topic topicName --from-beginning
创建topic:
$ bin/kafka-topics.sh --zookeeper 192.168.3.130:2181,192.168.3.140:2181,192.168.3.142:2181 --topic topicName --replication-factor 1 --partitions 1 --create
其中, --topic 定义topic名
--replication-factor 定义副本数
--partitions 定义分区数
server.properties
broker.id
log.dirs
port
zookeeper.connnect
message.max.bytes
num.network.thread
num.io.threads
queued.max.requests
host.name
num.partitions
log.retention.hours
auto.create.topics.enable
default.replication.factor
num.replica.fetchers
delete.topic.enable=true
Consumer
group.id
zookeeper.connect
consumer.id
socket.timeout.ms
socket.receive.buffer.bytes
auto.commit.enable true
auto.commit.interval.ms 60 * 1000
auto.offset.reset
consumer.timeout.ms -1
client.id group id value
zookeeper.session.timeout.ms 6000
zookeeper.connection.timeout.ms 6000
相关推荐
kafka调优
kafka配置调优实践
storm企业应用 实战 运维和调优storm企业应用 实战 运维和调优storm企业应用 实战 运维和调优
课程内容包括了Kafka java Consumer实战,Kafka集成框架,Kafka分布式集群架构,Kafka性能测试实战,Kafka集群监控实战,Kafka用户行为画像,Kafka性能存储优化及如何提高Kafka吞吐量等企业级技术。 视频大小:1.5G
姓名lua-resty-kafka-基于cosocket API的ngx_lua的Lua kafka客户端驱动程序目录状态该库仍处于早期开发阶段,并且仍处于试验阶段。描述这个Lua库是ngx_lua nginx模块的Kafka客户端驱动程序: 这个Lua库利用了ngx_lua...
Kafka应用在生产环境中时,除机器的硬件环境和系统平台影响其性能外,Kaka自身的配置项决定着其能否在硬件资源有限的情况下达到理想的性能,但人为修改和调优配置项的效率极差。海量数据发送到Kakα后,如果不针对...
如果需要指定多个目录,以逗号分隔即可,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是
Kafka技术实战学习的优选课程,课程内容全程实战,没有拖泥带水,但不包含基础知识的教学,需要同学们先具备一定的Kafka技术基础再进行学习。课程内容包括了Kafka java Consumer实战,Kafka集成框架等。
kafka的3554版本中的kafka-producer-perf-test.sh增添了 --num-thread --value-bound 两个参数,并且可以打印print-metrics 下载本资源后,读introduction.txt文件。 没有积分的同学,可以访问 ...
kafka核心技术梳理,通过思维导图,把kafka 整个核心技术清洗的分层出来: 1.kafka版本迭代 2.kafka性能优势 3.kafka集群规划 4.producer开发 5.consumer开发 6.kafka设计原理 ...8.kafka 配置调优
1.kafka的基础知识(安装、部署、基础概念,版本) 2.kafka的特性 3. kafka客户端 4.kafka中的zookeeper 5. kafka如何不丢消息 6.kafka多线程消费 ...10.kafka集群部署及调优 11. 代码见《kafka学习代码》
最近总结了一下kafka的介绍、启动流程、监控界面、角色、基本命令、为什么选择kafka、核心设计理念、特点、性能测试和参数调优、多租户等等
kafka 3.x 基础笔记,基础技术,环境搭建,外部集成,生产调优,源码解析,让你从入门到精通
《Apache Kafka实战》是涵盖Apache Kafka各方面的具有实践指导意义的工具书和参考书。...第7~9章以实例的方式讲解了Kafka集群的管理、监控与调优;第10章介绍了Kafka新引入的流式处理组件。 《Apache Kafk...
为有效应对这些挑战,需要对Kafka进行细致的配置和调优。 首先,JVM参数的合理设置对Kafka的性能有着重大影响。例如,在32G内存的机器上,适当配置Kafka的堆大小和垃圾收集器可以大幅提高性能。消息的可靠性取决于...
课程内容包括了JVM性能调优专题,Tomcat性能优化实战,MySQL深度优化,并发编程,源码框架专题,分布式缓存技术Redis,分布式协调任务ZooKeeper,分布式协调任务ZooKeeper,Kafka mongodb sharding-sphere,Netty...
Kafka源码 producer核心流程 recordaccumulator kafka核心 Scala jvm调优 flink 送学习资料和简历模板
包含了常用的MySQL、Redis、RocketMQ、Kafka、Elasticsearch、PostgreSQL、ZooKeeper、Nacos、配置参数详细说明。 这份文档是工作中整理的,现在分享出来,希望给用到的同行提供个参考。 后续如果有其它开发中间件的...
08 - 全宇宙最强的25条Hive性能调优实战 09 - Kafka消息引擎底层架构深度剖析 10 - Kafka高性能的消息封装 11 - Kafka客户端容错体系源 12 - Kafka服务端高性能架构设计源码剖析 13 - Kafka数据管理源码剖析 14 - ...
1、全面掌握Storm技术开发、运维、调优; 2、掌握Storm完整项目开发思路和架构设计,陡直提升经验值! 3、掌握Storm Trident项目开发模式; 4、掌握Storm集成Kafka开发及项目实战; 5、掌握HighCharts各类图表...