Storm集群搭建

文章目录
  1. 1. 基本配置详解
  2. 2. 环境准备
  3. 3. 开始安装配置
    1. 3.1. 搭建Zookeeper集群
    2. 3.2. 搭建Storm集群
      1. 3.2.1. 配置
      2. 3.2.2. 启动集群

近来公司项目步入大数据的范畴,需要Spark、Storm方面的知识储备。在学习了Scala之后,进入正式的开发准备工作,接下来对Storm集群的搭建略作介绍。

Storm集群搭建方式,可参考Storm官方文档搭建。

基本配置详解

配置项配置说明
storm.zookeeper.serversZooKeeper服务器列表
storm.zookeeper.portZooKeeper连接端口
storm.local.dirstorm使用的本地文件系统目录(必须存在并且storm进程可读写)
storm.cluster.modeStorm集群运行模式([distributed\local])
storm.local.mode.zmqLocal模式下是否使用ZeroMQ作消息系统,如果设置为false则使用java消息系统。默认为false
storm.zookeeper.rootZooKeeper中Storm的根目录位置
storm.zookeeper.session.timeout客户端连接ZooKeeper超时时间
storm.id运行中拓扑的id,由storm name和一个唯一随机数组成。
nimbus.hostnimbus服务器地址
nimbus.thrift.portnimbus的thrift监听端口
nimbus.childopts通过storm-deploy项目部署时指定给nimbus进程的jvm选项
nimbus.task.timeout.secs心跳超时时间,超时后nimbus会认为task死掉并重分配给另一个地址。
nimbus.monitor.freq.secsnimbus检查心跳和重分配任务的时间间隔.注意如果是机器宕掉nimbus会立即接管并处理。
nimbus.supervisor.timeout.secssupervisor的心跳超时时间,一旦超过nimbus会认为该supervisor已死并停止为它分发新任务.
nimbus.task.launch.secstask启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来临时替代nimbus.task.timeout.secs.
nimbus.reassign当发现task失败时nimbus是否重新分配执行。默认为真,不建议修改。
nimbus.file.copy.expiration.secsnimbus判断上传/下载链接的超时时间,当空闲时间超过该设定时nimbus会认为链接死掉并主动断开
ui.portStorm UI的服务端口
drpc.serversDRPC服务器列表,以便DRPCSpout知道和谁通讯
drpc.portStorm DRPC的服务端口
supervisor.slots.portssupervisor上能够运行workers的端口列表.每个worker占用一个端口,且每个端口只运行一个worker.通过这项配置可以调整每台机器上运行的worker数.(调整slot数/每机)
supervisor.childopts在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项
supervisor.worker.timeout.secssupervisor中的worker心跳超时时间,一旦超时supervisor会尝试重启worker进程.
supervisor.worker.start.timeout.secssupervisor初始启动时,worker的心跳超时时间,当超过该时间supervisor会尝试重启worker。因为JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过supervisor.worker.timeout.secs的设定
supervisor.enablesupervisor是否应当运行分配给他的workers.默认为true,该选项用来进行Storm的单元测试,一般不应修改.
supervisor.heartbeat.frequency.secssupervisor心跳发送频率(多久发送一次)
supervisor.monitor.frequency.secssupervisor检查worker心跳的频率
worker.childoptssupervisor启动worker时使用的jvm选项.所有的”%ID%”字串会被替换为对应worker的标识符
worker.heartbeat.frequency.secsworker的心跳发送时间间隔
task.heartbeat.frequency.secstask汇报状态心跳时间间隔
task.refresh.poll.secstask与其他tasks之间链接同步的频率.(如果task被重分配,其他tasks向它发送消息需要刷新连接).一般来讲,重分配发生时其他tasks会理解得到通知。该配置仅仅为了防止未通知的情况。
topology.debug如果设置成true,Storm将记录发射的每条信息。
topology.optimizemaster是否在合适时机通过在单个线程内运行多个task以达到优化topologies的目的.
topology.workers执行该topology集群中应当启动的进程数量.每个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该参数和并行度提示来优化性能
topology.ackerstopology中启动的acker任务数.Acker保存由spout发送的tuples的记录,并探测tuple何时被完全处理.当Acker探测到tuple被处理完毕时会向spout发送确认信息.通常应当根据topology的吞吐量来确定acker的数目,但一般不需要太多.当设置为0时,相当于禁用了消息可靠性,storm会在spout发送tuples后立即进行确认.
topology.message.timeout.secstopology中spout发送消息的最大处理超时时间.如果一条消息在该时间窗口内未被成功ack,Storm会告知spout这条消息失败。而部分spout实现了失败消息重播功能。
topology.kryo.register注册到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案可以是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现.
topology.skip.missing.kryo.registrationsStorm是否应该跳过它不能识别的kryo序列化方案.如果设置为否task可能会装载失败或者在运行时抛出错误.
topology.max.task.parallelism在一个topology中能够允许的最大组件并行度.该项配置主要用在本地模式中测试线程数限制.
topology.max.spout.pending一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology.
topology.state.synchronization.timeout.secs组件同步状态源的最大超时时间(保留选项,暂未使用)
topology.stats.sample.rate用来产生task统计信息的tuples抽样百分比
topology.fall.back.on.java.serializationtopology中是否使用java的序列化方案
zmq.threads每个worker进程内zeromq通讯用到的线程数
zmq.linger.millis当连接关闭时,链接尝试重新发送消息到目标主机的持续时长.这是一个不常用的高级选项,基本上可以忽略.
java.library.pathJVM启动(如Nimbus,Supervisor和workers)时的java.library.path设置.该选项告诉JVM在哪些路径下定位本地库.

环境准备

开始安装配置

由于Zookeeper和Storm都是以Java为基础开发的,所以需要Java环境,在Linux服务器上配置Java开发环境,此处不做累述,读者请自行百度。

搭建Zookeeper集群

参考 Zookeeper集群搭建博客

搭建Storm集群

配置

1
2
3
4
wget https://www.apache.org/dyn/closer.lua/storm/apache-storm-1.2.2/apache-storm-1.2.2.tar.gz
tar -zxvf apache-storm-1.2.2.tar.gz
cd apache-storm-1.2.2/conf
vi storm.yaml

主要的配置项有一下几点:

  • 配置Storm集群的Zookeeper集群主机列表

    1
    2
    3
    4
    storm.zookeeper.servers:
    - "master"
    - "slave1"
    - "slave2"
  • 如果Zookeeper集群使用的端口与默认端口不同,还需一下配置:

1
storm.zookeeper.port: 2182

zookeeper集群的搭建可参考之前的zookeeper集群搭建的博客搭建。

  • 指定Storm数据存储目录

Nimbus和Supervisor守护进程需要在本地磁盘上存储少量状态信息。需要我们手动在每台Supervisor机器上创建此目录,并授予适当的权限。

1
storm.local.dir: "/home/hadoop/storm/data"

如果使用相对路径,可以相对于安装Storm的位置(STORM_HOME),或者使用默认值留空。

1
$STORM_HOME/data
  • supervisor的worker数量配置

以下配置指定supervisor的工作节点,可以运行的worker数量,每个worker占用一个端口来接收消息,最多分配5个;默认情况下每个节点可以运行4个worker,分别在6700、6701、6702、6703,此处定义几个端口,则就表示可以运行几个worker。

1
2
3
4
5
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703

此处为最基本的配置,若需其他对集群的优化配置,请查看官网Storm集群搭建教程,上面有详细的配置方式。(英语较差的童鞋,不要害怕英文文档,试着读,多读几遍,慢慢的大概意思也会了解了,有道是“书读百遍其义自见”)

启动集群

  • 在Nimbus主机上启动nimbus
1
bin/storm nimbus 2>&1 &
  • 在每个Storm集群节点上启动supervisor
1
bin/storm supervisor 2>&1 &
  • 在Nimbus主机上启动Storm UI
1
bin/storm ui 2>&1 &

启动成功之后可在浏览器中,使用http://xxx.xxx.xxx.xxx:8080访问。

如果文章对你有帮助,欢迎点击上方按钮打赏作者