Skip to content

Latest commit

 

History

History
106 lines (62 loc) · 7.65 KB

more-faq.md

File metadata and controls

106 lines (62 loc) · 7.65 KB
layout title description
global
FAQ
FAQ DBUS_VERSION_SHORT
  • This will become a table of contents (this text will be scraped). {:toc}

Q1:为什么grafana不显示统计数据?

dbus是一个包含多个模块流式计算系统,实时数据需要经过的链路为:canalextractordispatcherappender,任何一个环节出现问题都可能导致grafana中无法显示统计数据,针对以下三种场景给出问题的可能的原因以及解决办法;

  • 添加schema或table

    可能原因:缓存没有成功刷新或者配置没有被重新加载,添加schema或者table时系统已经处于运行状态中,各个模块都有自己的本地缓存,新添加的table保存在数据库或者zookeeper中,正常情况下dbus web管理功能中添加schema或table后会自动发送控制消息通知相关模块重新加载配置、刷新缓存,如果由于某种原因导致发送控制消息失败或者相关模块处理控制消息失败则可能出现grafana中看不到统计数据折线图的情况

    解决办法:手动调用相关模块的重新加载功能,需要重新加载的模块有extractordispatcherappender,重新加载模块功能请参考:如何重新加载模块

  • 新建数据线 可能原因一:新建数据线后并没有自动reload heartbeat模块

    解决办法:手动reload hreatbeat模块,请参考:如何重新加载模块

    可能原因二:请确认是否配置了canal抽取端 解决办法:参考canal抽取端配置

  • 拉全量导致的问题

    可能原因:拉全量时会暂时停止appender模块的数据流,在无论全量拉取成功或失败都会发送控制消息给appender模块,appender模块接收到控制消息后会唤醒数据接收线程(spout)继续处理数据,但如果全量模块因为某种原因没有发送控制消息给appender模块,则数据流会一直处于暂停状态,grafana监控中便无法显示增量计数,这样’增量计数’和分发器计数两条折线将会不同步。

    解决办法:登录dbus web进入到Data table菜单,在查询条件中选择datasource,在schemaName输入框中输入相应的schema name点击Search并在列表中找到停止处理数据的表(状态为非ok状态),点击IncrementPuller按钮即可恢复数据流.

Q2:为什么monitor页面无法显示?

此页面的地址需在web配置页面进行配置,Global-Config的Monitor内容为此页面的地址。将统计数据的grafana页面的url填入Monitor保存即可。

Q3:如何重新加载模块?

模块重新加载功能通过发送 control message 实现,请登录dbus web管理系统进入 control message 页面,如下图所示,其中 message type 定义了要加载的模块,data source 定义了要加载的数据源,ctrl_topic 表示消息写入的kafka topic,此项不需要修改,下方为消息预览和 Send Control Message 按钮,点击这个按钮即可完成控制消息的发送从而完成模块重新加载.

Q4:一键上线为何失败?

一键上线的作用是配置抽取新数据库数据的完整流程,因此影响一键上线的因素非常多,下面针对一键上线中步骤中需要注意的问题:

  • 数据源基本信息需要填写user和password, 这里user指的是和待抽取的数据库在同一个Mysql实例的dbus用户的用户名和密码,dbus用户一键上线之前操作之前需要被赋予待抽取数据库表的 select 权限,可以参考FAQ:Q6:如何授权dbus用户读取源端表

  • 选择schema这一步可以参考add schema and table流程

  • 修改zk配置步骤中 Clone ZkConf From Templates 的作用是将zookeeper 中的节点 /DBus/ConfTemplates 下的所有节点复制一份并做一些适当的修改以作为新创建的数据源的配置信息。这里能够成功的前提是在前期的准备过程中已经对/DBus/ConfTemplates 节点进行过初始化,初始化过程请参考:Usage(2) Start and Check

  • 启动Topology步骤的作用是运行三个storm topology,启动storm topology之前需要首先将topology jar和启动脚本包上传的storm nimbus所在服务器的指定目录,同时在 global config 中配置启动脚本所在的目录,参考:Usage(3) web basic configuration的全局配置部分,由于dbus web服务器和storm nimbus服务器通常不是同一台服务器,因此需要配置两台机器之间的ssh免密登录。

Q5:如何看监控和报警?

邮件

内容形式为:

Address: [email protected]
Subject: DBus心跳监控报警
Contents: 尊敬的先生/女士您好,Dbus心跳监控发现数据线路:/DBus/HeartBeat/Monitor/db/schema/table发生异常,报警次数:1,超时次数:1,请及时处理.

DBus-Web

  • 检查表状态是否ok

  • 查看版本变更历史

  • 查看Grafana

心跳日志

在心跳log中,搜索关键字:AddressSubjectContents,即可找到报警记录

Q6:如何授权dbus用户读取源端表?

dbus web会通过data source 中的 slave_urldbus 用户与源库建立jdbc连接,以便于通过dbus web配置以及使用dbus系统进行初始化数据拉取,因此为了能够读取到源库表的信息,需要给dbus用户赋带抽取表的查询权限,具体授权语句如下:

-- db.table 是需要同步的表名
grant select on db1.table to dbus;

Q7:初始化心跳后没有找到心跳进程?

如果发现初始化心跳后没有进程,请检查心跳所在服务器是否安装了unzip命令。初始化需要unzip命令支持。

Q8:启动Topology时报和storm.py相关异常?

启动topology时报如下异常:

2018-02-28 18:27:19:999 - error: /app/dbus-allinone/distribution-0.4.0-bin/manager/lib/service/start-topology-service.js[37] - startTopo err: Error: Command failed: ssh -p 22 root@localhost 'cd /app/dbus-allinone/apache-storm-1.0.1//dbus_jars; ./dbus_startTopology.sh /app/dbus-allinone/apache-storm-1.0.1/ log-processor localhost:2181 heartbeat_log 0.4.x/log_processor/20180123_201400/dbus-log-processor-0.4.0-jar-with-dependencies.jar'Traceback (most recent call last):  File "/app/dbus-allinone/apache-storm-1.0.1//bin/storm.py", line 766, in <module>    main()  File "/app/dbus-allinone/apache-storm-1.0.1//bin/storm.py", line 763, in main    (COMMANDS.get(COMMAND, unknown_command))(*ARGS)  File "/app/dbus-allinone/apache-storm-1.0.1//bin/storm.py", line 234, in jar    transform_class = confvalue("client.jartransformer.class", [CLUSTER_CONF_DIR])  File "/app/dbus-allinone/apache-storm-1.0.1//bin/storm.py", line 144, in confvalue    p = sub.Popen(command, stdout=sub.PIPE)  File "/usr/lib64/python2.6/subprocess.py", line 642, in __init__    errread, errwrite)  File "/usr/lib64/python2.6/subprocess.py", line 1238, in _execute_child    raise child_exceptionOSError: [Errno 2] No such file or directory

原因:ssh -p 22 root@localhost没有把JAVA_HOME环境变量带过来。

解决办法:

/apache-storm-1.0.1/bin/storm脚本最上面增加java环境变量export JAVA_HOME=/opt/programs/jdk1.8.0_152export JRE_HOME=/opt/programs/jdk1.8.0_152/jreexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/libexport PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin