采集器「火山引擎-RabbitMQ」配置手册¶
阅读本文前,请先阅读:
Tip
使用本采集器前,必须安装「集成 Core 核心包」及其配套的第三方依赖包
1. 配置结构¶
本采集器配置结构如下:
字段 | 类型 | 是否必须 | 说明 |
---|---|---|---|
regions |
list | 必须 | 所需采集的地域列表 |
regions[#] |
str | 必须 | 地域 ID。如:'cn-shanghai' 总表见附录 |
2. 配置示例¶
指定地域¶
采集北京地域的数据
配置过滤器(可选项)¶
本采集器脚本支持用户自定义过滤器,让用户通过对象属性筛选出目标资源。过滤器函数返回值为 True|False
- True:目标资源需要被采集。
- False:目标资源不需要被采集
支持筛选的对象属性:
属性 | 描述 |
---|---|
InstanceId | 实例 ID |
InstanceName | 实例名称 |
InstanceStatus | 实例状态 |
ZoneId | 可用区 ID |
ProjectName | 项目名 |
Version | RabbitMQ 版本 |
VpcId | 私有网络 ID |
# 示例:开启过滤器,根据对象的 InstanceId 和 name 属性过滤,配置格式如下:
def filter_instance(instance):
'''
采集 instance_id 为 xxxxx 或者 instance_name 为 xxxxx 的实例
'''
# return True
instance_id = instance['InstanceId']
instance_name = instance['name']
if instance_id in ['xxxxx'] or instance_name in ['xxxxx']:
return True
return False
###### Do not modify the following contents #####
from integration_core__runner import Runner
import integration_volcengine_rabbitmq__main as main
@DFF.API('Volcengine-RabbitMQ Collection', timeout=3600, fixed_crontab='*/15 * * * *')
def run():
Runner(main.DataCollector(account, collector_configs, filters=[filter_instance])).run()
3. 数据上报格式¶
数据正常同步后,可以在 观测云 的「基础设施-资源目录」中查看数据。
上报的数据示例如下:
{
"measurement": "volcengine_rabbitmq",
"tags": {
"InstanceId": "rbtmq-29243xxxxxxxx",
"ArchType": "SingleNode",
"ComputeSpec": "rabbitmq.n1.x2.medium",
"ChargeDetail_ChargeType": "PostPaid",
"InstanceName": "xxxxxx",
"InstanceStatus": "Running",
"ProjectName": "default",
"RegionId": "cn-beijing",
"SubnetId": "subnet-rs611z3zxxxxxxx",
"Version": "3.8.18",
"VpcId": "vpc-13fw9sis8nvnk3xxxxxx",
"ZoneId": "cn-beijing-a",
"EipId": "xxx",
"name": "rbtmq-29243xxxxxxxx"
},
"fields": {
"InstanceDescription": "xxx",
"CreatedAt": "2024-03-11T14:01:05+08:00",
"StorageSpace": 100,
"UsedStorageSpace": 2,
"TagMap": "{已绑定的标签}",
"message": "{实例 JSON 数据}"
}
}
Note
tags、fields 中的字段可能会随后续更新有所变动
Tip
tags.name 值为实例 ID,作为唯一标识,fields.message、fields.TagMap 均为 JSON 序列化后字符串
X. 附录¶
请参考火山引擎官方文档: