跳到主要内容
版本:nightly

配置 GreptimeDB

GreptimeDB 提供了层次化的配置能力,按照下列优先顺序来生效配置(每个项目都会覆盖下面的项目):

  • Greptime 命令行选项
  • 配置文件选项
  • 环境变量
  • 默认值

你只需要设置所需的配置项。 GreptimeDB 将为未配置的任何设置分配默认值。

如何设置配置项

Greptime 命令行选项

你可以使用命令行参数指定多个配置项。 例如,以配置的 HTTP 地址启动 GreptimeDB 的独立模式:

greptime standalone start --http-addr 127.0.0.1:4000

有关 Greptime 命令行支持的所有选项,请参阅 GreptimeDB 命令行界面

配置文件选项

你可以在 TOML 文件中指定配置项。 例如,创建一个名为 standalone.example.toml 的配置文件,如下所示:

[storage]
type = "File"
data_home = "/tmp/greptimedb/"

然后使用命令行参数 -c [file_path] 指定配置文件。

greptime [standalone | frontend | datanode | metasrv]  start -c config/standalone.example.toml

例如以 standalone 模式启动 GreptimeDB:

greptime standalone start -c standalone.example.toml

示例文件

以下是每个 GreptimeDB 组件的示例配置文件,包括所有可用配置项。 在实际场景中,你只需要配置所需的选项,不需要像示例文件中那样配置所有选项。

环境变量

配置文件中的每个项目都可以映射到环境变量。 例如,使用环境变量设置数据节点的 data_home 配置项:

# ...
[storage]
data_home = "/data/greptimedb"
# ...

使用以下 shell 命令以以下格式设置环境变量:

export GREPTIMEDB_DATANODE__STORAGE__DATA_HOME=/data/greptimedb

环境变量规则

  • 每个环境变量应具有组件前缀,例如:

    • GREPTIMEDB_FRONTEND
    • GREPTIMEDB_METASRV
    • GREPTIMEDB_DATANODE
    • GREPTIMEDB_STANDALONE
  • 使用**双下划线 __**作为分隔符。例如,数据结构 storage.data_home 转换为 STORAGE__DATA_HOME

环境变量还接受以逗号 , 分隔的列表,例如:

GREPTIMEDB_METASRV__META_CLIENT__METASRV_ADDRS=127.0.0.1:3001,127.0.0.1:3002,127.0.0.1:3003

协议选项

协议选项适用于 frontendstandalone 子命令,它指定了协议服务器地址和其他协议相关的选项。

下面的示例配置包含了所有协议选项的默认值。 你可以在配置文件中更改这些值或禁用某些协议。 例如禁用 OpenTSDB 协议支持,可以将 enable 参数设置为 false。 请注意,为了保障数据库的正常工作,无法禁用 HTTP 和 gRPC 协议。

[http]
addr = "127.0.0.1:4000"
timeout = "30s"
body_limit = "64MB"

[grpc]
addr = "127.0.0.1:4001"
runtime_size = 8

[mysql]
enable = true
addr = "127.0.0.1:4002"
runtime_size = 2

[mysql.tls]
mode = "disable"
cert_path = ""
key_path = ""

[postgres]
enable = true
addr = "127.0.0.1:4003"
runtime_size = 2

[postgres.tls]
mode = "disable"
cert_path = ""
key_path = ""

[opentsdb]
enable = true

[influxdb]
enable = true

[prom_store]
enable = true

下表描述了每个选项的详细信息:

选项类型描述
httpHTTP 服务器选项
addr字符串服务器地址,默认为 "127.0.0.1:4000"
timeout字符串HTTP 请求超时时间,默认为 "30s"
body_limit字符串HTTP 最大体积大小,默认为 "64MB"
is_strict_mode布尔值是否启用协议的严格校验模式,启用会轻微影响性能,默认为 false
grpcgRPC 服务器选项
addr字符串服务器地址,默认为 "127.0.0.1:4001"
runtime_size整数服务器工作线程数量,默认为 8
mysqlMySQL 服务器选项
enable布尔值是否启用 MySQL 协议,默认为 true
addr字符串服务器地址,默认为 "127.0.0.1:4002"
runtime_size整数服务器工作线程数量,默认为 2
influxdbInfluxDB 协议选项
enable布尔值是否在 HTTP API 中启用 InfluxDB 协议,默认为 true
opentsdbOpenTSDB 协议选项
enable布尔值是否启用 OpenTSDB 协议,默认为 true
prom_storePrometheus 远程存储选项
enable布尔值是否在 HTTP API 中启用 Prometheus 远程读写,默认为 true
with_metric_engine布尔值是否在 Prometheus 远程写入中使用 Metric Engine,默认为 true
postgresPostgresSQL 服务器选项
enable布尔值是否启用 PostgresSQL 协议,默认为 true
addr字符串服务器地址,默认为 "127.0.0.1:4003"
runtime_size整数服务器工作线程数量,默认为 2

存储选项

存储选项在 datanodestandalone 模式下有效,它指定了数据库数据目录和其他存储相关的选项。

GreptimeDB 支持将数据保存在本地文件系统, AWS S3 以及其兼容服务(比如 MinIO、digitalocean space、腾讯 COS、百度对象存储(BOS)等),Azure Blob Storage 和阿里云 OSS。

选项类型描述
storage存储选项
type字符串存储类型,支持 "File","S3" 和 "Oss" 等.
File本地文件存储选项,当 type="File" 时有效
data_home字符串数据库存储根目录,默认为 "/tmp/greptimedb"
S3AWS S3 存储选项,当 type="S3" 时有效
nameString存储提供商名字,默认为 S3
bucket字符串S3 桶名称
root字符串S3 桶中的根路径
endpoint字符串S3 的 API 端点
region字符串S3 区域
access_key_id字符串S3 访问密钥 id
secret_access_key字符串S3 秘密访问密钥
Oss阿里云 OSS 存储选项,当 type="Oss" 时有效
nameString存储提供商名字,默认为 Oss
bucket字符串OSS 桶名称
root字符串OSS 桶中的根路径
endpoint字符串OSS 的 API 端点
access_key_id字符串OSS 访问密钥 id
secret_access_key字符串OSS 秘密访问密钥
AzblobAzure Blob 存储选项,当 type="Azblob" 时有效
nameString存储提供商名字,默认为 Azblob
container字符串容器名称
root字符串容器中的根路径
endpoint字符串Azure Blob 存储的 API 端点
account_name字符串Azure Blob 存储的账户名
account_key字符串访问密钥
sas_token字符串共享访问签名
GscGoogle Cloud Storage 存储选项,当 type="Gsc" 时有效
nameString存储提供商名字,默认为 Gsc
root字符串Gsc 桶中的根路径
bucket字符串Gsc 桶名称
scope字符串Gsc 权限
credential_path字符串Gsc 访问证书
endpoint字符串GSC 的 API 端点

文件存储配置范例:

[storage]
type = "File"
data_home = "/tmp/greptimedb/"

s3 配置范例:

[storage]
type = "S3"
bucket = "test_greptimedb"
root = "/greptimedb"
access_key_id = "<access key id>"
secret_access_key = "<secret access key>"

存储引擎提供商

[[storage.providers]] 用来设置存储引擎的提供商列表。基于这个配置,你可以为每张表指定不同的存储引擎,具体请参考 create table:

# Allows using multiple storages
[[storage.providers]]
name = "S3"
type = "S3"
bucket = "test_greptimedb"
root = "/greptimedb"
access_key_id = "<access key id>"
secret_access_key = "<secret access key>"

[[storage.providers]]
name = "Gcs"
type = "Gcs"
bucket = "test_greptimedb"
root = "/greptimedb"
credential_path = "<gcs credential path>"

所有配置的这些存储引擎提供商的 name 都可以在创建表时用作 storage 选项。

对于同样提供商的存储,比如你希望使用不同 S3 bucket 来作为不同表的存储引擎,你就可以设置不同的 name,并在创建表的时候指定 storage 选项。

对象存储缓存

当使用 S3、阿里云 OSS 等对象存储的时候,最好开启缓存来加速查询:

[storage]
type = "S3"
bucket = "test_greptimedb"
root = "/greptimedb"
access_key_id = "<access key id>"
secret_access_key = "<secret access key>"
## 开启对象存储缓存
cache_path = "/var/data/s3_local_cache"
cache_capacity = "256MiB"

cache_path 指定本地的缓存目录, cache_capacity 指定缓存的最大大小(字节)。

WAL 选项

datanode 和 standalone 在 [wal] 部分可以配置 Write-Ahead-Log 的对应参数:

Local WAL

[wal]
file_size = "256MB"
purge_threshold = "4GB"
purge_interval = "10m"
read_batch_size = 128
sync_write = false
  • dir: WAL 的日志目录, 当使用文件 File 存储的时候, 默认值为{data_home}/wal 。当使用对象存储的时候,必须明确指定。
  • file_size: 单个日志文件的最大大小,默认为 256MB
  • purge_thresholdpurge_interval: 控制清除任务的触发阈值和间隔
  • sync_write: 是否在写入每条日志的时候调用 l fsync 刷盘。

Remote WAL

[wal]
provider = "kafka"
broker_endpoints = ["127.0.0.1:9092"]
max_batch_bytes = "1MB"
consumer_wait_timeout = "100ms"
backoff_init = "500ms"
backoff_max = "10s"
backoff_base = 2
backoff_deadline = "5mins"
overwrite_entry_start_id = false
  • broker_endpoints:Kafka 端点
  • max_batch_bytes:单个 producer batch 的最大值
  • consumer_wait_timeout:consumer 的等待超时时间
  • backoff_init:backoff 初始延迟
  • backoff_max::backoff 最大延迟
  • backoff_base::backoff 指数
  • backoff_deadline:重试的截止时间
  • overwrite_entry_start_id: 该选项确保在 Kafka 消息被误删除时,系统仍然能够成功重放内存表数据,而不会抛出超出范围(out-of-range)的错误。然而,启用此选项可能会导致意外的数据丢失,因为系统会跳过缺失的条目,而不是将其视为严重错误。
Remote WAL 鉴权 (Optional)
[wal.sasl]
type = "SCRAM-SHA-512"
username = "user"
password = "secret"

Kafka 客户端 SASL 鉴权配置,支持的 SASL 机制 : PLAIN, SCRAM-SHA-256, SCRAM-SHA-512.

Remote WAL TLS (Optional)
[wal.tls]
server_ca_cert_path = "/path/to/server_cert"
client_cert_path = "/path/to/client_cert"
client_key_path = "/path/to/key"

Kafka 客户端 TLS 配置,支持 TLS(使用系统 CA 证书),TLS(使用特定 CA 证书),mTLS。

配置示例:

TLS (使用系统 CA 证书)

[wal.tls]

TLS (使用特定 CA 证书)

[wal.tls]
server_ca_cert_path = "/path/to/server_cert"

mTLS

[wal.tls]
server_ca_cert_path = "/path/to/server_cert"
client_cert_path = "/path/to/client_cert"
client_key_path = "/path/to/key"

Logging 选项

frontendmetasrvdatanodestandalone 都可以在 [logging] 部分配置 log、tracing 相关参数:

[logging]
dir = "/tmp/greptimedb/logs"
level = "info"
enable_otlp_tracing = false
otlp_endpoint = "localhost:4317"
append_stdout = true
[logging.tracing_sample_ratio]
default_ratio = 1.0
  • dir: log 输出目录。
  • level: log 输出的日志等级,日志等级有 info, debug, error, warn,默认等级为 info
  • enable_otlp_tracing:是否打开分布式追踪,默认不开启。
  • otlp_endpoint:使用基于 gRPC 的 OTLP 协议导出 tracing 的目标端点,默认值为 localhost:4317
  • append_stdout:是否将日志打印到 stdout。默认是true
  • tracing_sample_ratio:该字段可以配置 tracing 的采样率,如何使用 tracing_sample_ratio,请参考 如何配置 tracing 采样率

如何使用分布式追踪,请参考 Tracing

Region 引擎选项

datanode 和 standalone 在 [region_engine] 部分可以配置不同存储引擎的对应参数。目前只可以配置存储引擎 mito 的选项。

部分常用的选项如下

[[region_engine]]
[region_engine.mito]
num_workers = 8
manifest_checkpoint_distance = 10
max_background_jobs = 4
auto_flush_interval = "1h"
global_write_buffer_size = "1GB"
global_write_buffer_reject_size = "2GB"
sst_meta_cache_size = "128MB"
vector_cache_size = "512MB"
page_cache_size = "512MB"
sst_write_buffer_size = "8MB"
scan_parallelism = 0

[region_engine.mito.inverted_index]
create_on_flush = "auto"
create_on_compaction = "auto"
apply_on_query = "auto"
mem_threshold_on_create = "64M"
intermediate_path = ""

[region_engine.mito.memtable]
type = "time_series"

此外,mito 也提供了一个实验性质的 memtable。该 memtable 主要优化大量时间序列下的写入性能和内存占用。其查询性能可能会不如默认的 time_series memtable。

[region_engine.mito.memtable]
type = "partition_tree"
index_max_keys_per_shard = 8192
data_freeze_threshold = 32768
fork_dictionary_bytes = "1GiB"

以下是可供使用的选项

类型默认值描述
num_workers整数8写入线程数量
manifest_checkpoint_distance整数10每写入 manifest_checkpoint_distance 个 manifest 文件创建一次 checkpoint
max_background_jobs整数4后台线程数量
auto_flush_interval字符串1h自动 flush 超过 auto_flush_interval 没 flush 的 region
global_write_buffer_size字符串1GB写入缓冲区大小,默认值为内存总量的 1/8,但不会超过 1GB
global_write_buffer_reject_size字符串2GB写入缓冲区内数据的大小超过 global_write_buffer_reject_size 后拒绝写入请求,默认为 global_write_buffer_size 的 2 倍
sst_meta_cache_size字符串128MBSST 元数据缓存大小。设为 0 可关闭该缓存
默认为内存的 1/32,不超过 128MB
vector_cache_size字符串512MB内存向量和 arrow array 的缓存大小。设为 0 可关闭该缓存
默认为内存的 1/16,不超过 512MB
page_cache_size字符串512MBSST 数据页的缓存。设为 0 可关闭该缓存
默认为内存的 1/8
selector_result_cache_size字符串512MBlast_value() 等时间线检索结果的缓存。设为 0 可关闭该缓存
默认为内存的 1/16,不超过 512MB
sst_write_buffer_size字符串8MBSST 的写缓存大小
scan_parallelism整数0扫描并发度 (默认 1/4 CPU 核数)
- 0: 使用默认值 (1/4 CPU 核数)
- 1: 单线程扫描
- n: 按并行度 n 扫描
inverted_index.create_on_flush字符串auto是否在 flush 时构建索引
- auto: 自动
- disable: 从不
inverted_index.create_on_compaction字符串auto是否在 compaction 时构建索引
- auto: 自动
- disable: 从不
inverted_index.apply_on_query字符串auto是否在查询时使用索引
- auto: 自动
- disable: 从不
inverted_index.mem_threshold_on_create字符串64M创建索引时如果超过该内存阈值则改为使用外部排序
设置为空会关闭外排,在内存中完成所有排序
inverted_index.intermediate_path字符串""存放外排临时文件的路径 (默认 {data_home}/index_intermediate).
memtable.type字符串time_seriesMemtable type.
- time_series: time-series memtable
- partition_tree: partition tree memtable (实验性功能)
memtable.index_max_keys_per_shard整数8192一个 shard 内的主键数
只对 partition_tree memtable 生效
memtable.data_freeze_threshold整数32768一个 shard 内写缓存可容纳的最大行数
只对 partition_tree memtable 生效
memtable.fork_dictionary_bytes字符串1GiB主键字典的大小
只对 partition_tree memtable 生效

设定 meta client

meta_client 选项适用于 datanodefrontend 模块,用于指定 Metasrv 的相关信息。

[meta_client]
metasrv_addrs = ["127.0.0.1:3002"]
timeout = "3s"
connect_timeout = "1s"
ddl_timeout = "10s"
tcp_nodelay = true

通过 meta_client 配置 metasrv 客户端,包括:

  • metasrv_addrs, Metasrv 地址列表,对应 Metasrv 启动配置的 server address。
  • timeout, 操作超时时长,默认为 3 秒。
  • connect_timeout,连接服务器超时时长,默认为 1 秒。
  • ddl_timeout, DDL 执行的超时时间,默认 10 秒。
  • tcp_nodelay,接受连接时的 TCP_NODELAY 选项,默认为 true。

指标监控选项

这些选项用于将系统监控指标保存到 GreptimeDB 本身。 有关如何使用此功能的说明,请参见 监控 指南。

[export_metrics]
# Whether to enable export_metrics
enable=true
# Export time interval
write_interval = "30s"
  • enable: 是否启用导出指标功能,默认为 false
  • write_interval: 指标导出时间间隔。

self_import 方法

frontendstandalone 支持使用 self_import 方法导出指标。

[export_metrics]
# Whether to enable export_metrics
enable=true
# Export time interval
write_interval = "30s"
[export_metrics.self_import]
db = "information_schema"
  • db: 默认的数据库为 information_schema,你也可以创建另一个数据库来保存系统指标。

remote_write 方法

datanodefrontendmetasrvstandalone 支持使用 remote_write 方法导出指标。 它将指标发送到与 Prometheus Remote-Write protocol 兼容的接受端。

[export_metrics]
# Whether to enable export_metrics
enable=true
# Export time interval
write_interval = "30s"
[export_metrics.remote_write]
# URL specified by Prometheus Remote-Write protocol
url = "http://127.0.0.1:4000/v1/prometheus/write?db=information_schema"
# Some optional HTTP parameters, such as authentication information
headers = { Authorization = "Basic Z3JlcHRpbWVfdXNlcjpncmVwdGltZV9wd2Q=" }
  • url: Prometheus Remote-Write 协议指定的 URL。
  • headers: 一些可选的 HTTP 参数,比如认证信息。

Mode 选项

mode 选项在 datanodefrontendstandalone 中可用,它指定了组件的运行模式。

在分布式 GreptimeDB 的 datanodefrontend 的配置文件中,需要将值设置为 distributed

mode = "distributed"

在 standalone GreptimeDB 的配置文件中,需要将值设置为 standalone

mode = "standalone"

心跳配置

心跳配置在 frontenddatanode 中可用。

[heartbeat]
interval = "3s"
retry_interval = "3s"
类型默认值描述
heartbeat------
heartbeat.interval字符串3s向 Metasrv 发送心跳信息的时间间隔
heartbeat.retry_interval字符串3s向 Metasrv 重试建立心跳连接的时间间隔。(注意在 Datanode 的心跳实现中,这个配置是被忽略的,因为 Datanode 必须在保活机制的租约期内通过心跳完成续租,也就是说其 retry 有特殊策略不允许自定义配置。)

仅限于 Metasrv 的配置

# 工作主目录。
data_home = "/tmp/metasrv/"
# metasrv 的绑定地址,默认为 "127.0.0.1:3002"。
bind_addr = "127.0.0.1:3002"
# frontend 和 datanode 连接到 metasrv 的通信服务器地址,本地默认为 "127.0.0.1:3002"。
server_addr = "127.0.0.1:3002"
# metasrv 存储端服务器地址,默认为 "127.0.0.1:2379"。
store_addr = "127.0.0.1:2379"
# Datanode 选择器类型。
# - "lease_based" (默认值)
# - "load_based"
# 详情请参阅 "https://docs.greptime.com/contributor-guide/meta/selector"
selector = "lease_based"
# 将数据存储在内存中,默认值为 false。
use_memory_store = false
## 是否启用 region failover。
## 该功能仅适用于运行在集群模式下的 GreptimeDB,并且
## - 使用 Remote WAL
## - 使用共享存储(例如 s3)。
enable_region_failover = false
# metasrv 的数据库类型.
backend = "EtcdStore"

## Procedure 选项
[procedure]

## 最大重试次数
max_retry_times = 12

## 程序的初始重试延迟
retry_delay = "500ms"

# Failure detector 选项
[failure_detector]

## Failure detector 检测阈值
threshold = 8.0

## 心跳间隔的最小标准差,用于计算可接受的变化。
min_std_deviation = "100ms"

## 心跳之间可接受的暂停时间长度。
acceptable_heartbeat_pause = "10000ms"

## 首次心跳间隔的估计值。
first_heartbeat_estimate = "1000ms"

## Datanode 选项。
[datanode]

## Datanode 客户端配置。
[datanode.client]

## 操作超时时间
timeout = "10s"

## 连接服务器超时时间。
connect_timeout = "10s"

## 接受连接时的 `TCP_NODELAY` 选项,默认为 true。
tcp_nodelay = true

[wal]
# 可用的 WAL 提供者:
# - `raft_engine`(默认):由于 metasrv 目前仅涉及远程 WAL,因此没有 raft-engine WAL 配置。
# - `kafka`:在 datanode 中使用 kafka WAL 提供者时,metasrv **必须** 配置 kafka WAL 配置。
provider = "raft_engine"

# Kafka WAL 配置。

## Kafka 集群的代理端点。
broker_endpoints = ["127.0.0.1:9092"]

## 自动为 WAL 创建 topics
## 设置为 `true` 则自动为 WAL 创建 topics
## 否则,使用名为 `topic_name_prefix_[0..num_topics)` 的 topics
auto_create_topics = true

## Topic 数量。
num_topics = 64

## Topic selector 类型。
## 可用的 selector 类型:
## - `round_robin`(默认)
selector_type = "round_robin"

## Kafka topic 通过连接 `topic_name_prefix` 和 `topic_id` 构建。
topic_name_prefix = "greptimedb_wal_topic"

## 每个分区的预期副本数。
replication_factor = 1

## 超过此时间创建 topic 的操作将被取消。
create_topic_timeout = "30s"

## Kafka 客户端的 backoff 初始时间。
backoff_init = "500ms"

## Kafka 客户端的 backoff 最大时间。
backoff_max = "10s"

## backoff 指数,即下一个 backoff 时间 = 该指数 * 当前 backoff 时间。
backoff_base = 2

## 如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接不会终止。
backoff_deadline = "5mins"
类型默认值描述
data_homeString/tmp/metasrv/工作目录。
bind_addrString127.0.0.1:3002Metasrv 的绑定地址。
server_addrString127.0.0.1:3002前端和 datanode 连接到 Metasrv 的通信服务器地址,默认为本地主机的 127.0.0.1:3002
store_addrString127.0.0.1:2379etcd 服务器地址,默认值为 127.0.0.1:2379,多个服务器地址用逗号分隔,格式为 "ip1:port1,ip2:port2,..."
selectorStringlease_based创建新表时选择 datanode 的负载均衡策略,详见 选择器
use_memory_storeBooleanfalse仅用于在没有 etcd 集群时的测试,将数据存储在内存中,默认值为 false
enable_region_failoverBoolfalse是否启用 region failover。
该功能仅在以集群模式运行的 GreptimeDB 上可用,并且
- 使用远程 WAL
- 使用共享存储(如 s3)。
procedure----
procedure.max_retry_times整数12Procedure 的最大重试次数。
procedure.retry_delay字符串500msProcedure 初始重试延迟,延迟会指数增长。
failure_detector----故障检测选项。
failure_detector.threshold浮点数8.0Failure detector 用来判断故障条件的阈值。
failure_detector.min_std_deviation字符串100ms心跳间隔的最小标准差,用于计算可接受的变动范围。
failure_detector.acceptable_heartbeat_pause字符串10000ms允许的最大心跳暂停时间,用于确定心跳间隔是否可接受。
failure_detector.first_heartbeat_estimate字符串1000ms初始心跳间隔估算值。
datanode----
datanode.client----Datanode 客户端选项。
datanode.client.timeout字符串10s操作超时。
datanode.client.connect_timeout字符串10s连接服务器超时。
datanode.client.tcp_nodelay布尔值true接受连接的 TCP_NODELAY 选项。
wal------
wal.providerStringraft_engine--
wal.broker_endpointsArray--Kafka 集群的端点
wal.auto_create_topicsBooltrue自动为 WAL 创建 topics
设置为 true 则自动为 WAL 创建 topics
否则,使用名为 topic_name_prefix_[0..num_topics) 的 topics
wal.num_topicsInteger64Topic 数量
wal.selector_typeStringround_robintopic selector 类型
可用 selector 类型:
- round_robin(默认)
wal.topic_name_prefixStringgreptimedb_wal_topic一个 Kafka topic 是通过连接 topic_name_prefix 和 topic_id 构建的
wal.replication_factorInteger1每个分区的副本数
wal.create_topic_timeoutString30s超过该时间后,topic 创建操作将被取消
wal.backoff_initString500msKafka 客户端的 backoff 初始时间
wal.backoff_maxString10sKafka 客户端的 backoff 最大时间
wal.backoff_baseInteger2backoff 指数,即下一个 backoff 时间 = 该指数 * 当前 backoff 时间
wal.backoff_deadlineString5mins如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接不会终止
wal.saslString--Kafka 客户端 SASL 配置
wal.sasl.typeString--SASL 机制, 可选值: PLAIN, SCRAM-SHA-256, SCRAM-SHA-512
wal.sasl.usernameString--SASL 鉴权用户名
wal.sasl.passwordString--SASL 鉴权密码
wal.tlsString--Kafka 客户端 TLS 配置
wal.tls.server_ca_cert_pathString--服务器 CA 证书地址
wal.tls.client_cert_pathString--客户端证书地址(用于启用 mTLS)
wal.tls.client_key_pathString--客户端密钥地址(用于启用 mTLS)

仅限于 Datanode 的配置

node_id = 42
rpc_hostname = "127.0.0.1"
rpc_addr = "127.0.0.1:3001"
rpc_runtime_size = 8
KeyTypeDescription
node_id整数datanode 的唯一标识符。
rpc_hostname字符串datanode 的 Hostname。
rpc_addr字符串gRPC 服务端地址,默认为"127.0.0.1:3001"
rpc_runtime_size整数gRPC 服务器工作线程数,默认为 8。

仅限于 Frontend 的配置

[datanode]
[datanode.client]
connect_timeout = "1s"
tcp_nodelay = true
KeyTypeDefaultDescription
datanode----
datanode.client----Datanode 客户端选项。
datanode.client.connect_timeout字符串1s连接服务器超时。
datanode.client.tcp_nodelay布尔值true接受连接的 TCP_NODELAY 选项。