一些InfluxDB的使用过程中,您可能会用到的实战小技巧,推荐按需获取
InfluxDb小技巧
- 1: v1.6.0安装和简单使用小结
- 2: InfluxDB基本概念小结
- 3: 时序数据库InfluxDB之备份和恢复策略
- 4: InfluxDB之权限管理
- 5: InfluxDB之配置修改
- 6: InfluxDb之时间戳显示为日期格式
1 - v1.6.0安装和简单使用小结
InfluxDB安装和简单使用小结
InfluxDB是一个时序性数据库,因为工作需求,安装后使用测试下是否支持大数据下的业务场景
说明:
- 安装最新版本 v1.6.0
- 集群版本要收费,单机版本免费
- 内部集成的web控制台被ko掉了
I. 安装
直接到官网,查询对应的下载安装方式
安装方式
SHA256: fa118d657151b6de7c79592cf7516b3d9fada813262d5ebe16516f5c0bf62039
wget https://dl.influxdata.com/influxdb/releases/influxdb-1.6.0.x86_64.rpm
sudo yum localinstall influxdb-1.6.0.x86_64.rpm
服务启动命令
# 启动命令
service influxdb start
# 关闭命令
service influxdb stop
注意
默认占用8086/8088两个端口号,可以根据自己的实际场景进行替换,进入配置文件 /etc/influxdb/influxdb.conf
查询 bind-address,其中端口号对应的用处说明如下
# Bind address to use for the RPC service for backup and restore.
bind-address = "127.0.0.1:8088"
...
[http]
# Determines whether HTTP endpoint is enabled.
# enabled = true
# The bind address used by the HTTP service.
bind-address = ":8086"
II. 控制台简单使用
influx提供了一个控制台进行简单的操作,下面给出基本的使用姿势,对于influxdb的一些概念性问题,放在下一篇专门给与说明
首先进入控制台
influx
# 如果修改了端口号,则需要显示指定
# influx -port xxx
1. database相关
这个数据库和我们平常接触比较多的mysql中的数据库差不多,使用姿势也相差无几
a. 显示所有的数据库
说明: >后面跟的是命令,后面的是输出结果
> show databases
name: databases
name
----
_internal
hh_test
b. 创建数据库
和mysql语法一致, create database xxx
> create database mytest
> show databases
name: databases
name
----
_internal
hh_test
mytest
c. 删除数据库
使用drop进行删除,drop database xxx
> drop database mytest
> show databases
name: databases
name
----
_internal
hh_test
d. 选择数据库
> use hh_test
Using database hh_test
2. 表相关
在influxDB中,表不是我们传统理解的table,在这里,专业术语叫做 measurement
(度量?)
查看所有的measurement的命令
show measurements;
name: measurements
name
----
trade
不同于mysql,没有提供专门的创建表,新插入数据,就会自动创建一个不存在的表
1. 新增数据
insert <tbname>,<tags> <values> [timestamp]
说明:
- tbname : 数据表名称
- tags : 表的tag域
- values : 表的value域
- timestamp :当前数据的时间戳(可选,没有提供的话系统会自带添加)
> insert students,addr=wuhan phone=124
> select * from students
name: students
time addr phone
---- ---- -----
1532514647456815845 wuhan 124
2. 查询
查询和sql类似,基本结构如下,但是有很多的限制,后面详解
select * from table where condition group by xxx order by time asc limit 10
一个实例case
> insert students,addr=wuhan phone=124
> insert students,addr=wuhan phone=123
> insert students,addr=changsha phone=15
> select * from students where phone>0 group by addr order by time desc limit 10;
name: students
tags: addr=wuhan
time phone
---- -----
1532515056470523491 123
1532515052664001894 124
name: students
tags: addr=changsha
time phone
---- -----
1532515064351295620 15
3. 更新与删除
当需要更新一个记录时,直接覆盖一个时间戳+所有的tag相等的即可
> select * from students
name: students
time addr phone
---- ---- -----
1532515052664001894 wuhan 124
1532515056470523491 wuhan 123
1532515064351295620 changsha 15
> insert students,addr=wuhan phone=111123 1532515052664001894
> select * from students
name: students
time addr phone
---- ---- -----
1532515052664001894 wuhan 111123
1532515056470523491 wuhan 123
1532515064351295620 changsha 15
删除一条记录,用delete命令
> select * from students
name: students
time addr phone
---- ---- -----
1532515052664001894 wuhan 111123
1532515056470523491 changsha 123
1532515056470523491 wuhan 123
> delete from students where time=1532515056470523491
> select * from students
name: students
time addr phone
---- ---- -----
1532515052664001894 wuhan 111123
4. 删除表
drop measurement students
2 - InfluxDB基本概念小结
InfluxDB基本概念小结
InfluxDB作为时序数据库,与传统的关系型数据库相比而言,还是有一些区别的,下面尽量以简单明了的方式介绍下相关的术语概念
I. 基本概念
mysql | influxdb | 说明 |
---|---|---|
database | database | 数据库 |
table | measurement | 类似mysql中表的概念 |
record | tag + field + timestamp | 传统表中的一行数据,映射到influxdb中,可以划分为三个 |
1. database
数据库,和mysql的数据库相比,没有太大的歧义
2. measurement
对比的是mysql中的table,从实际体验来看,两个之间最明显的区别在于没有单独的创建measurement的方法,直接新增一条数据时,若measurement不存在,则直接创建并插入一条数据
3. Point
这个对比的是mysql中的record,在influxDB中,表示每个表中,某个时刻,满足某个条件的filed数据(简单来说就是 timestamp + tag + filed)的组成一个point
- timestamp : 时间戳,ns单位,每个记录都必然有这个属性,没有显示添加时,默认给一个
- tag: 标签,kv结构,在database中, tag + measurement 一起构建索引
- 参与索引创建,因此适合作为查询的过滤条件
- tag的数据量不要太多,最好能有典型的辨别性(和mysql的建立索引的原则差不多)
- value为String类型
- tag是可选的,在measurement不设置tag也是ok的
- field:存储数据,kv结构
- 数据类型为: long, String, boolean, float
4. Series
Series: tag key 与tag value的唯一组合
II. 实例分析
上面几个为基本的概念,单独的看起来印象不够深刻,下面结合实例进行说明:
建立一个measurement,保存某个应用的性能状况,包含以下指标, 每秒写一次数据到influxDB中
- 服务机器: host=127.0.0.1
- 服务接口: service=app.service.index
- qps: qps=1340
- rt: 1313
- cpu: 45.23
- mem: 4154m
- load: 1.21
1. measurement创建
上面有7个指标参数,第一步就是区分tag和field,前面说到tag会建索引,推荐用于可以区分类型,取值可以预估的字段,所以对上面进行如下区分
tag
- host
- servie
field
- qps
- rt
- cpu
- mem
- load
一条实际的插入数据如
> insert myapp,host=127.0.0.1,service=app.service.index qps=1340,rt=1313,cpu=45.23,mem="4145m",load=1.21
> select * from myapp
name: myapp
time cpu host load mem qps rt service
---- --- ---- ---- --- --- -- -------
1532597158613778583 45.23 127.0.0.1 1.21 4145m 1340 1313 app.service.index
a. 小结说明
- 在insert执行语句中,tag与tag、field与field之间用都好进行分割,tag与field之间用空格分割
- tag的value都是,String类型,不需要加双引号
- field的String类型数据,需要放在双引号中,否则会报错
- 如果需要显示添加时间戳,在filed后添加空格,再添加时间戳
b. 是否可以没有field
实测不行,输出如下
> insert myabb,host=123,service=index
ERR: {"error":"unable to parse 'myabb,host=123,service=index ': invalid field format"}
是否可以没有tag
根据前面的说明已经实测,可以
> insert myabb qps=123,rt=1231
> select * from myabb
name: myabb
time qps rt
---- --- --
1532597385053030634 123 1231
2. 数据分析
新插入几条数据,目前的数据为
> select * from myapp
name: myapp
time cpu host load mem qps rt service
---- --- ---- ---- --- --- -- -------
1532597158613778583 45.23 127.0.0.1 1.21 4145m 1340 1313 app.service.index
1532597501578551929 45.23 127.0.0.1 1.21 4145m 1341 1312 app.service.index
1532597510225918132 45.23 127.0.0.1 1.21 4145m 1341 1312 app.service.about
1532597552421996033 45.23 127.0.0.2 1.21 4145m 1341 1312 app.service.about
a. series
上面四条数据,对应几个series呢 ?
根据前面的说法,tagKey + tagValue 确定给一个series (实际上是 measurement + retention policy + tags来确定),因此上表总共有三个series
127.0.0.1 | app.service.index
127.0.0.1 | app.service.about
127.0.0.2 | app.service.about
那么这个series到底是什么东西呢?
如果将上面的数据图表化的方式显示出来,我们可以怎么办?
- 首先我们确定好应用及其和服务名,然后查看这个服务在这台机器上,在时间线上的服务性能
- 翻译过来就是,将cpu/service作为检索条件,以time为时间轴,将value(cpu,load,mem,qps,rt)映射到二维坐标上作为一个点(point),然后将所有的point连接成线,最终得到连续的图表
所以series就是上面的检索条件,同时point的概念也容易理解了
III. 保留策略
前面是表数据的相关基础概念,这里还有一个就是数据保存的策略 retention policy, 用于决定数据保存多久(意思是数据可以删除),保存几个备份,集群的处理等
1. 基本说明
influxdb面向大数据的时序数据库,所以数据量可以很大很大,如果全部存储,估计硬盘的费用都不小,而且有些数据可能并不需要永久存储,因此就有了这个rentention policy
InfluxDB本身不提供数据的删除操作,因此用来控制数据量的方式就是定义数据保留策略。
因此定义数据保留策略的目的是让InfluxDB能够知道可以丢弃哪些数据,从而更高效的处理数据。
2. 基本操作
a. 查询策略
> show retention policies on hh_test
name duration shardGroupDuration replicaN default
---- -------- ------------------ -------- -------
autogen 0s 168h0m0s 1 true
- name: 名称
- duration: 保留时间, 0表示永久保存
- shardGroupDuration: shardGroup的存储时间,shardGroup是InfluxDB的一个基本储存结构,应该大于这个时间的数据在查询效率上应该有所降低。
- replicaN: 全称是REPLICATION,副本个数
- default: 是否是默认策略
b. 新建策略
> create retention policy "2_hour" on hh_test duration 2h replication 1 default
> show retention policies on hh_test
name duration shardGroupDuration replicaN default
---- -------- ------------------ -------- -------
autogen 0s 168h0m0s 1 false
2_hour 2h0m0s 1h0m0s 1 true
c. 修改策略
> alter retention policy "2_hour" on hh_test duration 4h default
> show retention policies on hh_test
name duration shardGroupDuration replicaN default
---- -------- ------------------ -------- -------
autogen 0s 168h0m0s 1 false
2_hour 4h0m0s 1h0m0s 1 true
d. 删除策略
> drop retention policy "2_hour" on hh_test
> show retention policies on hh_test
name duration shardGroupDuration replicaN default
---- -------- ------------------ -------- -------
autogen 0s 168h0m0s 1 false
删除默认策略之后,就没有默认策略了,是否会有问题呢?
3. RP理解
设置这个策略之后,会自动删除过期的数据,那么数据时怎么保存的呢?
比如默认的永久保存策略中,有个 shardGroupDuration
参数,为7天,也就是说7天的数据放在一个Shard中,过了之后,新加一个Shard
shard包含实际的编码和压缩数据,并由磁盘上的TSM文件表示。 每个shard都属于唯一的一个shard group。多个shard可能存在于单个shard group中。每个shard包含一组特定的series。给定shard group中的给定series上的所有点将存储在磁盘上的相同shard(TSM文件)中。
3 - 时序数据库InfluxDB之备份和恢复策略
influxdb 备份与恢复
参考: influxdb backup and restore
环境:
- influxdb v1.6.0
- 使用influx自动的控制台进行
I. 备份
备份命令
influxd backup
[ -database <db_name> ] --> 指定需要备份的数据库名
[ -portable ] --> 表示在线备份
[ -host <host:port> ] --> influxdb服务所在的机器,端口号默认为8088
[ -retention <rp_name> ] | [ -shard <shard_ID> -retention <rp_name> ] --> 备份的保留策略,注意shard是挂在rp下的;我们需要备份的就是shard中的数据
[ -start <timestamp> [ -end <timestamp> ] | -since <timestamp> ] --> 备份指定时间段的数据
<path-to-backup> --> 备份文件的输出地址
1. 实例演示
首先创建一个数据库 yhhblog, 里面包含两个measurement,对应的数据如下
> show databases
name: databases
name
----
_internal
yhhblog
> use yhhblog
Using database yhhblog
> show measurements
name: measurements
name
----
netLoad
serviceLoad
> select * from netLoad
name: netLoad
time host netIn netOut service
---- ---- ----- ------ -------
1532658769048100401 127.0.0.1 13m 521K app.service.about
> select * from serviceLoad
name: serviceLoad
time cpu host load mem qps rt service
---- --- ---- ---- --- --- -- -------
1532658713805369067 45.23 127.0.0.2 1.21 4145m 1341 1312 app.service.about
1532658718726259226 45.23 127.0.0.1 1.21 4145m 1341 1312 app.service.about
a. 备份所有的数据库
将influxdb中的所有的数据库都备份下来,不加任何的参数
influxd backup -portable /tmp/data/total
b. 备份指定数据库
如果只想要备份上面的yhhblog数据库, 添加 -database
参数指定即可
# influxd backup -portable -database yhhblog /tmp/data/yhhblog
2018/07/27 10:38:15 backing up metastore to /tmp/data/yhhblog/meta.00
2018/07/27 10:38:15 backing up db=yhhblog
2018/07/27 10:38:15 backing up db=yhhblog rp=autogen shard=10 to /tmp/data/yhhblog/yhhblog.autogen.00010.00 since 0001-01-01T00:00:00Z
2018/07/27 10:38:15 backup complete:
2018/07/27 10:38:15 /tmp/data/yhhblog/20180727T023815Z.meta
2018/07/27 10:38:15 /tmp/data/yhhblog/20180727T023815Z.s10.tar.gz
2018/07/27 10:38:15 /tmp/data/yhhblog/20180727T023815Z.manifest
c. 备份数据库中指定时间段的数据
对上面的数据,只备份部分时间满足要求的数据,可以添加start/end参数
# influxd backup -portable -database yhhblog -start 2018-07-27T2:31:57Z -end 2018-07-27T2:32:59Z /tmp/data/yhhblog_per
2018/07/27 10:42:14 backing up metastore to /tmp/data/yhhblog_per/meta.00
2018/07/27 10:42:14 backing up db=yhhblog
2018/07/27 10:42:14 backing up db=yhhblog rp=autogen shard=10 to /tmp/data/yhhblog_per/yhhblog.autogen.00010.00 with boundaries start=2018-07-27T02:31:57Z, end=2018-07-27T02:32:59Z
2018/07/27 10:42:14 backup complete:
2018/07/27 10:42:14 /tmp/data/yhhblog_per/20180727T024214Z.meta
2018/07/27 10:42:14 /tmp/data/yhhblog_per/20180727T024214Z.s10.tar.gz
2018/07/27 10:42:14 /tmp/data/yhhblog_per/20180727T024214Z.manifest
现在备份ok了,问题就是如何确认备份的问题有没有问题呢,备份后的数据如何恢复呢?
II. 恢复
命令如下
influxd restore
[ -db <db_name> ] --> 待恢复的数据库(备份中的数据库名)
-portable | -online
[ -host <host:port> ] --> influxdb 的服务器
[ -newdb <newdb_name> ] --> 恢复到influxdb中的数据库名
[ -rp <rp_name> ] --> 备份中的保留策略
[ -newrp <newrp_name> ] --> 恢复的保留策略
[ -shard <shard_ID> ]
<path-to-backup-files>
首先拿简单的方式来演示恢复策略,并查看下上面的备份数据是否有问题
1. 恢复到不存在的database
下面演示下将前面的导出的备份,恢复到一个新的数据库 yhhblog_bk上,执行命令如下
influxd restore -portable -db yhhblog -newdb yhhblog_bk yhhblog_per
顺带验证下上面备份的数据是否有问题,注意到我们恢复的是时间片段的数据备份,因此恢复的数据,应该会排除掉不再上面日期内的数据
> show databases
name: databases
name
----
_internal
yhhblog
yhhblog_bk
> use yhhblog_bk
Using database yhhblog_bk
> show measurements
name: measurements
name
----
netLoad
serviceLoad
> select * from netLoad
name: netLoad
time host netIn netOut service
---- ---- ----- ------ -------
1532658769048100401 127.0.0.1 13m 521K app.service.about
> select * from serviceLoad
name: serviceLoad
time cpu host load mem qps rt service
---- --- ---- ---- --- --- -- -------
1532658718726259226 45.23 127.0.0.1 1.21 4145m 1341 1312 app.service.about
注意看前面serviceLoad里面只有一条数据, 即表明我们按照时间进行备份没啥问题
2. 恢复到存在的DB
看官网恢复的文档中,如果想将备份恢复到一个已经存在的database中时,并不是上面那么简单的就可以了,这里采用的一个策略是西安备份到一个临时的db中;然后将临时DB中的数据写入已存在的db中
具体的演示步骤如下 (注意本小结的执行可以直接依赖前面恢复的备份数据库中)
将备份恢复到已经存在的数据库 yhhblogNew 中
# 首先是将备份恢复到一个不存在的数据库 yhhblog_bk 中
influxd restore -portable -db yhhblog -newdb yhhblog_bk yhhblog_per
进入 influx 控制台,执行拷贝和删除临时数据库
# 准备 yhhblogNew 数据库
> create database yhhblogNew
# 将临时数据库中的数据导入已存在的数据库中
> use yhhblog_bk
> SELECT * INTO yhhblogNew..:MEASUREMENT FROM /.*/ GROUP BY *
> drop yhhblog_bk
3. 保留策略已存在时,恢复
influxd restore -portable -db yhhblog -newdb yhhblog_tmp -rp autogen -newrp autogen_tmp yhhblog
进入influx控制台,执行拷贝
> user yhhblog_tmp
> SELECT * INTO yhhblogNew.autogen.:MEASUREMENT FROM /yhhblog_tmp.autogen_tmp.*/ GROUP BY *
> drop database yhhblog_tmp
4. 其他
官方还写了其他两种恢复方式,一个被废弃,一个离线的会导致数据丢失,也不推荐使用,而现在大部分的博文中备份和恢复都是这种过时的方案,不太友好,这里不详细叙述
4 - InfluxDB之权限管理
influxdb安装完毕之后,默认属于裸奔状态,为了安全起见,当然是需要加上权限管理,下面介绍下如何设置权限
I. 简单使用篇
不考虑细节的情况下,我只希望可以添加一个用户/密码,然后只有输入用户/密码验证准确之后,就可以愉快的进行后续的编码逻辑;至于更多的用户权限管理,不想太了解的,可以直接看这一小节即可
1. 设置用户并赋权
安装完毕之后,默认没有开启权限,因此可以直接连接
# 首先通过cli 连上influxdb
influx
# 创建用户,密码,并赋予所有的权限
create user admin with password 'admin' with all privileges
如下图,需要注意的是密码必须使用引号括起来,否则会出现下图中的报错
2. 开启权限校验
vim /etc/influxdb/influxdb.conf
# 开启配置
auth-enabled = true
3. 重启并测试
# 重启db
service influxdb restart
# 连接测试
influx -username admin -password admin
II. 权限管理
前面介绍的基本上可以满足简单的db使用姿势了,接下来介绍下更多的使用说明
1. 用户管理
创建用户
create user xxx with password 'pwd'
重设密码
set password for xxx='newpwd'
删除用户
drop user xxx
查看用户
show users
2. 权限管理
针对用户进行授权和回收
授权
GRANT ALL PRIVILEGES TO <username>
GRANT [READ,WRITE,ALL] ON <database_name> TO <username>
回收
REVOKE ALL PRIVILEGES FROM <username>
REVOKE [READ,WRITE,ALL] ON <database_name> FROM <username>
权限查询
show grants for <username>
5 - InfluxDB之配置修改
influxdb安装完毕之后,一般来讲,有些配置有必要改一下的,比如默认的端口号,默认的数据存储位置,本篇将介绍下常用配置的修改姿势
I. 配置
系统环境为centos,influxdb的版本为1.6
1. 配置文件
默认配置文件安装目录为: /etc/influxdb/influxdb.conf
默认配置查看
infuxd config
输出结果如
Merging with configuration at: /etc/influxdb/influxdb.conf
reporting-disabled = false
bind-address = "127.0.0.1:8088"
[meta]
dir = "/var/lib/influxdb/meta"
retention-autocreate = true
logging-enabled = true
[data]
dir = "/var/lib/influxdb/data"
index-version = "inmem"
wal-dir = "/var/lib/influxdb/wal"
wal-fsync-delay = "0s"
validate-keys = false
query-log-enabled = true
cache-max-memory-size = 1073741824
cache-snapshot-memory-size = 26214400
cache-snapshot-write-cold-duration = "10m0s"
compact-full-write-cold-duration = "4h0m0s"
compact-throughput = 50331648
compact-throughput-burst = 50331648
max-series-per-database = 1000000
max-values-per-tag = 100000
max-concurrent-compactions = 0
max-index-log-file-size = 1048576
series-id-set-cache-size = 100
trace-logging-enabled = false
tsm-use-madv-willneed = false
[coordinator]
write-timeout = "10s"
max-concurrent-queries = 0
query-timeout = "0s"
log-queries-after = "0s"
max-select-point = 0
max-select-series = 0
max-select-buckets = 0
[retention]
enabled = true
check-interval = "30m0s"
[shard-precreation]
enabled = true
check-interval = "10m0s"
advance-period = "30m0s"
[monitor]
store-enabled = true
store-database = "_internal"
store-interval = "10s"
[subscriber]
enabled = true
http-timeout = "30s"
insecure-skip-verify = false
ca-certs = ""
write-concurrency = 40
write-buffer-size = 1000
[http]
enabled = true
bind-address = ":8086"
auth-enabled = true
log-enabled = true
suppress-write-log = false
write-tracing = false
flux-enabled = false
flux-log-enabled = false
pprof-enabled = true
debug-pprof-enabled = false
https-enabled = false
https-certificate = "/etc/ssl/influxdb.pem"
https-private-key = ""
max-row-limit = 0
max-connection-limit = 0
shared-secret = ""
realm = "InfluxDB"
unix-socket-enabled = false
unix-socket-permissions = "0777"
bind-socket = "/var/run/influxdb.sock"
max-body-size = 25000000
access-log-path = ""
max-concurrent-write-limit = 0
max-enqueued-write-limit = 0
enqueued-write-timeout = 30000000000
[logging]
format = "auto"
level = "info"
suppress-logo = false
[[graphite]]
enabled = false
bind-address = ":2003"
database = "graphite"
retention-policy = ""
protocol = "tcp"
batch-size = 5000
batch-pending = 10
batch-timeout = "1s"
consistency-level = "one"
separator = "."
udp-read-buffer = 0
[[collectd]]
enabled = false
bind-address = ":25826"
database = "collectd"
retention-policy = ""
batch-size = 5000
batch-pending = 10
batch-timeout = "10s"
read-buffer = 0
typesdb = "/usr/share/collectd/types.db"
security-level = "none"
auth-file = "/etc/collectd/auth_file"
parse-multivalue-plugin = "split"
[[opentsdb]]
enabled = false
bind-address = ":4242"
database = "opentsdb"
retention-policy = ""
consistency-level = "one"
tls-enabled = false
certificate = "/etc/ssl/influxdb.pem"
batch-size = 1000
batch-pending = 5
batch-timeout = "1s"
log-point-errors = true
[[udp]]
enabled = false
bind-address = ":8089"
database = "udp"
retention-policy = ""
batch-size = 5000
batch-pending = 10
read-buffer = 0
batch-timeout = "1s"
precision = ""
[continuous_queries]
log-enabled = true
enabled = true
query-stats-enabled = false
run-interval = "1s"
[tls]
min-version = ""
max-version = ""
2. 数据存储修改
从上面的配置中可以知道,默认的数据存储为/var/lib/influxdb/data
, /var/lib/influxdb/wal
, /var/lib/influxdb/meta
将数据保存在我们挂载的硬盘 /influx
第一步,修改配置文件
vim /etc/influxdb/influxdb.conf
## 修改配置
[meta]
dir = '/influx/meta'
[data]
dir = '/influx/data'
war-dir = '/influx/wal'
第二步,修改用户组
重新制定存储目录之后,需要修改文件夹的owner和分组,否则influxdb将无法正常启动
chown -R influxdb:influxdb /influx
第三步,重启
service influxdb restart
3. 端口修改
可以修改默认的端口号,首先进入配置文件
[[udp]]
bind-address = ":18089"
[[http]]
bind-address = ":18086"
# 开启下权限验证,相关配置可以参考博文: https://blog.hhui.top/hexblog/2019/05/05/190505-InfluxDB之权限管理/
auth-enabled = true
6 - InfluxDb之时间戳显示为日期格式
直接使用influx-cli查询数据时,时间戳格式不太友好,记录下显示日期的方式
连接时添加参数
influx -precision rfc3339
连接后设置参数
# 进入控制台
influx
# 设置参数
precision rfc3339