作为承载海量数据存储的分布式文件系统,用户通常需要直观地了解整个系统的容量、文件数量、CPU 负载、磁盘 IO、缓存等指标的变化。
JuiceFS 没有重复造轮子,而是通过 Prometheus 兼容的 API 对外提供实时的状态数据,只需将其添加到用户自建的 Prometheus Server 建立时序数据,然后通过 Grafana 等工具即可轻松实现 JucieFS 文件系统的可视化监控。
这里假设你搭建的 Prometheus Server、Grafana 与 JuiceFS 客户端都运行在相同的主机上。其中:
JuiceFS 通过 Prometheus 类型的 API 对外提供数据。文件系统挂载后,默认可以通过 http://localhost:9567/metrics 地址获得客户端输出的实时监控数据。

编辑 Prometheus 的配置文件,添加一个新 job 并指向 JuiceFS 的 API 地址,例如:
global: scrape_interval: 15s evaluation_interval: 15salerting: alertmanagers: - static_configs: - targets: # - alertmanager:9093rule_files: # - "first_rules.yml" # - "second_rules.yml"scrape_configs: - job_name: "prometheus" static_configs: - targets: ["localhost:9090"] - job_name: "juicefs" static_configs: - targets: ["localhost:9567"]假设配置文件名为 prometheus.yml,加载该配置启动服务:
./prometheus --config.file=prometheus.yml访问 http://localhost:9090 即可看到 Prometheus 的界面。
如下图所示,新建 Data Source:
http://localhost:9090
然后,使用 grafana_template.json 创建一个仪表盘。进入新建的仪表盘即可看到文件系统的可视化图表了:

根据部署 JuiceFS 的方式不同可以有不同的收集监控指标的方法,下面分别介绍。
当通过 juicefs mount 命令挂载 JuiceFS 文件系统后,可以通过 http://localhost:9567/metrics 这个地址收集监控指标,你也可以通过 --metrics 选项自定义。如:
$ juicefs mount --metrics localhost:9567 ...你可以使用命令行工具查看这些监控指标:
$ curl http://localhost:9567/metrics除此之外,每个 JuiceFS 文件系统的根目录还有一个叫做 .stats 的隐藏文件,通过这个文件也可以查看监控指标。例如(这里假设挂载点的路径是 /jfs):
$ cat /jfs/.statsJuiceFS CSI 驱动默认会在 mount pod 的 9567 端口提供监控指标,也可以通过在 mountOptions 中添加 metrics 选项自定义(关于如何修改 mountOptions 请参考 CSI 驱动文档),如:
apiVersion: v1kind: PersistentVolumemetadata: name: juicefs-pv labels: juicefs-name: ten-pb-fsspec: ... mountOptions: - metrics=0.0.0.0:9567新增一个抓取任务到 prometheus.yml 来收集监控指标:
scrape_configs: - job_name: 'juicefs' kubernetes_sd_configs: - role: pod relabel_configs: - source_labels: [__meta_kubernetes_pod_label_app_kubernetes_io_name] action: keep regex: juicefs-mount - source_labels: [__address__] action: replace regex: ([^:]+)(:\d+)? replacement: $1:9567 target_label: __address__ - source_labels: [__meta_kubernetes_pod_node_name] target_label: node action: replace这里假设 Prometheus 服务运行在 Kubernetes 集群中,如果你的 Prometheus 服务运行在 Kubernetes 集群之外,请确保 Prometheus 服务可以访问 Kubernetes 节点,请参考这个 issue 添加 api_server 和 tls_config 配置到以上文件:
scrape_configs: - job_name: 'juicefs' kubernetes_sd_configs: - api_server: <Kubernetes API Server> role: pod tls_config: ca_file: <...> cert_file: <...> key_file: <...> insecure_skip_verify: false relabel_configs: ...JuiceFS S3 网关默认会在 http://localhost:9567/metrics 这个地址提供监控指标,你也可以通过 --metrics 选项自定义。如:
$ juicefs gateway --metrics localhost:9567 ...如果你是在 Kubernetes 中部署 JuiceFS S3 网关,可以参考 Kubernetes 小节的 Prometheus 配置来收集监控指标(区别主要在于 __meta_kubernetes_pod_label_app_kubernetes_io_name 这个标签的正则表达式),例如:
scrape_configs: - job_name: 'juicefs-s3-gateway' kubernetes_sd_configs: - role: pod relabel_configs: - source_labels: [__meta_kubernetes_pod_label_app_kubernetes_io_name] action: keep regex: juicefs-s3-gateway - source_labels: [__address__] action: replace regex: ([^:]+)(:\d+)? replacement: $1:9567 target_label: __address__ - source_labels: [__meta_kubernetes_pod_node_name] target_label: node action: replacePrometheus Operator 让用户在 Kubernetes 环境中能够快速部署和管理 Prometheus,借助 Prometheus Operator 提供的 ServiceMonitor CRD 可以自动生成抓取配置。例如(假设 JuiceFS S3 网关的 Service 部署在 kube-system 名字空间):
apiVersion: monitoring.coreos.com/v1kind: ServiceMonitormetadata: name: juicefs-s3-gatewayspec: namespaceSelector: matchNames: - kube-system selector: matchLabels: app.kubernetes.io/name: juicefs-s3-gateway endpoints: - port: metricsJuiceFS Hadoop Java SDK 支持把监控指标上报到 Pushgateway 或者 Graphite。
启用指标上报到 Pushgateway:
<property> <name>juicefs.push-gateway</name> <value>host:port</value></property>同时可以通过 juicefs.push-interval 配置修改上报指标的频率,默认为 10 秒上报一次。
根据 Pushgateway 官方文档的建议,Prometheus 的抓取配置中需要设置 honor_labels: true。
需要特别注意,Prometheus 从 Pushgateway 抓取的指标的时间戳不是 JuiceFS Hadoop Java SDK 上报时的时间,而是抓取时的时间,具体请参考 Pushgateway 官方文档。
默认情况下 Pushgateway 只会在内存中保存指标,如果需要持久化到磁盘上,可以通过 --persistence.file 选项指定保存的文件路径以及 --persistence.interval 选项指定保存到文件的频率(默认 5 分钟保存一次)。
每一个使用 JuiceFS Hadoop Java SDK 的进程会有唯一的指标,而 Pushgateway 会一直记住所有收集到的指标,导致指标数持续积累占用过多内存,也会使得 Prometheus 抓取指标时变慢,建议定期清理 Pushgateway 上的指标。
定期使用下面的命令清理 Pushgateway 的指标数据,清空指标不影响运行中的 JuiceFS Hadoop Java SDK 持续上报数据。注意 Pushgateway 启动时必须指定 --web.enable-admin-api 选项,同时以下命令会清空 Pushgateway 中的所有监控指标。
$ curl -X PUT http://host:9091/api/v1/admin/wipe启用指标上报到 Graphite:
<property> <name>juicefs.push-graphite</name> <value>host:port</value></property>同时可以通过 juicefs.push-interval 配置修改上报指标的频率,默认为 10 秒上报一次。
JuiceFS Hadoop Java SDK 支持的所有配置参数请参考文档。
JuiceFS 支持使用 Consul 作为监控指标 API 的注册中心,默认的 Consul 地址是 127.0.0.1:8500,你也可以通过 --consul 选项自定义。如:
$ juicefs mount --consul 1.2.3.4:8500 ...当配置了 Consul 地址以后,--metrics 选项不再需要配置,JuiceFS 将会根据自身网络与端口情况自动配置监控指标 URL。如果同时设置了 --metrics,则会优先尝试监听配置的 URL。
注册到 Consul 上的每个实例,其 serviceName 都为 juicefs,serviceId 的格式为 <IP>:<mount-point>,例如:127.0.0.1:/tmp/jfs。
每个 instance 的 meta 都包含了 hostname 与 mountpoint 两个维度,其中 mountpoint 为 s3gateway 代表该实例为 S3 网关。
JuiceFS 提供一些 Grafana 的仪表盘模板,将模板导入以后就可以展示收集上来的监控指标。目前提供的仪表盘模板有:
| 模板名称 | 说明 |
|---|---|
grafana_template.json | 用于展示自挂载点、S3 网关(非 Kubernetes 部署)及 Hadoop Java SDK 收集的指标 |
grafana_template_k8s.json | 用于展示自 Kubernetes CSI 驱动、S3 网关(Kubernetes 部署)收集的指标 |
Grafana 仪表盘示例效果如下图:

使用 Grafana 做为宏观观测工具,当出现异常情况时可以首先观察其中是否存在异常指标,再进行进一步的分析。同时重要指标建议设置报警提示,以便实时获取系统状态异常的通知。
如有帮助的话欢迎关注我们项目 Juicedata/JuiceFS 哟! (0?0?)