horizontalpodautoscaler yaml 不起作用是因为集群未部署对应指标适配器,且需满足:使用 autoscaling/v2+ api、正确配置 prometheus-adapter、go 服务暴露 /metrics 并带 namespace/pod 标签、hpa 中用 targetaveragevalue 和 rate() 聚合 counter 指标。

为什么直接写 HorizontalPodAutoscaler YAML 不起作用
因为 K8s 默认只支持 CPU 和 memory 这两类资源指标,你填了 customMetrics 或 externalMetrics 字段,但集群没装对应适配器,HPA 控制器根本看不懂这些指标——它会静默跳过,或者报 FailedGetCustomMetric 错误。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 先确认是否已部署
metrics-server(仅够用 CPU/memory);自定义指标必须额外部署prometheus-adapter或k8s-prometheus-adapter - 检查 HPA 的
apiVersion:用自定义指标必须是autoscaling/v2或更高,v1版本完全不识别customMetrics - 验证指标是否真正可查:运行
kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/namespaces/default/pods/*/http_requests_total",看是否返回数据
Go 服务如何暴露 Prometheus 指标供 HPA 使用
HPA 本身不拉指标,它靠 prometheus-adapter 去查 Prometheus,再把结果转成 K8s API 格式。所以你的 Go 服务只需标准暴露指标,不用对接 HPA。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 用
promhttp包注册 handler,路径固定为/metrics(prometheus-adapter默认按此路径抓取) - 关键指标命名要带
namespace、pod标签,例如:http_requests_total{namespace="default",pod="myapp-5c7f9d4b8-xvq9t"},否则prometheus-adapter无法关联到具体 Pod - 避免在指标中使用高基数标签(如
user_id),否则 Prometheus 存储和查询压力剧增,HPA 获取指标延迟升高甚至超时
http.Handle("/metrics", promhttp.Handler())
prometheus-adapter 配置里最常写错的三处
配置写错不会报错,但 HPA 查不到指标——它只是 quietly 返回空列表。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
-
rules[].seriesQuery必须匹配 Prometheus 中真实存在的指标名,大小写、下划线都不能错,比如写成http_request_total(少个 s)就查不到 -
resources下的overrides要对齐:若想按 Pod 扩容,必须设pod: {resource: "pod"},写成pod: {resource: "pods"}会失败 -
name字段定义的是 HPA 里引用的指标名,比如设为http_requests_per_second,那 HPA YAML 里就得写metricName: http_requests_per_second,不能沿用原始指标名
HPA YAML 中 targetAverageValue 和 targetAverageUtilization 别混用
前者用于自定义/外部指标,后者只适用于 cpu 和 memory 这类资源指标。混用会导致 HPA 状态卡在 Waiting for metrics to become available。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 自定义指标一律用
targetAverageValue,单位需与 Prometheus 中一致(比如 QPS 就写10表示每秒 10 次) - 别试图对
counter类型指标(如http_requests_total)直接设 target——要用rate()聚合,这一步必须在prometheus-adapter的metricsQuery里完成 - HPA 默认每 15 秒同步一次指标,如果你的业务毛刺短于这个周期,扩缩容会有明显滞后,这不是代码问题,是机制限制
/metrics 有没有值,再查 Prometheus 是否收录,再试 raw API,最后看 HPA event。漏掉任何一环,都会以为是代码写错了。










