




基础分群用GROUP BY+聚合函数,需确保SELECT中非聚合字段全在GROUP BY中;动态分位用NTILE或PERCENT_RANK;复杂逻辑宜用CTE分步处理;避免COUNT(DISTINCT)性能瓶颈。
用户分群最直接的方式,就是按某个业务维度(比如注册渠道、地域、年龄段)分组,再统计关键指标。这时候 GROUP BY 是核心,配合 COUNT()、AVG()、SUM() 等聚合函数就能快速产出人群画像。
常见错误是漏写 SELECT 中的非聚合字段——只要用了聚合函数,所有未被聚合的字段都必须出现在 GROUP BY 子句里,否则多数数据库(如 MySQL 8.0+ 严格模式、PostgreSQL)会报错:ERROR: column "xxx" must appear in the GROUP BY clause。
SELECT channel, COUNT(*) AS user_cnt, AVG(order_amount) FROM users u JOIN orders o ON u.user_id = o.user_id GROUP BY channel
orders 表里一个用户有多笔订单,这样会按订单行聚合,不是按用户聚合——需要先去重或用子查询WHERE age BETWEEN 18 AND 25 再查多次,用 CASE WHEN 一次性分类更高效当需要按行为强度(如消费总额、登录频次)把用户划入 Top 10%、中段、长尾等相对层级时,NTILE() 或 PERCENT_RANK() 比手工算阈值更稳——它自动适配数据分布变化,避免某月大促后阈值失效。
典型陷阱是误用 RANK() 或 ROW_NUMBER():前者会跳过重复值导致桶不均,后者完全无视数值大小只按顺序排,都不适合“按值分段”场景。
SELECT user_id, total_amount, NTILE(4) OVER (ORDER BY total_amount) AS quartile FROM (SELECT user_id, SUM(amount) AS total_amount FROM orders GROUP BY user_id) t
NTILE(4) 不保证每组行数完全相等(总数不能被 4 整除时),但比手动算 PERCENTILE_CONT 阈值更轻量PERCENT_RANK() OVER (ORDER BY total_amount) ,注意它是从 0 开始的归一化值
真实分群往往不是单条件,而是“近 30 天活跃且过去一年复购 ≥2 次且客单价 > 200”的组合。硬写在 WHERE 里嵌套深、难维护,用 CTE 分步打标更清晰。
别在每个子查询里重复写时间过滤条件(比如都加 WHERE event_time >= '2025-01-01'),容易漏改、逻辑不一致;统一提到最外层或用参数化视图替代。
WITH active_users AS (SELECT DISTINCT user_id FROM events WHERE event_type = 'login' AND event_time >= CURRENT_DATE - INTERVAL '30 days')
, purchase_stats AS (SELECT user_id, COUNT(*) AS order_cnt, AVG(amount) AS avg_order FROM orders WHERE order_time >= CURRENT_DATE - INTERVAL '365 days' GROUP BY user_id)
SELECT a.user_id, CASE WHEN p.order_cnt >= 2 AND p.avg_order > 200 THEN 'high_value' ELSE 'other' END AS segment FROM active_users a LEFT JOIN purchase_stats p USING(user_id)
分群分析常要算“各渠道的去重用户数”,但 COUNT(DISTINCT user_id) 在亿级订单表上极易成为性能瓶颈,尤其当 user_id 无索引或分布倾斜时。
MySQL 5.7 和旧版 PostgreSQL 对 COUNT(DISTINCT) 优化有限,而 Hive/Spark SQL 虽支持近似去重(APPROX_COUNT_DISTINCT),但线上分析一般不敢用误差结果。
SUM(user_cnt)
user_id 字段有索引;若用的是 ClickHouse,改用 uniqCombined(user_id),性能提升明显COUNT(DISTINCT)(如渠道去重用户 + 去重设备),某些引擎会退化为多次全表扫描分群逻辑越复杂,中间状态越要落地成物化视图或临时表——临时拼接的多层子查询看着简洁,出问题时根本没法定位哪一层的数据畸变。