从 0 到 1:我如何用纯前端搭了一个 29000+ Skill 的智能推荐平台
SkillHub 上有 29000+ 个 Skill,但没有「筛选」能力——你只能搜,搜出来一大堆,不知道 该装哪个。相似推荐用了简单的标签共现矩阵 ,不用模型,效果够用——找到一个好 Skill,能顺藤摸瓜推荐 5。这篇文章分享的核心不是「做了什么」,而是「怎么判断什么该做、什么 不该做」——比如为什么不做数据库、为什么不用向量检索、为什么 13。权重不是拍脑袋的——跑了一遍用户 调研数据后调的
最近做了一个帮你挑 AI Skill 的工具 SkillPick,这篇文章聊聊背后的技术实现。
问题背景
SkillHub 上有 29000+ 个 Skill,但没有「筛选」能力——你只能搜,搜出来一大堆,不知道 该装哪个。核心困难就一个:怎么在 29000
个里找出每个赛道最好的 3 个?
数据层:Pipeline 设计
```
原始数据(SkillHub API)
↓
数据清洗(去重、去死链、补全字段)
↓
58 赛道自动分类(关键词 + 描述语义匹配)
↓
13 维质量打分(评分、下载量、更新频率、依赖健康度…)
↓
赛道内排序 → Top 3000 精品库
```
关键决策:不用传统数据库,全量数据压缩后打包进前端,一个 JSON 文件搞定。好处是零后端成本,部署在 Minimax Space 直接托管。
打分算法
13 个维度每个独立打分,再加权求和。权重不是拍脑袋的——跑了一遍用户 调研数据后调的参。重点:更新频率和下载趋势的权重
远高于评分,因为评分真的太水了。
前端交互
搜索、赛道浏览、相似推荐三个入口。相似推荐用了简单的标签共现矩阵 ,不用模型,效果够用——找到一个好 Skill,能顺藤摸瓜推荐 5
个类似的。
部署
纯静态资源,打包 zip 扔到 Minimax Space,自动 CDN + HTTPS。日活才几十,完全不需要服务器。
更多推荐




所有评论(0)