logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap

即便现在有很多所谓的 AI 构建平台能快速帮你做 Web 应用和前端交互,但在SEO、搜索引擎索引 机制这样的细节上,它们依然表现得非常粗糙。AI 生成代码固然方便,但它并不能完全替代开发者对底层原理的理解。如果你想让自己的网站被 Google 真正收录、被用户检索到,还是需要对 Sitemap、域名策略、响应头、内容更新策略等有深入控制。AI 只是帮你提高速度,不是替代专业。

#前端#人工智能#javascript
阅读《AI Engineering》笔记04 AI 工程师真正的技术栈

AI 工程不是“训练模型”,而是“把大模型变成真正可用的产品”。AI 工程三层技术栈应用开发(Prompt、RAG、界面、评测)模型开发(Finetune、数据、推理优化)基础设施(部署、监控、GPU 集群)AI 工程与 ML 工程的核心差异注重适配而不是训练模型更大 → 推理优化更重要输出开放 → 评测更重要工程链路更贴近产品 → 更依赖全栈能力未来 5 年最缺的人才,就是能搭建这一整套链路的A

#人工智能
《Prompt Engineering白皮书》笔记05 别再只会“直接问 AI”了:两个让大模型更聪明的隐藏技巧(实测有效)

✅ 先问“大方向”✅ 再做“具体任务”✅ 让模型自动调用更多隐性知识在回答下面问题之前,请先总结这一类问题的通用思路,然后再根据这个思路一步一步给出答案。很多人以为自己“会用 AI”,其实只是会“跟 AI 聊天”。真正的高手,是教会 AI 怎么思考。

《2049:未来10000天的可能》笔记06AI是镜像世界最重要的基石

过去 10 年的视频识别 → AlphaGo → 大模型 → 多模态,其实已经透露出 AI 的“演化路径”。如果规模路线失效,而类脑模型又久久没有突破,那么 AI 会停在一个看起来“很厉害但远不够厉害”的阶段。人类大脑只需要 25W,却远比现有大模型高效,这必然启发新的 AI 设计思路。这五件事将彻底重塑人类社会的运转方式,就像蒸汽机、电力、互联网曾经做的那样。如果一个行业因为“模型又涨 10 倍

#人工智能
《Prompt Engineering白皮书》笔记08 我用 Gemini 10 分钟写完脚本,100 个文件自动改名

👉 心里还在安慰自己:“写脚本太麻烦了,还是手动快一点…手动 + 右键 + 重命名 + CtrlV(绝望循环)👉 几百个文件,Ctrl+C、Ctrl+V 到手抽筋。直接“写一个 Prompt 交给 Gemini”。原来不是我不会写脚本,是我不会“问 AI”。直到我把这件事交给了 Gemini。它直接给了我一段完整可用代码(而且。👉 看了 10 分钟依然怀疑人生。❌ 以为 AI 是来“写代码”

阅读《AI Engineering》笔记09 为什么大模型的回答不是固定的

Sampling 决定了:模型会不会“胡说八道”输出是创意还是稳定同样 prompt 得到的答案会不会变化模型生成的效率和速度多样性 vs 可控性如何平衡Sampling 是大模型“性格”的调节器。如果你能熟练调教 temperature、top-k、top-p、采样次数、停止条件,你就能让模型输出朝着你想要的方向走。

#人工智能#机器学习#算法
阅读《AI Engineering》笔记16 为什么你的 AI 应用上线后没人知道有没有效果?

你怎么知道这个应用“成功”?企业真正需要的不是一个“看上去很酷的模型”,而是一个结果可度量、可复现、可优化的业务组件。如果我们能:在应用开发前定义好完整评估体系构建可靠的评估流水线持续监控模型在真实世界的表现那么 AI 的落地速度将大幅提升。Evaluation-Driven Development,不是技术,是方法论。也是未来 AI 工程最重要的基石之一。

#人工智能
阅读《AI Engineering》笔记14 「AI Judge」评测技术

MLflow 的评分方式 ≠ Ragas ≠ LlamaIndex。听起来很离谱,但这已经成了目前最主流的 AI 评价方式之一。一个 AI 模型,专门负责给另一个 AI 的回答打分。✅ 语气是否符合角色设定(如“像不像甘道夫说的?例子:Google 的 Cappy(3.6 亿参数)未来会不会出现专门“评测型 AI”这个职业?没关系,让 AI 来打分。只抽查一部分样本(spot-check)100

#人工智能
阅读《AI Engineering》笔记13 评估大模型有多难

能用功能验证的,就别用相似度;能用相似度的,就别太信参考答案;能用语义向量的,才是比较接近“人类理解”的评估方式。

#人工智能
阅读《AI Engineering》笔记10 AI 幻觉的真相

甚至前一句刚说“Chip Huyen 是建筑师”,后一句又一本正经地胡说八道。模型在模仿“它不理解的知识”时,等于被训练去“瞎编但要编得像真的”。模型若生成一段解释性文字,一切 downstream 都挂。一个缺右括号的、跑不了的、甚至完全不是 JSON 的玩意。“模型其实知道自己知道什么,但我们训练方式却让它混淆了。它可能 70% 的时候回答越南菜,30% 说意大利菜。你让模型帮你生成一个 JS

#人工智能
    共 13 条
  • 1
  • 2
  • 请选择