logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【无标题】

你想想看,大模型吃的是显存不是显存不是算力,7B 的模型哪怕量化到 4bit,也得要 8G 以上显存才够转起来;要是想跑 13B 的,12G 显存都得捏把汗。说白了,新手就盯准 “量化版小参数模型”,比如 Llama 3 7B 4bit 量化版,或者通义千问的 Qwen-7B-Chat,这些模型在 ModelScope 上就能下,而且带现成的对话接口。一会儿显存不够,一会儿环境报错,最后对着黑屏的

文章图片
#AI
别让线性回归坑惨你!机器学习新手必学:多重共线性 + 残差分析破解法,结果准到哭

至于缺失值,别直接用 0 填充,也别随便删数据,要是缺失率低于 5%,用均值或中位数填充就行,要是缺失率高,比如超过 20%,就得先分析缺失原因,比如是不是 “没填写” 和 “没有该特征” 是两回事,再决定是填充还是删掉这个特征。举个例子,你要预测用户的月度话费,要是把 “用户的星座”“喜欢的颜色” 这种跟话费八竿子打不着的特征加进去,模型不仅会浪费算力,还可能出现 “伪相关”—— 比如刚好某个星

文章图片
#机器学习#人工智能#python +1
大模型微调总白瞎算力?揭秘数据 / 调参 / 评估 3 大致命坑 + LoRA 新手捷径,小白也能一次调对

小索奇之前调模型,就坚持每天抽 30 条结果看,有次发现模型虽然指标好看,但总爱说 “可能、大概” 这种模棱两可的话,后来加了 “增强确定性” 的指令微调,才解决问题 —— 毕竟模型是给人用的,机器算的数再好看,不如实际用着顺手,对吧?比如你调一个文案生成模型,损失值从 5 降到 1,看着挺厉害,结果生成的文案干巴巴的,全是 “本品质量好、价格低” 这种套话,用户根本没兴趣看 —— 这就像考试分数

文章图片
#人工智能#深度学习#机器学习 +1
Agent代码实现上和传统代码有什么区别

传统项目是 “接收指令→返回数据”,AI Agent 项目是 “接收目标→自主拆解→调用工具→完成闭环→记忆优化”。—— 核心差异不在 “前后端是否分离”(AI Agent 项目也可以做前后端分离),而在。

什么是数据标注

数据标注通常需要领域专业知识和人工智能工具的支持。文本数据标注:在自然语言处理任务中,数据标注可以包括对文本中词汇的分词、词性标注、命名实体识别、情感分析、语法分析等。图像数据标注:在计算机视觉任务中,数据标注可以包括图像中物体的边界框标注、图像分类标签、语义分割标签、关键点标注等。地理信息标注:在地理信息系统(GIS)中,数据标注可以包括地图上地点的坐标标记、地图中道路或河流的标注等。医学图像标

pom.xml爆红怎么处理?

点击Add as Maven Project 即可,等待加载完毕就行啦,会变成蓝色M标志,表示成功。其实很简单,右键点击pom.xml。

文章图片
#xml#java#数据库
LoRA 微调总翻车?7B/13B 模型显存爆、效果差?这篇避坑指南让准确率提 40% 还省显卡

上次有个朋友调完模型,直接拿 LoRA 权重和原模型分开用,结果用了一周发现模型回答越来越离谱,问 “怎么煮面条”,它居然说 “要先把面条放进烤箱”—— 后来才知道,他没做模型合并,LoRA 的小矩阵和原模型是分开的,时间长了参数容易 “漂移”。比如有次我把秩设成 256,结果模型生成内容的时候,翻来覆去就那几句套话,问它 “怎么修打印机”,它能把 “检查电源” 重复三遍 —— 你想想看,要是给一

文章图片
#AI
16G 笔记本就能玩!零代码用 Ollama 本地跑 AI 大模型,新手 10 分钟搞定

建议你连个稳定的 WiFi,别中途断了 —— 你想想看,要是下到 90% 断了,又得重新来,多闹心?我选的是 Ollama,这玩意儿最良心的地方就是 “一键安装”,不管你是 Windows 还是 Mac,官网点一下下载,双击安装包,等个几十秒就完事儿,连环境变量都不用手动配 —— 是不是比你想象中简单多了?很多时候我们觉得难,都是被 “专业术语” 吓住了,真上手才发现,现在的工具早就把复杂的部分帮

文章图片
#AI
别再踩坑!机器学习数据预处理 3 大雷区,数据泄露竟排第一

可要是缺失的是 “用户性别” 这种分类型数据,填平均值根本没用,要么用众数(比如大多数是女性就填女性),要么干脆新增一个 “未知” 类别,这样才不会误导模型。比如你用线性回归、SVM 或者 KNN 的时候,要是特征里既有 “用户年龄”(范围 18-80),又有 “月消费金额”(范围 0-10000),这两个特征的数值范围差了上百倍,模型会不自觉地更看重 “月消费金额”,忽略 “年龄” 的影响。比如

文章图片
#人工智能#机器学习#AI
16G 内存就能跑!Ollama 本地部署大模型超简单教程,小白 10 分钟上手还能搭可视化界面

你想想看,以前跑大模型得要专业显卡,现在只要你电脑内存够 16G(最好是 DDR4 以上),哪怕没有独立显卡,用 CPU + 内存也能跑起来,就是响应速度会比带显卡的慢一点,但日常问个问题、写段文案、帮着改改代码,完全够用。小索奇最近在用 LangFlow,也是免费工具,装完后直接在浏览器打开,拖个 “Ollama” 的节点,选上刚才部署的 llama3:8b,点运行就能用可视化界面聊天了 ——

文章图片
#AI
    共 245 条
  • 1
  • 2
  • 3
  • 25
  • 请选择