logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型训练避坑指南

原文:https://baijiahao.baidu.com/s?id=1760862056681517207&wfr=spider&for=pc自 2022 年 11 月底 ChatGPT 发布以来,大模型的热度持续发酵,相信高屋建瓴的讨论大家已经看了很多了。今天我们选择从实用角度,分别就算力、算法、工程、数据和团队等方向讨论了训练一个千亿参数量级的大语言模型和ChatGPT需要些什么,希望能够

#人工智能#机器学习#自然语言处理
常用向量检索组件收集-持续更新中-大家推荐

一。MilvusMilvus 是 一款开源的、针对海量特征向量的相似性搜索引擎。Milvus能够很好地应对海量向量数据,它集成了目前在向量相似性计算领域比较知名的几个开源库(Faiss, SPTAG等),通过对数据和硬件算力的合理调度,以获得最优的搜索性能。二。Faiss - 高维向量相似度检索和聚类库Facebook 开源的一个高性能的高维向量相似度检索和聚类库。开源协议之前采用 BSD + P

EduChat:教育行业垂直领域大模型

同时,根据心理学专家和一线教师的反馈,对高质量定制指令进行微调,以激活特定教育功能(如作文评价、苏格拉底式教学和情感支持)。此外,EduChat还探索了检索增强技术,使LLM能够自动判断检索信息的有用性,并根据存储的相关信息和知识生成响应,从而确保回复的准确和可信。EduChat是一个基于大规模语言模型(LLM)的教育领域聊天机器人系统,旨在支持个性化、公平和富有同情心的智能教育,为教师、学生和家

#人工智能#算法
8 种即梦 3.0 视频模型的特殊运镜方式,手把手教你制作高级感拉满的视频 || 喂饭级教程!

回想以前,我们追《阿凡达》或者《黑客帝国》时,总觉得那些炫酷镜头是大导演的专利——得搭绿幕、请摄影师、花大价钱造特效,普通人想都别想。常用于展示动作的瞬间状态,如《黑客帝国》中的子弹时间,增强戏剧性和视觉冲击。快速将镜头从一个方向甩向另一个方向,中间画面模糊,实现快速切换场景或视角。用于拍摄水下世界、潜水场景或科幻中的水下环境,营造神秘、梦幻或紧张的氛围。用于快速切换场景或视角,常用于动作片中的快

#人工智能#AIGC
Qwen3搭建智能作业批改系统的完整实战,终于有AI懂老师了!

说起批改作业这事儿,真是让无数老师头疼的老大难问题。我记得前两天和一个小学老师朋友聊天,她跟我抱怨说每天晚上都要批改到半夜,手都快抽筋了。一个班40多个学生,每人的数学作业、语文作业、英语作业,加起来就是一堆小山。更要命的是,批改完了还得写评语,还要统计错题类型,分析学生的薄弱环节。这种重复性的工作真的很消耗老师的精力,而且说实话,人工批改还容易出错。老师累了的时候,可能一道明明错了的题目看成对的

#人工智能#AIGC
别手动搭n8n了,n8n邪修出手,1个mcp工具让搭建部署全自动

这两天在研究n8n,我发现,n8n的数据,包括工作流的配置,全部都是json格式的,这意味什么?过程非常顺利哈,就是第一遍它没有自动帮我把工作流创建到我的n8n.然后用提示词强调了一下,接着它就调用工具把工作流部署到我的n8n了,看到这里生成了工作流ID说明成功了。因为我抓的网址是动态加载数据的,这个爬取还是有一定难度的,要使用模拟浏览器什么的。不过,我只测试了一两遍,不够说明哈,各位道友,有兴趣

#开源#人工智能#AIGC
专为AI伴侣设计的开源记忆框架!MemU:可让AI助手/虚拟助手拥有长期记忆能力!

MemU 打破传统黑盒向量存储模式,将记忆以可读文档形式组织,存储于智能文件夹中,由「记忆代理」自动管理:动态筛选需记录的内容、更新旧记忆、归档无效信息。区别于传统向量嵌入的不可读存储,MemU 采用结构化文档组织记忆,支持人工直接查看(透明化AI记忆内容)、手动编辑(修正错误记忆)及实时分析(统计与可视化),兼顾调试便捷性与数据可操作性。例如提及“上周看的电影”时,能快速关联用户“电影偏好”“观

#人工智能#AIGC
oLLM8GB显卡也能跑800亿参数大模型!千元硬件玩转10万token上下文

我用RTX 3060(12GB显存,比3060 Ti多4GB)跑Qwen3-Next-80B,处理10万token的中文小说摘要,显存占用8.2GB,SSD用了210GB,生成速度0.6 token/秒,花15分钟生成了2000字的摘要,比用在线大模型API省钱多了。1. 中文Tokenizer适配:国产大模型的分词器(Tokenizer)和英文模型不同,中文单字、词语的token长度更短,KV缓

#人工智能#AIGC
使用 LMCache + vLLM 提升 AI 速度并降低 GPU 成本

LMCache 是 vLLM 等运行大型 AI 模型的系统的小助手。它保存这些被称为KV 缓存的东西——基本上是 AI 阅读文本后的便利贴。LMCache 不会每次都涂写新的笔记,而是将它们放在手边,这样你的 AI 就不会浪费时间或消耗昂贵的 GPU 算力。你的 AI 开始以惊人的速度回答问题——有时快七倍,不开玩笑。它使用更少的 GPU 资源,所以你不会因为云账单而哭泣。它非常适合聊天机器人或应

#人工智能#AIGC
教师必备!DeepSeek+Word智能组卷技巧大公开

如果在窗口菜单中没有找到开发工具选项,请选择“开始”,进入word初始界面。新建一个对话,将生成的试题文档上传至DeepSeek平台,指令如下:指令Vba宏,一键适配,word纸张横向,A3大小。· 人工优化:输出内容完成后,仔细审核试题难度,适当调整阅读材料篇幅,完善细节内容。文档准备:创建新的Word/pdf文档,输入本学期相关知识点的内容梳理,并给出具体知识点及重难点掌握要求。在开发工具中选

#AIGC#人工智能
    共 393 条
  • 1
  • 2
  • 3
  • 40
  • 请选择