
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
随着书生大模型开源生态的不断壮大,越来越多的产品和平台纷纷接入书生大模型。科研人员依托书生大模型持续探索创新,取得了丰富的研究成果;社区用户也不断创造出令人耳目一新的项目。“与书生共创”将推出一系列文章,聚焦这些合作与创新案例。欢迎订阅并踊跃投稿,一起分享经验与成果,共同推动大模型技术的应用与发展。今天要分享的案例,来自知云文献翻译团队。2025 年 4 月,知云团队正式接入书生·浦语(Inter

本文来自社区投稿,作者丁一超书生大模型实战营第5期已正式启动,本期实战营新增「论文分类打榜赛」,以帮助学员更好地掌握大模型技能。本文将手把手带领大家,轻松上手论文自动分类任务。从环境配置、数据准备,到 模型微调和推理部署,完整教程不藏私。即使你是模型微调新手,也能快速参与打榜实践!

本文将带领大家基于华为云 ModelArts,使用 XTuner 单卡微调一个 InternLM 个人小助手。开源链接:(欢迎 star)

LMDeploy 在 0.6.0 这个版本上开始支持华为昇腾NPU。不过官方的文档只包含了 docker 镜像推理的示例,对于非 docker 镜像如何部署安装没有提到,这样对平台的移植性就变差了。好在启智平台提供了华为的昇腾NPU 运行环境,不过这里我们需要注意:虽然启智平台提供了华为的昇腾 NPU 运行环境,但是 不是每个镜像都能很顺利地跑完,我花了些时间进行测试,结果发现大部分镜像是不能运行

InternLM2.5 系列模型现已在 OpenCSG 社区以专区形式正式上线,大家可以灵活选择算力,快速启动推理服务,或利用平台提供的丰富数据集进行模型微调。InternLM 开源链接:(欢迎 star)https://github.com/InternLM/InternLM专区链接:https://opencsg.com/collections/43/OpenCSG 社区还特别提供了 Inte

本文来自社区投稿,作者丁一超书生大模型实战营第5期已正式启动,本期实战营新增「论文分类打榜赛」,以帮助学员更好地掌握大模型技能。本文将手把手带领大家,轻松上手论文自动分类任务。从环境配置、数据准备,到 模型微调和推理部署,完整教程不藏私。即使你是模型微调新手,也能快速参与打榜实践!

其中,“generated_text”中的内容就是模型的输出文本。在与InterLM3的适配过程中, MindIE基于框架引擎能力,提供深度定制优化模块,并内置模型,使能模型迁移适配过程快速复用亲和昇腾的推理加速能力,实现InternLM3-8B-Instruct 模型在昇腾生态社区同步发布。是基于昇腾生态的大语言模型套件,旨在为昇腾生态合作伙伴提供端到端的大语言模型训练方案,包含分布式预训练、分

DataChef 跳出了传统的局部启发式规则,将“数据配方生成”提升为端到端任务。模型只需接收目标基准(Benchmark)与可用数据源作为输入,就能直接输出完整的 Python 数据处理流水线代码,真正实现“所想即所得”。范式: 给定一个任务描述,评测标准,可用的原始数据集,模型输出数据配方,包括可以执行的数据处理管线以及得到的训练数据。在训练过程中,代码的可执行性和数据的质量作为 Reward

更重要的是,真正高频、真正有生命力的 skill,往往会在反复使用中被不断更新、合并、重写——如果一个 skill 被迭代了几十次,那它本质上就不再只是提示词,而是被实践反复打磨出来的人类结晶。用户真正想要的,不是一个只会“临场发挥”的模型,而是一个会在交互中越来越懂你、越来越懂任务的方法型助手。研究团队基于 300 多万级真实对话,抽取出上千个技能,它们不再是一堆零散的提示词,而是人类如何与大模

InternVL-U 的诞生,源于对现有统一多模态模型两大痛点的精准破解:全原生模型训练成本高昂、全集成模型能力失衡。通过架构创新与数据范式革新,InternVL-U 实现了三大核心突破。InternVL-U 以 4B 参数实现了以往 10B + 参数模型才能达到的全栈能力,不仅在技术上突破了统一多模态模型的效率瓶颈,更在场景落地层面提供了灵活、低成本的解决方案。无论是科研教育中的专业可视化、智能








