
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文提出递归混合体(MoR)框架,通过统一参数共享和自适应计算来解决大型语言模型效率问题。MoR在递归Transformer架构中引入动态路由机制,实现token级自适应计算分配。模型包含两种路由策略(专家选择和token选择)和两种KV缓存优化(递归式缓存和共享缓存)。实验表明,MoR在1.35亿至17亿参数规模下,以更少参数和计算量获得更优性能:验证损失降低19%,少样本准确率提升0.8%,同

我们提出了DianJin-R1,一个旨在通过推理增强监督和强化学习来解决这些挑战的推理增强框架。我们方法的核心是DianJin-R1-Data,一个从CFLUE、FinQA以及专有合规语料库(中文合规检查,CCC)构建的高质量数据集,它结合了多样化的金融推理场景与经过验证的标注。我们的模型DianJin-R1-7B和DianJin-R1-32B基于Qwen2.5-7B-Instruct和Qwen2

本文分析了语言模型产生幻觉(过度自信的错误回答)的统计原因及其持续存在的机制。研究者发现,即使在无错误的训练数据中,预训练过程也会自然产生错误,这类似于二元分类问题中的误分类。通过建立"有效性判断"(IIV)分类任务与语言模型错误生成之间的数学联系,证明了错误率至少是IIV误分类率的两倍。更关键的是,研究指出当前评估体系对不确定性的惩罚是幻觉持续的主因——在0-1评分标准下,模

这篇文章讨论了在使用vLLM引擎运行Qwen3-VL-4B多模态模型时遇到的KV缓存内存不足问题。主要错误显示模型需要36GB显存来处理262144的最大序列长度,而用户显卡仅能提供7.84GB。作者建议通过限制max_model_len参数来解决,推荐设置为8192或16384 tokens来处理单张图片,并提供了具体的代码修改方案。对于12GB显卡用户,还给出了优化显存利用率的建议,包括调整g

在当下互联网人力成本与日俱增的大环境下,如何提升人效来保证企业生存,又该如何转型,从而更有机会做大做强?,答案就是转型低/无代码开发,低代码是指云原生的、可水平扩展的应用程序开发平台(APaaS)。无代码是指不需任何代码的应用程序构建方式,可看作低代码的子集,无代码/低代码分别在加速应用、数据治理、知识积累等三个方面为各类型企业业务数字化转型和升级助力

当下,低代码是指云原生的、可水平扩展的应用程序开发平台(APaaS)。无代码是指不需任何代码的应用程序构建方式,既可看作低代码的子集,也可看作低代码的高级形式。

本文记录了在Win11系统上搭建YOLOv8训练环境的过程。关键步骤包括:1)使用conda创建Python3.9虚拟环境;2)安装CUDA版本的PyTorch及相关组件;3)通过源码方式安装ultralytics库;4)解决lap库安装失败的问题(最终通过conda-forge源安装成功)。环境验证显示已成功安装torch 2.4.0+cu124、torchvision 0.19.0+cu124

conda 清除 tarballs 减少磁盘占用 、 conda rename 重命名环境、conda create -n qwen --clone 当前环境

本文介绍了在安装ollama和flash-attn时遇到的GLIBCXX版本问题及解决方法。对于ollama的GLIBCXX_3.4.25缺失问题,提供了通过安装devtoolset-8或源码编译gcc-8.5.0的解决方案。对于flash-attn需要GCC 9+的问题,详细说明了如何安装gcc-11.4.0,包括配置环境变量等步骤。文章还包含Kylin Linux系统的特殊注意事项和调试建议,

什么是大模型 RAG 、 Agent 和 SFT,让 DeepSeek 告诉你答案,勤问多学,感谢AI时代








