登录社区云,与社区用户共同成长
邀请您加入社区
在数字化转型的大潮中,企业积累了大量的数据,这些数据包含了丰富的业务信息和潜在的价值。传统的指标管理平台虽然已经能够帮助企业有效地收集、计算、管理和展示关键指标,但在业务分析层面,面对日益复杂的数据环境和业务需求,单纯依靠人工分析已经难以满足高效、精准的管理要求。数据采集与预处理:从各业务系统中采集数据,并进行清洗、转换和标准化处理,基于业务主题生成并落地对应的指标体系,这部分可以由传统数仓和标准
LoRA(低秩适应)是一种高效微调大模型的技术,通过训练少量额外参数(适配器)来赋予大模型新能力,而无需修改原始参数。相比全量微调,LoRA具有显存占用低、训练速度快、存储成本小等优势。技术实现包括冻结原模型、注入低秩矩阵、训练适配器、合并权重等步骤。文章提供了使用LoRA微调千问模型的完整代码流程,涵盖环境准备、数据格式化、参数配置、训练实施等环节,并强调数据质量比数量更重要。该技术特别适合个人
最近和身边的程序员、职场朋友聊天,高频话题离不开“AI替代焦虑”——客服担心被智能应答取代,数据岗从业者吐槽工作越来越卷、求职难度飙升。其实大家完全不必过度恐慌,技术迭代的本质从不是“淘汰”,而是“重构”:旧岗位被优化的同时,必然会催生出一批适配新趋势的高薪岗位。IDC白皮书《智能世界的ICT岗位与技能》就为我们揭开了这场变革的核心真相:到2030年,全球ICT岗位需求将激增3600万,总量突破9
企业对炙手可热的AI人才争夺日趋激烈,除了AI技术人才,能够探索AI应用的人才,将AI工具融入工作流程,以提高生产率、节省时间的人才,以及能够连接技术端与业务端的人才也是很多企业的目标。因此催生了AI领域的全新职位。以下九种与AI相关的岗位无需编程技能即可胜任,岗位具体薪资会根据公司规模及求职者经验有所浮动。
本文深入剖析了大模型检索增强生成技术的演进,从传统RAG到GraphRAG,揭示了后者通过引入知识图谱实现"实体—关系—路径"结构化证据链,在复杂推理、可解释性和可追溯性方面的显著优势。文章系统介绍了GraphRAG的实现路径、关键模块及面临的挑战,并针对不同场景提出了"轻量本体先行+GraphRAG增量生长+HybridRAG控时延"的选型策略,为构建可信智能系统提供实践指导。
本文介绍了一套融合检索增强生成技术、大语言模型、多模态数据解析能力的电商智能客服系统架构方案。该方案通过向量数据库实现毫秒级知识检索,结合大模型的语义理解能力处理复杂售后场景,并支持图片、语音等多模态输入。系统经过生产环境验证,可支撑日均千万级咨询请求,问题解决率提升至85%以上,平均响应时间控制在200毫秒以内,有效降低人工客服压力,提升用户体验与运营效率。
今天这篇文章就带大家深入了解大模型微调。其中主要包括什么是大模型微调、什么时候需要大模型微调、大模型微调方法总结、大模型微调最佳实践等。
AnythingLLM是一个全栈AI应用程序,可以将任何文档、资源(如网址链接、音频、视频)输入大语言模型(LLM),与大模型互动。
你可能还有一个疑问不是说多头注意力机制吗?为什么上述只讲的是单头注意力机制?其实很简单,当我们已经充分认识单头注意力机制了,对于多头注意力机制就很好理解了。我们之前知道对于一个16×512维的矩阵,每个词有一个512维的特征向量,用一组qkv来学习会不会产生学习不充分的问题,这组QKV可能对于前128维的特征向量作用更好,对后面的特征不好。这就提出了多头注意力机制,通过多个视角来观察特征。比如我们
本文介绍了基于LangChain和HuggingFace的本地大语言模型部署方案,以Qwen1.5-0.5B-Chat为例。重点包括:1)环境配置与模型加载,支持GPU/CPU自动分配;2)构建文本生成Pipeline,详细解析温度值、top_k等关键参数;3)LangChain集成实现多轮对话管理;4)性能优化策略如混合精度推理和量化技术。该方案具有数据安全、成本可控等优势,适用于客服系统、教育
本文深入解析了LangChain4j框架中强大的工具调用(Function Calling) 功能,揭秘如何让大语言模型(LLM)突破纯文本生成限制,具备执行外部操作的能力。文章系统对比了底层ChatModel API(手动处理ToolSpecification与ToolExecutionRequest)与高级AI Service API(通过@Tool注解自动转换与执行)两种实现方案,并通过数学
以1750亿参数模型为例,处理简单查询(如天气问答)时仍需调用全部128层Transformer,单次推理消耗高达3500 TFLOPS。实际测试显示,70%的日常请求仅需30%的计算深度即可满足精度要求,固定深度架构造成大量电力与算力浪费。【标注信息】申请人:北京智谱华章科技有限公司 | 申请号:CN202410271377.4 | 申请日:2024.03.11 | 公开日:2024.06.07
openEuler@2024成功推出多个LTS版本,包括AI原生版本,展示了在智能技术领域的实力和全球影响力。该项目不仅在国内取得显著成就,还与多个国际开源组织合作,推动全球开源生态发展。openEuler 24.03 LTS作为首个AI原生版本,在基础设施、智能解决方案、全场景体验及核心组件等方面实现了显著升级,尤其是全新内核带来的性能提升和社区深度协同。该系统支持多样化场景和主流云平台,提供高
目前,春季招聘高峰已告一段落,记者走访发现,随着人工智能应用的爆发,生成式人工智能的招聘市场也十分火爆。在一家大型人工智能软件公司,团队负责人告诉记者,团队主要做基于大模型的办公协作类软件的开发,近期正在升级一款面向程序员的代码工具,产品已经在网页端取得不错的成绩,。**某人工智能软件公司办公协作产品负责人 贾安亚:**我们现在比较着急的是产品运营,还有测试和前端开发的岗位。因为本身整个大模型迭代
过去,主题驱动的文本到图像生成,通常需要在多张含有该主题(如人物、风格)的数据集上进行训练,其代表性方案包括 DreamBooth、LoRAs 等,但此类方案的高存储需求、耗时的微调过程,让很多用户望而却步,导致其无法在真实场景中得到快速应用,而 InstantID 的出现则打破了这个僵局。「IdentityNet strength (for fidelity)」人脸强度或 ID 强度,作用于初始
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模
接下来使用测试多模态的利器,龙珠百人图,之前测试gpt4-v偷懒,智谱更偷懒,只要gemini pro认真分析,看看书生的如何,可惜更偷懒,不过7B的模型这样也不错了。基本上把书生的算力平台熟悉了一遍,jupyter,vscode,terminal都支持操作也比较方便,书生的几个模型中规中矩没有做过多的测试,太困了,交作业睡觉了。接下啦测试agent,lagent模型,需要加大显存了,做个算术题不
人工智能(AI)是当下的热点中的热点,按照国内外普遍的看法,AI正在改变我们的世界。相信最近一段时间,大家都看过不少分析文章,但估计很多看完后的结果,仍旧是一头雾水。有些分析要么过于玄乎,让人半信半疑;有些又感觉点到为止,让人很不过瘾。看到最近的中关村论坛上,李彦宏与比尔·盖茨先后发言,为新技术发展鼓与呼。尤其是李彦宏一篇题为《大模型改变世界》的演讲,确实感觉眼前一亮。为什么这样说?李彦宏是这样解
大模型的发展正迅速成为推动技术创新和行业变革的关键力量。然而,随着模型规模的扩大和应用的深入,也面临着一系列挑战和问题。本文深入探讨了大模型目前面临的十大挑战,从能源消耗、算力成本到数据隐私保护等。同时,我们也展望了未来大模型的发展潜力,涵盖算力能力的进步、模型架构的创新及应用的拓展。通过分析这些挑战与展望,旨在为读者提供一个全面的视角,为推动大模型技术的健康发展和广泛应用提供参考。国际能源署预测
据报告显示2023年中国AI大模型行业规模达147亿元,通过深化通用能力或打造垂直行业模型的方式服务于下游行业,形成了灵活多元化的商业模式。企业用户倾向于选择100~200亿参数的大模型,并偏好本地化部署。大模型在金融、政府、影视游戏和教育领域的渗透率超过50%,电信、电子商务和建筑行业的应用成熟度较高。面临的挑战包括算力不足、数据成本高、人才短缺、法规风险以及市场认知偏差。
AI大模型技术进步能够有效提升生产要素使用效率,并通过改变数据要素的生成方式和企业经营决策驱动方式,提高数据要素在生产要素组合中的地位。中国AI大模型行业应用的发展具有一定的基础优势及需求机遇,但也面临基础算力不足、软件生态仍需补强、传统行业信息化基础薄弱和复合型人才缺乏等行业风险挑战。政府和企业需要共同努力,推动行业发展,抓住投资机会,实现AI大模型技术的价值最大化,为中国数字经济高质量发展贡献
本文将以nanochat 模型的开发流程为例,演示如何在GPU平台上,借助弹性算力与共享存储机制,高效完成从原型实验到大规模分布式训练的全过程:
近年来,随着大语言模型(LLMs)的爆发式发展,越来越多的开发者和中小型公司希望利用这些强大的工具。然而,从零开始构建一个拥有数十亿参数的模型并不现实,算力、资源和技术壁垒让这一目标望尘莫及。
首创的DEM数字化效能管理平台通过自上而下的全域IT管理模式实现对IT投入的全面识别和标准化计量,确保IT投入的透明度和可追踪、IT风险的快识别和智管理,从而为企业的科学决策、资源优化以及效益最大化提供坚实的支持。此次奇墨科技的成功获评,也凸显了业界对奇墨科技算力管理的创新实力和商业模式的高度认可。作为业内首先提出算力管理的服务商,奇墨科技基于独创的ITQM体系打造了全系列的软硬件算力管理产品和服
RAG 技术才刚刚开始兴起,与大语言模型相辅相成,即便是未来大模型支持的文本输入窗口无限增大,成本是需要考虑的,数据隐私也是需要考虑的,而 RAG 作为外部的知识检索和存取技术,支持本地部署,且不会消耗太多额外的算力,相比本地部署大模型,RAG 的性价比更高。借助于 RAG 的优势,加上我们与 Agent 的整合,我们希望该系统的能力会进一步增强,具体可以体现在:信息检索和召回更准确、token消
谈起大模型,很多人倾向于关注最新的基础模型突破或者新场景创新,但我依然会建议大家要溯源大模型的发展脉络。这个世界上并不存在一次性的从0到1的创新,Brain Arthur在《技术的本质》一书中,认为“技术的本质在于其通过组合和建立在现有技术的能力之上,创造出新的能力”。站在今天的时间点,我们知道大模型的突破有三块拼图,算法、算力和数据。其中,1993年黄仁勋创立Nvidia;2006年Geoffr
简而言之,AI产品具有智能化、自适应和学习能力,而普通产品则更依赖于预设的规则和操作。• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框
1、数据是模型的“粮食”,数据的丰富性、多样性和准确性直接影响模型的性能。2、算法是模型的“大脑”,算法的优劣直接决定了模型的智能程度。3、算力则是模型的“动力”,算力是大模型训练和运行的硬件基础。
1024属于我们开发者的节日,算力羊毛薅不停
Gemma是Google推出的一系列轻量级、最先进的开放模型,基于创建Gemini模型的相同研究和技术构建。提供了 2B 和 7B 两种不同规模的版本,每种都包含了预训练基础版本和经过指令优化的版本。所有版本均可在各类消费级硬件上运行,无需数据量化处理,拥有高达 8K tokens 的处理能力:它们是文本到文本的、仅解码器的大型语言模型,提供英语版本,具有开放的权重、预训练的变体和指令调优的变体。
对于具身智能来说,PI0应该算是非常值得研究的一个工作了。而在开源后我们还发现了的身影,即专门去做一个Tokenization来给VLA用。因为发现现在的机器人控制任务,一般都希望有一个很高的控制频率,比如说20乃至50hz。比如说之前的RT-2,OPenVLA这些,其实你控制很慢,基本上7-8个Token才能控制一帧(一般是由控制末端输出量决定的),这其实是算力消耗很大的。当然现在主流的做法会通
内部模型已达GPT 4.5,升级成5.5不再需要100倍算力升级
阿里巴巴Qwen团队发布开源文本转语音模型Qwen3-TTS,提供1.7B和0.6B两个版本,支持10种语言和49+种音色。该模型具备3秒语音克隆、97毫秒低延迟等核心功能,性能优于竞品,采用Apache2.0许可可商用。硬件要求从4GB到12+GB VRAM不等,支持量化优化和微调,适用于内容创作、对话式AI等多种场景。
本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI 兼容 API 等核心场景,助力开发者快速落地隐私优先的本地大模型应用。
本文针对国内开发者的网络与环境特点,提供从 Python 环境配置、ModelScope 安装到模型下载、LlamaCPP 本地推理的全流程落地方案。通过魔搭社区快速获取合规的腾讯优图 2B GGUF 模型,结合轻量级推理框架 LlamaCPP,无需翻墙即可实现隐私优先的本地大模型部署,适合新手快速上手。
大模型本身是无状态的,无法天然保留多轮对话的上下文信息。LangChain v1.0 + 重构后的 Memory 模块通过与 Runnable 体系深度集成,提供了从基础对话记忆到生产级持久化记忆的全栈解决方案。本文将深入解析 LangChain v1.0+ Memory 模块的核心设计、主流记忆类型、自定义实现及生产级落地方案,所有代码均基于最新规范验证,确保可直接应用于多轮对话机器人、客服系统
LangChain v1.0 对核心的 Chain 模块进行了彻底重构,以Runnable 接口统一所有组件的交互方式,替代了旧版本混乱的 Chain 基类体系。本文将深入解析 v1.0+ Chain 模块的核心设计、基础用法、组合进阶、自定义实现及生产级落地方案,所有内容均基于 LangChain v1.0 + 最新规范,确保代码可直接运行、概念准确无误。
本文系统介绍AI产品打造的底层逻辑与落地步骤,涵盖技术边界分析、用户需求挖掘、产品设计与验证、团队组建及产品经理能力升级。文章强调"躬身入局"实践理念,提供从零到精通的大模型学习路径,包括基础理论、RAG开发、Agent设计等五大模块,以及行业报告、面试题等实用资源,帮助程序员和小白快速掌握AI大模型技术,抓住AI时代机遇。
语言模型
——语言模型
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net