
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
文章详细介绍了LangChain中的文本分割器,涵盖了为什么需要文本分割、基于文档长度与语义的拆分方法(如CharacterTextSplitter和基于Token的分割)、递归字符文本分割器(RecursiveCharacterTextSplitter)、特殊文档结构拆分(如Python代码分割器)、各种分割器的对比与选择建议、重要参数详解(如chunk_size、chunk_overlap和s

我们用的是MindIE的openEuler镜像,先装基础依赖:暂时无法在飞书文档外展示此内容然后就可以开始执行编译:暂时无法在飞书文档外展示此内容Apex编译看似简单,实则暗藏许多细节。本文通过真实案例,深入剖析了从网络代理到系统库路径的各个环节。Docker守护进程代理配置容易漏lib和lib64路径差异编译脚本会覆盖手动修改希望大家可以学习一些经验教训,对于大模型训练来说,Apex基本是必备工

一开始觉得是.to('cpu')慢,结果完全不是。性能问题必须用工具定位,Python层面的计时在异步场景下不可靠。尤其是在涉及NPU/GPU异步计算时,不加测出来的时间都是假的。对于ResNet18、MobileNet这种小计算量模型,调度开销是杀手,开启任务队列优化是必须的。MindStudio的Timeline视图非常直观,能精确到每个算子的微秒级耗时。这个工具一定要学会用。同时昇腾NPU首

本文系统介绍了检索增强生成(RAG)技术的核心原理与实践流程,指出其通过结合外部知识库与大模型能力,有效解决了模型知识时效性不足与私有数据泄露风险。文章详述了RAG“离线构建”(文档加载、文本分割、向量存储)与“在线检索”(查询向量化、相似度搜索、答案生成)的两阶段流程,并重点讲解了LangChain框架下文档加载器的关键作用——将PDF、Markdown、Word等异构文档统一转换为包含内容与元

对于我们小白来说,ModelEngine Nexent 这个功能最大的意义就是“门槛降级”:用大白话描述需求,系统自动生成专业的智能体设定,无需复杂的 Prompt 工程;从 “想法” 到 “可用产品” 的流程极短,三步即可完成,成就感强;自动处理模型配置、工具匹配等技术细节,专注于创意实现。

这次我选择 Nexent 智能体平台(nexent.tech),从零搭建一个恋爱陪伴助手:不追求复杂功能,只做温和、理性、健康的恋爱建议输出。核心亮点是:批量导入模型 + 多格式文档构建知识库(MD/Word/PPT),完整体验知识库总结能力,同时聊聊真实使用中的优缺点。

本文系统介绍了检索增强生成(RAG)技术的核心原理与实践流程,指出其通过结合外部知识库与大模型能力,有效解决了模型知识时效性不足与私有数据泄露风险。文章详述了RAG“离线构建”(文档加载、文本分割、向量存储)与“在线检索”(查询向量化、相似度搜索、答案生成)的两阶段流程,并重点讲解了LangChain框架下文档加载器的关键作用——将PDF、Markdown、Word等异构文档统一转换为包含内容与元

在 LangChain 中,示例选择器就可以帮我们从一组【示例的集合】中根据具体策略选择正确的【示例子集】构建少样本提示。

提⽰词模板(PromptTemplate) 是LangChain的核⼼抽象之⼀,它被⼴泛应⽤于构建⼤语⾔模型(LLM)应⽤的各个环节。

输出解析器(Output Parser)的作用是将 LLM 的非结构化文本输出转换为结构化的格式。








