
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
让我们从构建ChatGPT的步骤开始,并探讨这些工具的认知心理学意义。大家好,我一直想制作这个视频,这是一个面向普通观众的大型语言模型(如ChatGPT)全面介绍。Tokenizer示例:单词"hello world"可能被拆分为两个token(如15339代表"hello",11917代表" world")。使用Common Crawl等工具抓取互联网文本,构建类似"FineWeb"的数据集(约

本文提出了一种名为ReAct的新方法,通过协同大型语言模型(LLM)的推理能力和交互式决策能力来提升任务解决效果。ReAct采用交错生成推理轨迹和具体操作的方式,使两者相互促进:推理轨迹帮助模型制定、跟踪和调整行动计划,而操作则允许模型与外部环境交互获取信息。实验表明,在HotpotQA问答和Fever事实验证任务中,ReAct通过与维基百科API交互克服了思维链推理中的幻觉问题;在ALFWorl

本文介绍了AIOps告警归因中提示工程的4个进阶阶梯,旨在提升LLM在告警分析中的可控性和工程化程度。从最简单的"需求说明式"提示,到结构化输出、JSON契约集成,最终形成可评测的归因系统。每个阶梯都提供了具体模板,强调证据链整合、输出稳定性和系统集成能力。关键点包括:统一提示骨架、强制证据引用、定义根因枚举类别、建立评测指标体系和A/B测试机制,使LLM成为生产环境中可靠的分

在本课中,您将练习两个提示原则及其相关策略,以便为大型语言模型编写有效的提示。

你输入模型的文本被称为提示,生成文本的行为被称为推断,输出文本被称为完成。用于提示的文本或可用的内存的全部量被称为上下文窗口。尽管这里的示例显示模型表现良好,但你经常会遇到模型在第一次尝试时无法产生你想要的结果的情况。你可能需要多次修改提示中的语言或其编写方式,以使模型按照你想要的方式行为。这种开发和改进提示的工作被称为提示工程。这是一个大话题。但是,一种强大的策略是在提示中包括你希望模型执行的任

说明在本文中,我将介绍iOS编程中的MVVM设计模式,当然还有RxSwift的介绍。本文分为两部分。在第1部分中简要介绍了RxSwift的设计模式和基础知识,在第2部分中 ,我们有一个使用RxSwift的MVVM的示例项目。1. 设计模式:在第一,这是更好地解释为什么我们要使用设计模式?简而言之:为了避免我们的代码出现意粉,这当然不是唯一的原因。原因之一是可测试性。有很多设计模式,我们可以将一些流
本文系统介绍了多模态LLM的原理与工程实现,提出4种递进式解释:从直观认知到严谨数学定义。重点阐述了数学公式、图片、视频在工程中的存储、检索与生成方法,包括LaTeX处理、关键帧提取等技术细节。作者设计了一套本地可运行的多模态检索PoC系统,采用FAISS+SQLite+OpenCLIP架构,详细说明了数据结构、向量索引参数选择(HNSW算法)和评估指标(Recall@K、nDCG等)。该方案支持

本文系统介绍了ReAct智能体(react_agent)的原理与工程实践,重点阐述了其在AIOps场景下的应用方案。文章首先解析ReAct的核心机制:Reason-Act-Observe循环,通过交替进行推理与工具调用来获取外部事实支持决策。随后提出四种实现难度梯度,从基础工具调用到具备POMDP建模能力的严谨系统。针对AIOps场景,详细设计了一个离线可运行的PoC方案,包括工具契约、结构化输出

本文为工程团队提供了一份本地离线环境下使用LoRA技术微调大模型进行Python代码生成/修改的实践指南。针对几万条数据规模,重点分析了LoRA相比全量微调的优势:训练成本低、参数体积小、版本管理灵活。文章详细介绍了数据设计(需包含测试失败日志和unified diff格式输出)、训练参数配置(推荐r=16起步)、评估指标(补丁可应用率和测试通过率)等关键环节。特别强调了代码修改任务与普通生成的区

本文介绍了AIOps告警归因中提示工程的4个进阶阶梯,旨在提升LLM在告警分析中的可控性和工程化程度。从最简单的"需求说明式"提示,到结构化输出、JSON契约集成,最终形成可评测的归因系统。每个阶梯都提供了具体模板,强调证据链整合、输出稳定性和系统集成能力。关键点包括:统一提示骨架、强制证据引用、定义根因枚举类别、建立评测指标体系和A/B测试机制,使LLM成为生产环境中可靠的分








