
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
多轮对话设计:1、滑动窗口;2、历史摘要;3、对话状态跟踪:记忆提取、指代消解、Prompt

LoRA是**参数高效微调(PEFT)**的一个典型代表,属于局部微调的子类。它的核心特点是:冻结原始模型:不修改 W,保证原始模型的完整性。新增少量参数:通过 A 和 B 矩阵引入少量可训练参数。任务特定适配:为特定任务(如指令跟随、领域知识注入)快速调整模型行为。模块化设计:LoRA适配器独立于原始模型,易于保存、加载和切换。

在开发我的法律智能管理助手时,我遇到了一个经典问题:如何为用户提供安全、便捷且成本可控的注册登录方式?短信验证码需要企业资质,第三方OAuth又过于复杂。最终,我选择了国内邮箱验证这条路径——利用最常见、最易得的个人邮箱(如163网易邮箱),通过SMTP协议发送验证码,完美解决了身份验证需求。本文将完整记录从原理认知、环境准备、代码实现到集成到LangGraph智能体架构的全过程。无论你是独立开发

Ollama 适合个人开发者和中小型场景快速部署和本地推理大模型,但在精度、可微调能力和企业级支持方面仍有不足。

▲自然语言大模型:专注于理解和生成文本,擅长处理与语言相关的任务;▲多模态大模型:能同时理解和生成文字、语音、图像、视频等多种数据形态,实现更接近人类感知的智能;

RAT技术通过深度整合检索与推理,为大语言模型解决复杂问题提供了全新范式。尽管存在响应速度等挑战,但其在提升事实准确性和逻辑严谨性方面的价值已经得到验证。随着检索效率的不断提升和推理算法的持续优化,RAT有望成为下一代AI系统的标准架构,推动大模型在医疗、法律、科研等专业领域的深入应用。未来,我们预期将看到:更精细的推理-检索交互机制跨模态RAT系统(结合文本、图像、代码等)个性化推理模式适配这些

RAFT方法是一种创新的写作策略,通过明确角色(Role)、受众(Audience)、格式(Format)和主题(Topic)四个关键要素,帮助写作者在动笔前构建清晰的写作框架。这种方法不仅适用于教育领域,提升学生的写作能力和创造性思维,还能与AI技术结合,优化Prompt Engineering,使AI生成的内容更加精准和有针对性。RAFT方法强调写作不仅是格式训练,更是角色扮演、观众共鸣和创造

模型微调是现代 AI 应用的关键技能之一。如果说预训练模型是“万能工具箱”,那么微调就是“选对合适的工具并精修”。掌握这项技术,你就能迅速把通用模型打造成特定任务的专家。

多智能体系统(MAS)自主性:独立感知环境、决策和行动。交互性:通过通信或环境间接协作/竞争。目标驱动:为实现个体或集体目标而行动。核心思想:将复杂问题拆解为子任务,分配给多个智能体并行处理,最终通过协作达成全局目标。MAS vs. 单智能体系统对比维度单智能体系统多智能体系统(MAS)任务处理集中式,依赖单一实体分布式,多实体协作可靠性单点故障风险高局部故障不影响全局(高容错)灵活性适应静态环境

✅ LLM 是 AI 智能的基础,而 Agent 是实现目标的行动者。








