logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

本地部署FastGPT使用在线大语言模型

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力,它背后依赖OneApi开源项目来访问各种大语言模型提供的能力。各大语言模型提供的访问接口规范不尽相同,为此OneApi项目提供了统一的API接口去对接各种大语言模型。前排提示,文末有大模型AGI-CSDN独家资料包哦!本文章将介绍如何部署OneApi和FastGPT,以及两种在线大语言模型(和讯

文章图片
#语言模型#人工智能#自然语言处理 +2
系统学习大语言模型!历史、发展与原理解析!

尽管LLMs在许多领域展示了卓越的性能,但它们仍存在一些问题,例如隐私、安全和公平等方面的挑战。未来的研究应着重于解决这些问题,以确保LLMs在更广泛的应用中发挥其最大潜力。

文章图片
#学习#语言模型#人工智能 +3
大语言模型(LLM)分布式训练框架总结

本文总结了深度学习框架技术是如何在硬件条件限制下,通过多年的技术升级,让 AI 模型的规模突破天际的。如果我们从更高的视角看,AI 模型的增长还有硬件,算法等领域的许多突破。整个生态正在飞速的往前发展。

文章图片
#语言模型#分布式#人工智能
大模型工具调用与智能体实现:从入门到精通

文章介绍了基于生成式大模型开发智能体的两种工具调用方法:一是通过特别设计提示词引导模型输出结构化指令;二是利用大模型原生的函数调用机制。详细对比了两种方法的适用场景、稳定性、开发成本等差异,并提供了抽象适配器、服务端校验、可观测性等最佳实践。开发者可根据具体需求选择适合的方法,实现大模型与外部工具的有机结合,构建具备推理分析能力的智能体应用。

文章图片
#人工智能#MCP
从LLM+工具循环到深度智能:Agents 2.0核心思想与LangChain实现,程序员必学收藏指南

深度Agent(Agents 2.0)通过四大支柱(规划、委派、持久记忆、人类在环)解决浅层Agent的状态短暂和上下文溢出问题,实现从"LLM+工具循环"到"深度智能"的范式迁移。LangChain的Deep Agents基于LangGraph提供有状态编排、检查点等能力,支持长周期复杂任务与可恢复执行,适用于研究、异步编码等场景,但需权衡子代理与记忆调用带来的成本。

文章图片
#人工智能
从LLM+工具循环到深度智能:Agents 2.0核心思想与LangChain实现,程序员必学收藏指南

深度Agent(Agents 2.0)通过四大支柱(规划、委派、持久记忆、人类在环)解决浅层Agent的状态短暂和上下文溢出问题,实现从"LLM+工具循环"到"深度智能"的范式迁移。LangChain的Deep Agents基于LangGraph提供有状态编排、检查点等能力,支持长周期复杂任务与可恢复执行,适用于研究、异步编码等场景,但需权衡子代理与记忆调用带来的成本。

文章图片
#人工智能
大模型赋能终端:gemini-cli源码剖析与AI Agent构建指南

本文深度解析Google gemini-cli源码,揭示大语言模型如何重塑命令行终端成为AI协作界面。通过解构其Agent内核、ReAct工作流、工具调用与上下文管理等核心模块,探讨可复用架构设计、LLM动态调度范式及人机共创模式。文章为开发者构建终端Agent提供系统化参考,并展望了与操作系统集成、多智能体协作的未来发展方向。

文章图片
#人工智能#python#java
大模型赋能终端:gemini-cli源码剖析与AI Agent构建指南

本文深度解析Google gemini-cli源码,揭示大语言模型如何重塑命令行终端成为AI协作界面。通过解构其Agent内核、ReAct工作流、工具调用与上下文管理等核心模块,探讨可复用架构设计、LLM动态调度范式及人机共创模式。文章为开发者构建终端Agent提供系统化参考,并展望了与操作系统集成、多智能体协作的未来发展方向。

文章图片
#人工智能#python#java
(2025最新)大语言模型(LLM)入门学习路线图,这可能会是你见过最全的大模型学习路线

前排提示,文末有大模型AGI-CSDN独家资料包哦!大模型,通常指的是在人工智能领域中的大型预训练模型。你可以把它们想象成非常聪明的大脑,这些大脑通过阅读大量的文本、图片、声音等信息,学习到了世界的知识。这些大脑(模型)非常大,有的甚至有几千亿个参数,这些参数就像是大脑中的神经元,它们通过复杂的计算来理解和生成语言、图片等。举个例子,你可能听说过GPT-3,它就是一个非常著名的大模型。GPT-3可

文章图片
#语言模型#学习#java +4
大模型+强化学习_总结篇

该算法的训练数据来自人类的标注,提供问题和两个选项,让人类选择更倾向于 A 或 B,或者两者都同样喜欢,或者无法做出判断,从而构建有监督的数据。进而有研究利用强化学习模型探索环境,对大模型调参,以优模型在现实环境中的决策力。在实验中上述模型也有一些弱点,如:经过强化学习精调的模型损失了之前的部分语言能力,对新对象的泛化能力较强,但对新能力的泛化能力较差。接下来考虑一种扩展使用大模型的场景,在游戏,

文章图片
#人工智能#语言模型#大数据 +1
    共 927 条
  • 1
  • 2
  • 3
  • 93
  • 请选择