logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

智能体与大模型的区别

大语言模型与AI智能体的核心区别在于:大语言模型是专注于文本理解和生成的被动响应系统,而AI智能体是具备感知、规划和执行能力的主动系统。大语言模型提供知识支持,AI智能体实现目标执行。未来AI发展趋势是两者深度融合,形成认知与行动的完整闭环。选择时需考虑业务需求:内容生成选大模型,任务自动化选智能体。两者互补促进AI技术发展。

#人工智能
智能体与大模型的区别

大语言模型与AI智能体的核心区别在于:大语言模型是专注于文本理解和生成的被动响应系统,而AI智能体是具备感知、规划和执行能力的主动系统。大语言模型提供知识支持,AI智能体实现目标执行。未来AI发展趋势是两者深度融合,形成认知与行动的完整闭环。选择时需考虑业务需求:内容生成选大模型,任务自动化选智能体。两者互补促进AI技术发展。

#人工智能
Netty-09消息处理流程

Netty消息处理流程可分为接收和发送两大阶段。接收流程包括:1)Selector检测OP_READ事件后分配ByteBuf并读取数据;2)解码器处理ByteBuf数据,累积不足数据等待完整包;3)业务处理器处理解码后的对象并调用业务服务。发送流程则反向进行编码和网络发送。整个流程通过ChannelPipeline完成事件传播,接收消息从Head到Tail传递,发送消息从Tail到Head传递。关

书籍-道格拉斯·霍夫施塔特《哥德尔、埃舍尔、巴赫——集异璧之大成》

《哥德尔、埃舍尔、巴赫——集异璧之大成》是道格拉斯·霍夫施塔特1979年出版的跨学科巨著,获得普利策奖和美国国家图书奖。该书通过数学家哥德尔、艺术家埃舍尔和作曲家巴赫的作品,探讨自指(self-reference)这一核心概念如何贯穿数学、艺术和音乐,进而揭示意识的本质。书中分析了自指与怪圈、形式系统与意义、层次与涌现等重要思想,提出意识可能源于复杂系统的自指结构。这部著作开创了全新的跨学科思维方

LLM-15垂直领域大模型之高质量数据集的打造流程

如何打造垂直领域高质量数据集? 构建垂直领域高质量数据集需要系统化的流程和严格的质量控制。关键步骤包括: 明确需求规划:定义业务范围、质量指标(准确性≥95%、完整性≥98%)和数量要求(如5万条样本) 多源数据收集:采用分层策略整合电子病历(质量评分9.5)、医学文献(9.0)、临床指南(9.8)等权威数据源 专业质量控制: 建立医疗专家验证机制 设置同行评审环节 实施严格的数据脱敏处理 持续维

LLM-15垂直领域大模型之高质量数据集的打造流程

如何打造垂直领域高质量数据集? 构建垂直领域高质量数据集需要系统化的流程和严格的质量控制。关键步骤包括: 明确需求规划:定义业务范围、质量指标(准确性≥95%、完整性≥98%)和数量要求(如5万条样本) 多源数据收集:采用分层策略整合电子病历(质量评分9.5)、医学文献(9.0)、临床指南(9.8)等权威数据源 专业质量控制: 建立医疗专家验证机制 设置同行评审环节 实施严格的数据脱敏处理 持续维

LLM-14垂直领域大模型之生产环境模型部署(K8S完成多机多卡部署)

生产环境K8S部署垂直模型核心方案 Kubernetes为生产环境大模型部署提供自动扩展、高可用和精细资源管理能力。核心架构采用多集群设计,通过全局负载均衡器分发流量。 关键部署要素: GPU资源管理:配置NVIDIA设备插件DaemonSet,实现GPU资源调度 节点分组:划分GPU节点组(如p3.8xlarge)和CPU节点组,通过标签区分工作负载 服务部署: 使用StatefulSet部署L

#kubernetes
LLM-14垂直领域大模型之生产环境模型部署(K8S完成多机多卡部署)

生产环境K8S部署垂直模型核心方案 Kubernetes为生产环境大模型部署提供自动扩展、高可用和精细资源管理能力。核心架构采用多集群设计,通过全局负载均衡器分发流量。 关键部署要素: GPU资源管理:配置NVIDIA设备插件DaemonSet,实现GPU资源调度 节点分组:划分GPU节点组(如p3.8xlarge)和CPU节点组,通过标签区分工作负载 服务部署: 使用StatefulSet部署L

#kubernetes
LLM-13垂直领域大模型之测试环境模型部署(LLaMA-Factory+vLLM)

摘要:测试环境在大模型部署中扮演关键角色,主要用于验证模型功能、性能评估和用户体验测试。LLaMA-Factory测试部署采用容器化架构,包含API网关、负载均衡和多实例配置。测试环境通过Docker、YAML配置文件和自动化测试框架实现管理,支持医疗等垂直领域的数据准备和功能验证。测试用例涵盖健康检查、模型信息等核心接口,确保系统稳定性和可靠性。

LLM-13垂直领域大模型之测试环境模型部署(LLaMA-Factory+vLLM)

摘要:测试环境在大模型部署中扮演关键角色,主要用于验证模型功能、性能评估和用户体验测试。LLaMA-Factory测试部署采用容器化架构,包含API网关、负载均衡和多实例配置。测试环境通过Docker、YAML配置文件和自动化测试框架实现管理,支持医疗等垂直领域的数据准备和功能验证。测试用例涵盖健康检查、模型信息等核心接口,确保系统稳定性和可靠性。

    共 96 条
  • 1
  • 2
  • 3
  • 10
  • 请选择