登录社区云,与社区用户共同成长
邀请您加入社区
本文详细解析了OpenAI突破性无向量化RAG架构,通过层次化导航模拟人类阅读方式,无需向量数据库即可实现高效知识问答。文章剖析了法律问答案例,并分享了分层模型选择策略,帮助构建高效AI智能体系统。从原型到生产的完整考量框架,为AI落地实践提供了宝贵指南。大家好,我是玄姐。▼ 《AI 落地训练营》免费干货直播预约保你有收获AI 应用在企业中落地越来越多了,特别是帮助用户从海量文档中迅速找到所需信息
NetCoreKevin项目提供了多个主流第三方服务的集成方案,包括阿里云(支付、OSS存储、短信)、腾讯云(COS存储、短信)、百度AI(图像处理)和微信支付(APP/小程序支付)。各服务通过模块化的Helper类封装API调用,支持统一配置管理和简洁的调用接口。文档详细说明了各服务的配置参数、API方法、返回格式及示例代码,并提供了常见故障排查建议。该系统采用分层架构设计,通过标准化的数据流处
NetCoreKevin配置系统摘要:该文档详细介绍了基于.NET Core的NetCoreKevin项目配置框架,支持JSON文件、环境变量和命令行参数三种配置源。核心配置包括日志级别、JWT认证、数据库连接、身份服务器集成及云存储服务设置,采用分层优先级设计(命令行>环境变量>配置文件)。系统通过appsettings.json提供基础配置,支持环境特定覆盖(如appsetting
NetCoreKevin是一个基于.NET Core的支付与用户管理系统,提供微信/支付宝支付处理、用户标记管理和权限控制功能。系统采用三层架构设计,包含API控制器、服务层和领域模型。核心组件包括PayController处理支付请求、SignController管理用户标记、UserController操作用户信息,以及对应的服务类和实体模型。项目通过依赖注入实现松耦合,支持微信小程序集成,并
Python Django+Vue3+SQLAlchemy 学校运动会管理系统应用源码|前后端分离架构+PostgreSQL,拿走直接用(附源码,数据库,视频,可提供说明文档(通过AIGC技术包括:MySQL、VueJS、ElementUI、(Python或者Java或者.NET)等等功能如图所示。可以滴我获取详细的视频介绍。
NetCoreKevin企业级应用系统简介 NetCoreKevin是一个基于.NET Core的模块化微服务系统,包含API服务、授权管理、领域模型等核心组件。系统采用JWT认证、Redis缓存、SignalR实时通信等技术,集成阿里云/腾讯云服务。通过Consul实现服务发现,支持分布式锁处理并发请求。项目结构清晰,包含AppVTApi主服务、AuthorizationService授权中心、
想象一下,在一个繁忙的软件开发工厂里,AI应用架构师们就像技艺精湛的工匠,他们拿着需求文档,如同捧着珍贵的蓝图,要将业务需求转化为精妙的AI架构。然而,这个过程往往充满了挑战。传统上,从需求到架构的映射,就像是手工绘制一幅复杂的地图,每一步都需要架构师凭借深厚的经验和敏锐的洞察力去精心规划。比如,一家电商公司想要利用AI来优化其商品推荐系统。架构师首先要深入理解业务需求,如推荐的精准度要求、实时性
Agentic AI的核心竞争力是"理解能力",而"理解能力"的核心是"上下文工程架构"。技术厂商的"护城河":谁能搭建更高效、更智能的上下文工程架构,谁就能在Agentic AI市场占据先机;企业客户的"刚需":企业需要智能体"懂"自己的业务场景、"懂"自己的用户,而这需要强大的上下文工程支持;开发者的"必备技能":未来的Agentic AI开发,不再是"调LLM的Prompt",而是"设计上下
本文介绍了一个基于SpringBoot+Vue的养老院管理系统,旨在解决传统养老院管理效率低下的问题。系统采用B/S架构,前端使用Vue.js+Element UI,后端采用Spring Boot框架,数据库为MySQL。主要功能包括用户端(服务项目查看、新闻资讯、论坛交流等)和管理端(老人信息管理、床位管理、餐饮套餐管理等)。系统实现了高效的信息化管理,提升养老服务质量,为养老服务数字化提供了实
不要盲目追求“最先进的模型”,先去理解场景的“最本质的需求”——这才是架构优化的“起点”,也是“终点”。
《GPT多模态大模型与AI Agent智能体》一书深入探讨了RAG(检索增强生成)技术的原理与架构。RAG通过结合大语言模型与向量数据库,显著提升生成答案的准确性与相关性,缓解模型幻觉问题,并支持实时知识更新。其核心架构包括数据准备、分块与向量化、索引构建、检索过程及上下文增强生成等环节。高级技术还涉及查询转换、智能体集成和多轮对话处理等优化策略。该书涵盖理论解析与实践案例,适合作为人工智能领域的
作为AI应用架构师,我经常被问:“为什么这个架构要这么设计?”“换个结构行不行?” 大多数时候,答案不在框架文档里,而在数学底层逻辑中——Transformer的注意力机制不是拍脑袋想出来的,而是解决“序列建模长距离依赖”的数学最优解;扩散模型的“加噪声减噪声”不是玄学,而是随机微分方程的数值解法;MoE混合专家模型的“选专家”不是贪心策略,而是凸优化的约束问题。很多AI从业者停留在“用框架搭模型
为后续分析建立精确的术语体系,我们先定义两个任务的输入、输出与目标工业场景对实时性(延迟<1秒)和可靠性。
检索增强生成(RAG)是一种通过检索相关信息来增强传送至 LLM 的提示词(prompt),进而生成回应的方法。其核心思想是:与其直接向 LLM 发送提示词——而该 LLM 可能并未训练过你的特定数据,不如在提示词中补充相关信息,从而使 LLM 能更准确地回答问题。
本文系统阐述了低代码平台的核心技术架构与功能体系。平台通过五大核心引擎(SQL、功能、模板、图表、切面)协同工作,实现高性能数据处理与可视化开发。采用模型驱动开发(MDD)理念,结合AI智能辅助,支持自动化代码生成与优化。平台提供丰富的插件生态,涵盖实时数据处理、AI模型训练等场景,并通过微服务架构确保系统扩展性。企业级功能增强包括可视化CRUD操作、动态业务逻辑配置、智能图表分析等,显著提升开发
llama.cpp的CUDA后端采用了两阶段异步流水线架构(stages_count=2),实现了计算与内存传输的完美重叠。这种设计基于CUDA的机制,通过生产者-消费者模型最大化硬件利用率。流水线工作流程生产者线程:负责通过异步地将下一批次数据从全局内存传输到共享内存消费者线程:同时处理当前批次的计算任务,执行实际的模型推理运算这种并行处理方式确保了当GPU在执行计算时,下一批数据已经在后台进行
本文精选GitHub上10个有价值的LLM开源项目,涵盖从入门到进阶各阶段。包括微软的机器学习和AI入门课程、Karpathy的神经网络实现、深度学习论文实现、MLOps实践、LLM实战开发、RAG技术、AI代理开发等。无论新手还是有经验的开发者,都能通过这些项目获得丰富实战经验和代码示例,提升AI技能,是AI工程师学习的宝贵资源。
开发大模型相关应用,其技术核心点虽然在大语言模型上,但一般通过调用 API 或开源模型来实现核心的理解与生成,通过 Prompt Enginnering 来实现大语言模型的控制,因此,虽然大模型是深度学习领域的集大成之作,大模型开发却更多是一个工程问题。
大模型相关的面试问题通常涉及模型的原理、应用、优化以及面试者对于该领域的理解和经验。以下是一些常见的 大模型面试问题以及建议的回答方式:
Mem0是开源AI记忆层,解决AI"健忘"问题。支持多级记忆架构,采用向量嵌入和图数据库技术实现高效记忆存储与检索。完全开源支持本地部署保护隐私,提供API接口便于集成,可与多种AI应用和框架协作。让AI助手记住用户偏好,提供个性化和连贯的交互体验。
本文探讨从简单Prompt到企业级AI Pipeline的架构演进。企业级AI应用面临可靠性、扩展性、安全性、可维护性和成本控制等核心挑战,需构建分层架构:接入层处理请求,编排层决策流程,核心层执行AI逻辑,数据层提供知识支持,模型层部署推理能力,监控层保障系统健康。关键组件包括动态Prompt管理、RAG系统、Agent框架等。通过模块化Pipeline设计,可解决单一Prompt的脆弱性和功能
本文全面梳理2025年大模型(LLM)面试知识体系,涵盖六大模块:基础核心、架构演进、推理优化、应用生态、前沿趋势和手撕代码。内容覆盖Transformer原理、MoE、Flash Attention、RAG、Agent、多模态等关键技术,强调深度与广度结合,理论与实践并重,帮助求职者系统准备大模型面试。
LongCat-Flash是美团开源的560B参数MoE架构大模型,创新采用零计算专家和快捷连接MoE技术,动态激活参数仅18.6B~31.3B,实现百B级最快推理速度。模型在Agent能力、编程和指令遵循方面表现优异,技术报告详尽,为开源社区做出重要贡献,适合开发者学习研究。
本文将聚焦"隐私与合规"这一AI时代的生命线,系统拆解未来提示架构必须满足的核心要求,从风险识别、法规解读到设计落地,手把手教提示工程架构师构建"隐私原生"的提示系统。我们会深入探讨:提示架构中隐藏的隐私风险点有哪些?全球主流隐私法规如何约束提示设计?如何将"隐私设计原则"嵌入提示模板、数据流转和权限控制中?以及提示工程架构师必须掌握的合规操作指南和工具链。本文从隐私风险识别、法规基线解读、隐私设
中,碳星球解决方案能够助力园区实现全方位低碳转型。能够准确计算不同区域、不同类型碳汇的固碳能力及其变化情况,为生态补偿、碳交易等政策制定与市场机制运行提供科学依据,促进碳汇资源的有效保护与合理开发利用,增强生态系统碳汇能力,助力实现碳中和目标。全球工业碳排放数据专题数据(来源:清华大学地球系统科学刘竹团队、全球实时碳数据库团队,时间:2021年9月)通过碳卫星去抓取,再结合全球工业碳排放等实时数据
文章介绍了大模型与智能体的概念、特点及关系。大模型是参数规模巨大的AI系统,具有理解和生成人类语言的能力;智能体则是能感知环境、决策并执行动作的自治系统。大模型相当于智能体的"大脑"和"核心引擎",而智能体是大模型能力的"延伸"和"具身化"应用。两者相辅相成,未来大多数AI应用将以智能体形式出现。
直接拿走,意外获得200多套代码,需要的滴我【2025版本】Django+Vue架构微信智能招聘系统管理应用源码+SQLAlchemy+PostgreSQL(可提供说明文档(通过AIGC。
【2025版本】Django+Vue架构云南省旅游信息平台管理应用源码+SQLAlchemy+PostgreSQL,拿走直接用(附源码,数据库,视频,可提供说明文档(通过AIGC技术包括:MySQL、VueJS、ElementUI、(Python或者Java或者.NET)等等功能如图所示。可以滴我获取详细的视频介绍。
如果在该Ability的“skills”属性中,“actions”的取值包含 “action.system.home”,“entities”取值中包含“entity.system.home”,则该Ability的icon将同时作为应用的icon。表示Ability名称。|| entities | 表示能够接收的Intent的Ability的类别(如视频、桌面应用等),可以包含一个或多个entity
查询生成是整个信息处理链条的终点,也是决定最终结果是否准确的“临门一脚”。它负责将经过意图识别和问题改写后的标准化、结构化查询,最终翻译成目标数据系统能够直接执行的机器语言。这种语言通常是SQL(Structured Query Language),但也可能是某种领域特定语言(Domain-Specific Language, DSL)。核心挑战:这是最基本的要求。生成的查询代码必须严格遵守目标数
美团LongCat团队发布5600亿参数LongCat-Flash混合专家模型,创新采用Zero-Computation Experts和Shortcut-Connected MoE技术,实现动态计算资源分配和通信效率优化。模型通过多阶段训练策略和稳定性控制,在智能体任务、代码生成和推理能力上表现优异,推理速度达100 token/秒。项目已全面开源,为AI智能体研究提供新标杆。
Python Django+Vue3+SQLAlchemy 3学校药店信息管理系统应用源码|前后端分离架构+PostgreSQL,拿走直接用(附源码,数据库,视频,可提供说明文档(通过AIGC技术包括:MySQL、VueJS、ElementUI、(Python或者Java或者.NET)等等功能如图所示。可以滴我获取详细的视频介绍。
Dify是一款开源大模型开发平台,提供可视化界面和强大功能,帮助开发者快速构建AI应用。它支持多种语言模型,提供直观工作流设计、RAG功能、AI Agent集成和LLM运维管理。安装简单,只需Docker环境。作为GitHub上107k星的热门项目,Dify成为AI工程师的必备工具,能极大提升开发效率,解决AI应用开发中的各种痛点。
开源免费分享Python Django+Vue3+SQLAlchemy 3学校药店信息管理系统应用源码|前后端分离架构+PostgreSQL可提供说明文档 可以通过AIGC**技术包括:MySQL、VueJS、ElementUI、(Python或者Java或者.NET)等等功能如图所示。可以滴我获取详细的视频介绍。
【2025版本】Django+Vue架构深度学习月季养护系统管理应用源码+SQLAlchemy+PostgreSQL,拿走直接用(附源码,数据库,视频,可提供说明文档(通过AIGC技术包括:MySQL、VueJS、ElementUI、(Python或者Java或者.NET)等等功能如图所示。可以滴我获取详细的视频介绍。
AI智能体是能够感知环境、自主决策并采取行动以实现特定目标的计算系统,具有感知、决策、行动、自主性和学习能力等特点。根据复杂度可分为简单、复杂和软件智能体;根据功能可分为反应式、基于模型、学习型及多智能体系统。广泛应用于游戏、机器人、虚拟助手和自动化系统等领域。
ShizhenGPT是全球首个覆盖望闻问切全模态的中医大模型,基于超300GB多模态数据预训练,实现舌象、脉象等信号的智能感知与统一推理。该模型在中医资格考试中表现优异,超越多数同级模型,首次验证了中医脉象、嗅觉等传统诊断信号的科学性和可建模性,为中医AI发展带来突破性进展。
下载适用于 Linux ARM64 的版本正确解压文件并移动到系统路径确保 Ollama 服务正常运行使用 systemd 管理服务更方便按照本文的步骤,您应该能够成功在 aarch64 架构的 Linux 系统上安装和运行 Ollama,并开始使用各种大型语言模型。安装完成后,您可以根据需要下载和运行不同的模型,如 llama3、mistral 等,开始您的 AI 应用开发之旅。
村田在北京、上海、深圳、台北等亚洲主要城市设立了本地电磁兼容性(EMC)应用实验室与技术支持体系,贯穿客户项目的全流程,支持其在RISC-V平台开发过程中完成电磁兼容性、电源完整性等关键性能评估与优化,为AI、汽车电子等创新应用提供一站式解决方案与协同服务。作为全球居先的电子元器件制造商,村田始终致力于通过高性能的封装电容解决方案,助力RISC-V系统在AI服务器、边缘计算和车载电子等应用中实现更
本文详细介绍了大模型本地部署的重要性及方法,重点讲解了轻量级部署工具Ollama的使用。文章首先说明了本地部署对数据安全和企业需求的重要性,然后介绍了多种部署框架及其适用场景。最后详细指导了Ollama的安装、模型下载、基本操作及API接口使用,帮助开发者快速掌握大模型本地部署技能,特别适合学习和小规模开发测试使用。学习大模型的本地部署能够让你对模型的运行流程更加了解,帮助你了解不同平台和部署环境
领域驱动设计(Domain-Driven Design,DDD)是一种以业务领域为核心的软件设计方法论,由Eric Evans在2004年提出。其核心思想是,通过领域模型的精准表达解决复杂业务系统的设计难题。
【摘要】揭示大模型微调的算力成本构成,提供从理论估算到实战验证的系统化评估方法,助力精准规划资源。
今天回想起 2022 年末发生的两件大事,真有恍若隔世之感。第一件大事是 YQ 管控的放开。第二件大事就是 ChatGPT 3.5 首次为大众所熟知。当时的自媒体圈子,铺天盖地都是各种脑洞大开的与 ChatGPT 的对话截图。当时以 ChatGPT 为代表的 AI 工具,大部分人只是将其当做一个可供消遣的聊天机器人罢了。
秒懂大模型:从 0 到 1 深度定制大模型,这些核心环节不能少(小白也能看懂的收藏指南)
当技术真正服务于 “人” 的需求、“社会” 的发展、“环境” 的可持续,智慧工地必将成为推动建筑业高质量发展的核心动力,实现社会效益与经济效益的双赢,让建筑业在数字时代焕发新生。水电能耗的智能调控,则推动工地向 “低碳” 转型:部署在施工现场的水电表传感器,实时采集各区域、各设备的能耗数据,AI 算法通过分析生产计划与能耗曲线,生成 “错峰用电”“按需供水” 方案 —— 例如将高耗能的混凝土搅拌作
架构
——架构
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net