logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【超长上下文检索评测】Qwen-Agent 智能体 vs 传统RAG vs 大上下文模型,谁更强?

阿里在Qwen-Agent项目中,针对大模型处理超长文本的挑战,提出了层级智能体方案,并在两个长文本基准测试中进行了评估。测试集包括NeedleBench和LV-Eval,分别测试模型在大量信息中定位关键信息及综合多证据的能力。实验对比了三种策略:32k-模型、4k-RAG和4k-智能体。结果显示,在短文本中32k模型表现较好,但在长文本和多跳问题中,4k-RAG和4k-智能体表现更优,尤其是4k

文章图片
#人工智能#深度学习#RAG
【机器学习&深度学习】NLP评价指标 BLEU 和 ROUGE

BLEU:如果你和别人玩“找出相同的单词”游戏,你找到的相同单词越多,得分越高。ROUGE:如果你和别人玩“找出包含相似意思的单词”游戏,你找到的相似意思单词越多,得分越高。

文章图片
#机器学习#深度学习#自然语言处理
【机器学习&深度学习】什么是 GGUF?

​GGUF 全称是 GPT-Generated Unified Format,是由开源社区(特别是 llama.cpp 项目)提出的一种 统一的模型格式,用于本地部署大语言模型。

文章图片
#深度学习#人工智能
【多智能体系统组织方式解析】五大架构赋能智能协作

多智能体系统的组织方式,本质是权力、效率与灵活性的三角博弈。未来的MAS或将融合多种模式——平时以单元结构运行,遇到突发任务动态切换为联盟,而关键任务时升级为团队。当智能体不仅能自主行动,还能自主“选择如何协作”,我们便真正迈向了自组织智能的新纪元。讨论话题:如果你要设计一个外卖配送MAS,你会选择哪种组织方式?为什么?欢迎分享你的设计思路!

文章图片
#架构#python#人工智能
【VLLM】大模型本地化部署

vLLM 非常适合中高级开发者、AI 工程团队,在具备一定 GPU 资源的前提下部署高效、低成本、可控的大语言模型服务,尤其适合本地化、安全敏感、高并发调用等场景。

文章图片
#深度学习
【机器学习&深度学习】制作数据集

方法步骤:1、明确数据格式:明确微调训练的格式需求。只有明确格式需求,才能有效的进行微调训练,这也是非常重要的开头;2、准备数据:自己制作或官方平台下载。个人学习场景,可以自己制作收集自己要的数据,也可以通过魔搭社区或Huggingface平台下载;3、数据格式转换:利用AI写转换脚本。实际场景中,我们拿到的数据格式可能是各式各样的,不可能会和我们目标的需求格式完全相同,利用批量转换脚本能够高效的

文章图片
#人工智能
【Gitee代码管理】项目代码上传至Gitee

Gitee(码云)是一个面向开发者的 代码托管平台,类似于 GitHub,但由中国公司开源中国(OSChina)开发,更加适合国内用户使用。

文章图片
【机器学习&深度学习】 精确率 vs 召回率:模型评估的权衡艺术

在分类任务中,我们常用精确率(Precision)和召回率(Recall)来评估模型的性能。然而这两个指标往往难以兼得,提高一个,另一个可能就会下降。这篇文章将带你深入理解二者之间的权衡关系,并揭示如何通过调整“阈值”在它们之间找到最佳平衡点。

文章图片
#机器学习#深度学习#人工智能
【机器学习&深度学习】Embedding 与 RAG:让 AI 更“聪明”的秘密

▲RAG 结合知识库与大模型,充分发挥 LLM 的语言能力,弥补其在专业知识与时效性上的不足。知识库:提供可靠、实时更新的信息源。大模型:负责理解与生成自然语言回答。▲Embedding 是 RAG 系统的核心技术,它将文本转化为语义向量,连接知识库与大模型。其魔力在于:语义理解:捕捉文本深层含义,实现精准匹配。高效检索:支持快速、动态的知识查询,无需重训模型。广泛应用:从法律到企业文档,Embe

文章图片
#机器学习#深度学习#人工智能
【机器学习&深度学习】AI模型部署策略:API调用 vs 本地部署

▲API 调用 → 低门槛、快速试错、适合中小企业和不敏感场景。▲本地部署 → 数据安全、成本可控、适合高敏感行业和大规模调用。▲医疗、法律等高风险行业 → 推荐使用 32B+ 大模型,以保证专业性、推理能力和合规安全。

文章图片
#人工智能#深度学习
    共 137 条
  • 1
  • 2
  • 3
  • 14
  • 请选择