
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
核心趋势Agent原生成为主流:从工具到Agent的范式转移加速,OpenAI Workspace Agents、Claude Managed Agents记忆、Codex五大升级标志着Agent时代全面到来。模型能力快速收敛:六大商业模型在编码基准上压缩至1个百分点区间,但前沿实验室内部能力(如Anthropic Mythos Preview 93.9%)与公开模型差距拉大。端侧AI爆发:商汤S
FlagEmbedding 是北京智源人工智能研究院(BAAI)开发的开源嵌入和重排序模型框架,专注于检索增强大语言模型(RAG)领域。该项目提供了一套完整的工具链,包括推理、微调、评估和数据集,支持多种架构的嵌入和重排序模型。统一的 API 接口,支持多种主流模型完整的推理、微调和评估工具链多语言、多功能、多粒度的模型支持活跃的社区和持续的技术更新bge-m3核心特性:多功能(Multi-fun

Multi-Functionality(多功能)Multi-Linguality(多语言)Multi-Granularity(多粒度)。论文代码位置微调后的模型在目标任务上表现好,但在通用任务上性能下降(灾难性遗忘)无需额外训练,通过融合已有模型来适应新任务论文代码位置LLM-Embedder 是专门为增强大语言模型能力而设计的统一嵌入模型,支持多种检索增强场景。论文代码位置Activation-

算法模块核心功能关键特点嵌入表示文本到向量的转换支持多种 pooling 策略对比学习训练有效的表示空间基于交叉熵损失负样本策略提供多样化的负样本批内/跨设备负样本知识蒸馏大模型指导小模型KL 散度和 M3 KDMRL灵活的维度选择嵌套表示学习ColBERT & 稀疏多粒度检索M3 统一架构这些核心算法共同构成了 FlagEmbedding 强大的表示学习和检索能力,使得它在众多文本检索任务上取得

优化技术应用场景实现位置长度排序优化 Padding批量推理自适应 Batch SizeOOM 处理Decoder-only 模型多粒度输出BGE-M3M3Embedder提示词工程。

«abstract»AbsEmbedder+encode_queries()+encode_corpus()+encode()+encode_single_device()+start_multi_process_pool()+encode_multi_process()«abstract»AbsReranker+compute_score()+compute_score_single_gpu()

FlagEmbedding (BGE) 是由北京智源人工智能研究院开发的开源嵌入模型框架,提供文本嵌入和重排序模型的完整工具链。项目采用模块化设计,包含推理、微调和评估三大核心模块,通过抽象基类实现统一接口。支持自动模型加载、多设备并行推理,并内置多种评估基准。主要解决高质量文本嵌入生成、检索任务重排序等问题,适用于信息检索、语义搜索等NLP任务。项目亮点包括:BGE系列高性能模型、多架构统一接口

蚂蚁集团:发布万亿参数通用模型Ling-1T与万亿思考模型Ring-1T(注:文档中仅提及其他来源的蚂蚁模型,此处需按实际文档内容调整为)——实际文档提及蚂蚁数科DTClaw专业级智能体与LingBot-Depth-Dataset数据集,未明确提及Ling-1T与Ring-1T(注:经核查原文,此条应修正为):蚂蚁灵波科技:开源LingBot-Depth-Dataset大规模RGB-D深度数据集,
技术突破维度:通用大模型向高效化、小参量化发展,Oro模型、Wave Field V3架构通过创新架构实现小参数超越大模型,打破“参数即性能”的固有认知;垂直大模型在医疗、天文、药物设计等领域实现突破性落地,谷歌IsoDDE远超AlphaFold 3,但闭源策略引发学术界对技术开放与商业化平衡的激烈讨论,开源与闭源的技术路线分歧进一步加剧。智能体发展维度:AI智能体从辅助工具向自主化、平台化。

全球AI领域技术密集突破,国内外企业竞相发布大模型与多模态产品。国内智谱AI、百度等推出745B参数MoE架构大模型和万亿级ERNIE 5.0,阿里、字节等发布图像/视频生成模型;海外OpenAI、Anthropic升级GPT-5和Claude模型。AI应用加速产业融合,智能体技术实现复杂任务自动化,同时监管加强应对伦理风险。技术层面,自蒸馏、长上下文等创新显著提升模型性能,生物计算、蛋白质预测等








