登录社区云,与社区用户共同成长
邀请您加入社区
它真正的价值在于,把一整天的高强度开发工作,变成一小时的收尾,并且这些主要工作是在你睡觉时完成的。
JinaAI MCP服务器集成Web内容提取、网页搜索和事实核查功能,支持多种输出格式。提供免费API测试,商用需购买套餐。新器集MCP客户端简化集成过程,解决多服务器认证方式差异、语言兼容性差、维护成本高、日志缺失等问题。通过标准化接口优化开发效率,避免客户端体积膨胀(尤其移动端)。支持网页内容抓取、信息检索和事实验证,参数配置灵活。
Jina Embeddings 是由 Jina AI 研发的开源文本/多模态向量模型系列,旨在解决传统向量模型的三大瓶颈:往期文章推荐:5. 总结与技术展望Jina Embeddings 的核心贡献在于:
JinaAI提供了一系列强大的嵌入模型,其中包括针对文本的Jina Embeddings和支持多模态(如图像)的Jina CLIP模型。这些模型通过将文本和图像转换为高维向量,为相似度计算和检索任务提供支持。
Jina AI是一家成立于2020年的人工智能公司,专注于开发用于搜索和智能分析的开源软件。提供了非常多好用的API,例如Jina Reader可以将网页解析为Markdown文档、Reranker可以对RAG的向量模型检索到的文档进行重排序等,除了在线API,在HuggingFace上也开源了若干模型。
凭借这一精细的训练控制,Jina-VLM 不仅在 MMMB 等多语言视觉榜单上达到 SOTA,更关键的是,在 MMLU(通用知识)和 GSM-8K(数学推理)等纯文本基准测试中,它几乎完整保留了 Qwen3-1.7B 基座的性能,真正实现了。,连接 SigLIP2 视觉编码器与 Qwen3 语言基座,成功在支持 29 种语言的同时,实现了对任意分辨率下自然图片和文档图片(如扫描件、ppt、表图)上
Jina AI 的技术在检索和上下文理解这块比较强,Elastic 的平台能力能提供稳定的基础设施。这个在实际应用中挺有用的,比如你在企业知识库里找资料,可能既有文档又有图表,多模态检索就派上用场了。作为忠实的 Elastic 用户,Elastic 在日志分析和可观测性这块一直很强,但在AI原生的能力上相比云厂商还是有差距的。工具越来越成熟,成本越来越低,能做的事情越来越多。而 Jina AI 呢
今天分享的报告是《2025年AI Agent与Agentic AI原理与应用报告》,版权归北京大学所有。本文主要介绍了AI Agent与Agentic AI的原理与应用。AI Agent是一种具备环境感知、智能决策乃至自主行动能力的智能实体,而Agentic AI则是追求更高阶的智能,强调AI系统的自主性、目标驱动、环境交互和学习能力。
其中,其多向量版本不仅在专业的视觉文档基准上取得了最高分(ViDoRe 90.2 分,Jina-VDR 80.2 分),同时在通用的多模态检索任务(CLIP 84.1 分)上也保持了强大的竞争力。我们没有采用高成本的长序列训练,而是通过“短训长用”(train short, deploy long)的巧思,借助 ALiBi 算法,让一个仅在 512 词元上训练的模型,推理时能无缝处理 8192 词
在 ViDoRe(视觉文档检索,NDCG@5 达 91.02)和 M-BEIR(跨模态检索,比如文搜图、图搜文)这些基准上,m0 表现非常扎实,能够有效理解并排序包含丰富视觉信息的文档,效果明显好过纯文本模型,也优于我们测的一些同类多模态竞品(如基于 Qwen2-VL 的 MonoQwen2-VL-v0.1)。对于其他的输入组合(如图像到图像、图像到多模态文档、文本到多模态文档),模型也具备零样本
模型微调,困难负样本选择
JinaEmbeddings v4是Jina AI最新发布的38亿参数多模态向量模型,支持文本和图像嵌入。该模型基于Qwen2.5-VL-3B-Instruct主干,采用任务专用LoRA适配器优化检索性能,支持单向量(2048维)和多向量(每个token 128维)输出。在MTEB、MMTEB等基准测试中,v4在多语言检索上比OpenAI text-embedding-3-large高12%,长文
JinaAI与Elasticsearch深度整合,推出多款高性能AI模型:jina-embeddings-v4支持30种语言的文本/图像处理,具备单/多向量两种嵌入模式;v3专注于多语言文本嵌入;code-embeddings针对15种编程语言优化;clip-v2实现文本-图像跨模态检索;reranker系列提升搜索结果精度。这些模型支持从64到1536维的可调嵌入尺寸,在保持精度的同时优化存储和
Jina Reader提供两种核心服务:r.jina.ai可将网页/PDF转换为干净文本(Markdown/JSON),s.jina.ai实现结构化网页搜索。通过模拟浏览器渲染确保内容提取准确性,支持curl/wget/Python调用,认证用户享有更高优先级。该服务特别适合为RAG系统和AI代理提供预处理数据,与Elasticsearch等系统无缝集成,解决了从复杂网络内容中提取有效信息的难题。
本文介绍了如何在Elasticsearch中使用JinaReranker v3优化搜索结果。首先注册JinaAI推理API端点,创建包含多语言文本和嵌入向量的索引,并设置自动生成嵌入的管道。通过对比BM25关键词搜索和向量搜索的差异,展示了混合检索方法(RRF)的优势。最后详细说明了如何将JinaReranker作为重排序层加入搜索流程,通过语义相关性分析优化结果排序,显著提升多语言搜索质量。整个
本教程介绍如何使用Jina AI的jina-embeddings-v3模型构建多语言语义搜索系统。主要内容包括:1)获取Jina API密钥;2)在Elastic Cloud注册模型并验证;3)创建支持1024维向量的索引;4)设置自动处理内容的ingest pipeline;5)添加英语、法语和西班牙语文档;6)使用德语查询演示跨语言搜索功能,通过kNN算法返回最匹配结果。该方案支持多种语言的高
摘要:Elastic推出jina-embeddings-v3多语言嵌入模型,通过Elastic推理服务(EIS)提供高效语义检索。该模型支持32种语言、8192token上下文,具备参数效率高、维度可调等特点,特别适合RAG系统和多语言搜索。EIS提供完全托管的GPU推理服务,无需额外运维。未来将推出更多JinaAI模型,包括重排序器v2/v3,进一步优化检索精度。所有ElasticCloud试用
在Rust的学习曲线中,这样的语法是第一道真正的“门槛”。编译器关于生命周期的错误信息,是它在阻止你编写出悬垂指针(Dangling Pointer)——这是C/C++中最臭名昭著的内存安全漏洞之一。然而,作为Rust专家,我们的思考不能止步于“如何修复编译错误”。我们必须理解,结构体上的生命周期参数。它在性能、API设计和代码复杂度之间划出了一条清晰的界限。
探索如何使用 Elasticsearch Open Inference API 访问 Jina AI 模型。我们在 Jina AI 的朋友们将 Jina AI 的嵌入模型和重新排名产品的原生集成添加到 Elasticsearch 开放推理 API 中。这包括对行业领先的多语言文本嵌入和多语言重新排名的支持 —— 针对检索、聚类和分类进行了优化。此次集成为开发者提供了一套基于 Elasticsea
Jina是一个开源的云原生AI服务框架,专为构建和部署机器学习模型而设计。它支持gRPC、HTTP和WebSocket通信协议,能处理文本、图像等多模态数据。核心功能包括:通过Executor封装业务逻辑,使用Deployment部署服务,利用Flow编排复杂流水线。Jina提供动态批处理、流式输出和弹性扩展等特性,支持从本地开发到生产环境的无缝过渡。安装简单,只需pip install jina
当今影响世界的互联网大公司们很多都是从一个简单的想法起家的。仅仅是用户可以在前台感知到的智能体,就有包括策划智能体、文案智能体、设计师智能体以及程序员智能体等多个智能体,它们分别负责应用开发过程中的每个细分流程,通过协同工作,形成一个端到端的解决方案,覆盖从需求分析到最终交付的全流程。从上述整个《山上》官网的搭建过程中可以看到,秒哒和过去你能看到的面向程序员群体的低代码开发工具完全不同,秒哒搭建应
这文件就在xlm-roberta-flash-implementation目录底下,但是看起来没办法正确索引,没办法,只能直接在cache中手动加了。切到那个目录,发现有几个文件有了,但是大部分没有,直接把xlm-roberta-flash-implementation中的所有文件全复制进来。将jinaai/xlm-roberta-flash-implementation替换为自己本地的文件夹名称
从ChatGPT爆火到AI绘画刷屏,人工智能早已成为大众热议的焦点。
jina-reranker-v3 是一个参数量达 0.6B 的多语言文档重排器,引入了一种新颖的“后发先至”的交互架构。与 ColBERT 采用多向量匹配的单独编码不同,该模型在同一上下文窗口内对查询和文档执行因果自注意力机制,从而在从每个文档的最后一个标记提取上下文嵌入之前实现丰富的跨文档交互。
本文介绍了jina-embeddings-v4多模态嵌入模型,该38亿参数模型创新性地统一处理文本和图像数据,支持单向量和多向量输出。通过基于Qwen2.5-VL-3B-Instruct的架构和任务特定LoRA适配器,模型在语义检索、跨模态对齐等方面表现优异。两阶段训练过程结合对比损失和Matryoshka损失优化性能。实验证明其在多语言文本检索、视觉文档检索等任务中达到先进水平,尤其克服了传统模
RequirementsThe following Python packages are required:下载pytorch 根据自己的cuda版本 注意这里下的pytorch是2.7.1版本pip install --default-timeout=3000 torch torchvision torchaudio --index-url https://mirrors.nju.edu.cn
MCP 的开放性允许我们串联多个独立的 MCP 服务器,构建更强大的工作流。在这个示例中,我们组合了 Jina MCP 服务器和一个 PDF 阅读器的 MCP:https://github.com/sylphxltd/pdf-reader-mcp,目标是生成一份关于欧美 AI 法律合规的研究报告。根据我们的实践,当前 Agent 的能力瓶颈主要在于 LLM 本身,实际应用中还是需要通过精巧的提示工
Jina-VLM是一款2.4B参数的视觉语言模型,在多语言视觉问答(VQA)任务中达到SOTA水平。该模型创新性地采用attention-pooling连接器,将视觉tokens减少4倍,同时保持性能,使其可在消费级硬件运行。通过两阶段训练流程,模型在29种语言中表现出色,并避免了纯文本能力的灾难性遗忘。目前支持通过API、CLI和Transformers库使用,但存在tiling开销和多图像推理
Jina Reader 是一款由 Jina AI 推出的开源工具,能够将网页内容快速转换为适合大型语言模型(LLMs)处理的纯文本格式,支持多种输出格式和动态内容处理。
本文基于24年各大互联网公司公开发表的论文, 从各个维度拆解现在LLM4Rec落地的各种实践方法, 方便大家在各自业务场景中, 按图索骥, 互相验证。LLM的突破性进展给推荐带来了一定的想象空间, 24年LLM在推荐领域的应用落地确实也取得了一定的进展, 虽然这个进展与NLP/CV等领域相比可能还是有点小巫见大巫了, 但24年这个领域的发展确实也带来了一些惊喜。回首过去, 受制于ID模型及传统推荐
环境:dify 14.2 docker 版本;工具:craw4ai模型:glm-4-flash。
效率优先:FireCrawl和Jina适合快速获取LLM就绪数据;灵活性优先:crawl4ai和Scrapegraph-ai提供强大的自适应和定制能力;隐私与实时性:SearXNG和Tavily分别在合规和动态数据领域领先。随着大模型应用的深入,爬虫工具正从“数据搬运工”升级为“智能数据净化器”。开发者可根据具体场景组合使用,例如通过FireCrawl爬取基础数据,结合crawl4ai清洗复杂页面
Jina-VLM是一个2.4B参数的多语言视觉-语言模型,采用SigLIP视觉编码器和Qwen3语言骨干,通过注意力池化连接器处理高分辨率图像。该模型在8个VQA基准测试中平均得分72.3,表现优于同类2B级模型。其创新架构支持任意分辨率处理,采用图像分块策略降低计算成本。训练分为对齐训练和指令微调两阶段,使用500万多模态样本。同时介绍了InternVL3.5系列模型,包含密集型和MoE架构,通
兴奋、疲惫、彷徨、庆幸,四挡双离合。24 年我来湾区后,在他们三番办公室见了他们的管理层,随便聊了聊工作生活的话题。今年夏天在美国时,又和他们的管理层聊了不少次,在三番办公室里给他们的创始人、CEO、CPO 等做了几个小时的演讲,觉得相互之间的技术都高度互补,Elastic 的高层对我个人非常友好和信任,于是就开始了这个收购案。对于 Jina AI 而言,这其中包含很多的复杂的因素,包括美国和中国
生成文本嵌入:通过模型,可以轻松地为任意文本生成高维向量嵌入。相似度计算:使用余弦相似度比较文本嵌入,进行相似性判断。重排序:根据嵌入向量和查询之间的相似度,对候选文本进行重排序,提高检索结果的相关性。GPU 支持:在加载模型时,可以选择使用 GPU 加速推理。通过这些步骤,你可以利用生成高效的文本嵌入,并基于这些嵌入来优化文本检索和重排序的效果。
摘要:“上下文工程”(Context Engineering)是近期AI圈又一个爆火的名词。“上下文工程”是个啥,跟“提示词工程”(Prompt Engineering)有什么区别,有什么魅力让那么多大佬都为之发声?
通过本文的学习,相信你已经对 Jina 有了全面而深入的了解。从 Jina 的基本概念,到快速上手的实践,再到深入学习其数据处理、Flow 构建以及与其他工具的集成,最后通过实战应用,你已经掌握了使用 Jina 构建强大搜索系统和数据处理应用的技能。
本文介绍了如何在LangChain中集成和使用Jina Embeddings,包括安装设置、基本用法和高级应用。Jina Embeddings为文本处理任务提供了强大的向量表示能力,结合LangChain的灵活性,可以构建出各种复杂的NLP应用。Jina AI官方文档LangChain官方文档向量数据库和语义搜索教程深度学习与NLP课程 - Coursera。
它们不生成完整的文本块,而是输出关键点或子主题。简单来说,因为它只提取关键点或子主题,这就相当于抓住了片段的核心意思,通过文本的语义转换,来更准确地识别边界,保证文本块的连贯性。topic-qwen-0.5: 这个模型受到了思维链 (Chain-of-Thought) 推理的启发,它会先识别文本中的主题,比如“第二次世界大战的开始”,然后用这些主题来定义分块边界。
jina
——jina
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net