
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
RAG应用中文本分块是连接知识存储与检索生成的关键预处理步骤,直接影响检索效率、相关性和生成质量。合理分块可提升检索精准度,优化计算效率,为LLM提供精准上下文,并适配长文档处理。文章介绍了TokenTextSplitter、SentenceSplitter等分块策略,以及固定长度、递归、结构化和标点分块等方法,强调需在信息完整性与聚焦性间找到平衡,选择适合应用场景的分块策略,是构建高效RAG系统

Ollama 于 5 月份推出的全新多模态引擎。新的多模态引擎,可突破旧架构的设计依赖限制,为本地部署的多模态 AI 模型提供更准确、可靠、灵活的运行环境,并严格确保推理过程符合模型的设计初衷(忠于原始模型,对模型原始意图的忠实执行)。本文介绍基于Ollama 多模态模型引擎的 Qwen 2.5 VL 模型部署及其应用,主要内容如下:

我们平时使用的ChatGPT、kimi、豆包等Ai对话工具,其服务器都是部署在各家公司的机房里,如果我们有一些隐私数据发到对话中,很难保证信息是否安全等问题,如何在保证数据安全的情况下,又可以使用大语言模型,Ollma(哦拉玛)可以告诉你答案!

文章详细介绍了多模态数据向量化工作流,通过模态转换和嵌入技术将文本、图像、视频、音频等异构数据统一映射到高维向量空间。工作流包括:1)数据预处理与模态转换,使用VLMs、ASR等技术将非文本数据转为文本;2)利用文本嵌入模型实现语义对齐;3)使用向量数据库存储嵌入向量并通过ANN算法实现高效检索。该系统化工程实践是构建下一代智能应用的关键技术。

Unsloth团队修复了Qwen3-VL模型在llama.cpp中第二次对话崩溃的问题,现2B至235B各规格模型均可本地稳定运行。文章详细介绍了不同配置下的硬件需求和性能表现,提供了完整的部署步骤,并展示了模型的多模态能力。用户可从HuggingFace获取模型,根据Instruct或Thinking版本设置不同参数,在本地设备上实现高效运行。

本文详细介绍了如何使用Dify平台一键私有化部署AI智能客服系统。Dify是面向开发者和企业的AI应用开发平台,提供可视化低代码开发、多模型接入等功能。文章通过Rainbond Cloud平台演示了Dify的安装步骤,包括创建知识库、配置提示词和发布应用的全过程。整个过程无需编程基础,用户可轻松搭建功能强大的智能客服系统,为网站提供24/7的智能问答服务,是小白学习大模型应用部署的实用指南。

此篇重点记录下小白在开发过程中可能产生的一些问题和疑问的解答(含代码~),部分内容如messages该如何组织适配agent应用因篇幅原因会在下一文联合上下文处理一起介绍。

大模型技术正加速渗透至产业核心场景,成为驱动数字化转型的智能引擎。全球机器学习大会(ML-Summit)聚焦大模型技术的创新突破与产业实践,深入探讨其前沿方向与落地路径。作为AI发展的核心驱动力,检索增强生成(RAG) 通过动态知识融合技术突破大模型的静态知识边界;智能体(Agent) 借助自主决策与多任务协同能力重构人机协作范式;多模态大模型 则依托跨模态语义理解技术解锁复杂场景的落地潜力。三者

随着金融行业数字化转型的加速,银行需要高效处理海量非结构化数据(如合同、政策文件、客户咨询记录等),同时确保服务的安全性、合规性与智能化。基于RAG技术构建的企业级系统,能够将传统检索与生成式AI结合,为银行提供精准、安全的智能服务。 以下结合银行业务场景,详解其核心流程与技术实现。

Agno是一个轻量级多模态智能体框架,比LangGraph快5000倍,支持文本、图像、音频、视频等多种模态。它采用零依赖架构,纯Python实现,具有插件化设计特点,支持RAG、多智能体协作、结构化输出与实时监控。文章提供了多个实战示例,帮助开发者快速上手构建高效智能体应用。







