logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RAG检索优化秘籍:问题分解实现多步推理,复杂查询轻松应对!

本文介绍了问题分解(Query Decomposition)在RAG(检索增强生成)系统中的应用。该方法通过将复杂问题拆分为多个子问题,分为串行(依赖关系)和并行(独立)两种执行模式,有效提升复杂查询的应答质量。文章以"番茄炒蛋制作"为例,展示了如何通过大语言模型分解问题并分步检索,最终整合答案的过程。这种"分步拆解-层层递进"的方法使RAG系统具备处理复杂

文章图片
#人工智能#产品经理#语言模型 +1
Qwen2.5-VL系列模型正式开源,千问永远不会让你失望 | 附实测结果

我想说Qwen是国内开源Top,当之无愧,期待后续Qwen3、QwQ、QvQ的更新模型。最后,在春节串门前,大家可以先把模型下载上,晚上回来,直接开测~~

文章图片
#AI#人工智能
手机也能跑大模型?阿里千问Qwen端侧部署,只需这几步(下)

本文详细介绍了将阿里巴巴千问大模型Qwen1.8B部署到Android手机端的完整流程。通过MLC-LLM框架实现模型转换、编译和打包,最终生成可在手机上离线运行的APK文件。关键步骤包括:1) 将HF格式模型转换为MLC支持格式;2) 生成配置文件并编译Android专用模型;3) 修改Gradle配置打包APK;4) 安装测试并实现约20token/s的生成速度。整个过程展示了如何在移动端实现

文章图片
#人工智能#AI#产品经理
【千问开源】Qwen2.5-Math-PRM:开源过程奖励模型重磅发布!

刚刚刷了一下Qwen的Repo,发现又有新模型了。喜欢开源是吧,就爱这样的你~~这次是数学推理的过程奖励模型,共有3个,分别是,Qwen2.5-Math-7B-PRM800K、Qwen2.5-Math-PRM-7B和Qwen2.5-Math-PRM-72B。

文章图片
#人工智能
多模态模型大对决:小米MiMo-VL与千问Qwen2.5-VL实测效果揭秘!

实测MiMo-VL-7B的SFT和RL两个版本,均可以使用think或no-think,分别与Qwen2.5-VL-7B进行对比。

文章图片
#人工智能#AI
通义千问Qwen3性能超越Kimi-K2、DeepSeek-V3,全球最强开源模型来了!

阿里巴巴发布Qwen3-235B大模型,在数学推理、编程能力、多语言支持等方面表现优异,全面超越主流开源及闭源模型。该模型采用混合推理模式和MoE架构,显著提升性能并降低成本,支持256K长文本处理。已开源8款不同规模模型,覆盖端侧到云端需求,在医疗、金融等领域应用效果显著。评测显示其推理成本仅为竞品的1/3-1/20,成为最具性价比的开源大模型之一。未来将加强多模态能力,进一步拓展应用场景。

文章图片
#人工智能#AIGC#AI
手机也能跑大模型?阿里千问Qwen端侧部署,只需这几步(上)

本文详细介绍了AI大模型从零部署到Android环境的全流程配置指南。内容包括:1)下载Qwen1.5-1.8B-Chat模型;2)安装Miniconda并创建Python3.11虚拟环境;3)配置TVM和MLC-LLM运行环境;4)安装JDK和Android SDK/NDK工具链;5)设置Rust编译环境;6)配置关键环境变量。文中提供了各组件下载链接、安装命令和路径配置方法,为开发者实现大模型

文章图片
#人工智能#AI
【本地部署】千问开源Qwen3,开源模型卷起来~小模型能力强-尝鲜

Qwen3凭借混合推理架构和分层参数激活策略,在性能和成本效率上实现突破。本文介绍如何在Win11系统上本地部署最小版本qwen3:0.6b模型:通过ollama工具下载模型后,使用chatbox进行交互。若遇报错需检查ollama版本,升级后即可正常运行。该方案适合资源受限场景的快速部署体验。

文章图片
#语言模型#人工智能#自然语言处理 +1
langchain入门篇:利用Python + LangChain + 通义千问,轻松打造你的专属聊天机器人

是一个用于开发由语言模型驱动的应用程序的框架,致力于简化AI模型应用的开发.简单来说,langchain就是一个帮助开发者轻松完成AI模型应用开发的框架,现在支持python和js两个版本,它集成多种大语言模型及第三方api.

文章图片
#python#机器人#人工智能
    共 3027 条
  • 1
  • 2
  • 3
  • 303
  • 请选择