logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeepSeek开源多模态大模型Janus-Pro部署

我找了个网图,由于担心版权问题我没有发全,同时你会发现AI它可以识别出来P图。本人家用电脑为1060,因此部署的7B模型。配置高的可以考虑更大参数的模型。

文章图片
#python
OpenRAG: Optimizing RAG End-to-End via In-Context Retrieval Learning翻译

本文提出OpenRAG框架,通过端到端微调检索器来优化检索增强生成(RAG)系统。研究发现传统信息检索(IR)的相关性学习与RAG需求存在差距,OpenRAG采用两阶段训练:离线阶段预热检索器并建立评估标准,在线阶段通过延迟参数化机制和对比学习优化检索器。实验表明,仅微调0.2B参数的检索器就能在多项任务上取得平均4.0%的性能提升,甚至优于微调8B参数大语言模型的效果,展现出显著的成本效益优势。

#人工智能
RNN以及其改进版(附2个代码案列)

RNN(Recurrent Neural Network), 中文称作循环神经网络, 它一般以序列数据为输入, 通过网络内部的结构设计有效捕捉序列之间的关系特征, 一般也是以序列形式进行输出两个黑点一起到达蓝色区域(并在之前形成整体)于帮助调节流经网络的值, tanh函数将值压缩在-1和1之间梯度计算优点:LSTM的门结构能够有效减缓长序列问题中可能出现的梯度消失或爆炸, 虽然并不能杜绝这种现象,

#rnn#深度学习#pytorch
Mixture‑of‑Recursions让模型对简单 token 少想、对复杂 token 多想

摘要:Mixture-of-Recursions (MoR) 通过递归块参数复用、动态路由和选择性KV缓存,实现Transformer模型的高效优化。核心思想是让模型对简单token少计算、复杂token多计算,从而节省参数(70%+)、算力(延迟降30%)和显存(峰值显存减半)。MoR采用多层打包的递归块循环调用,配合Router动态分配计算深度,并通过选择性KV缓存优化长上下文处理。实验显示其

#人工智能
单元测试,集成测试和系统测试

单元测试又称模块模式,是对已实现的软件的最小单元(一个类或者一个函数或者一个子程序)进行测试,以发现其中存在的软件缺陷,从而保证构成软件的各个单元的质量。单元测试一般由编程人员完成,测试人员可以辅助开发人员进行调试单元测试的测试报告应满足:1.根据测试设计中的期望值与实际测试执行结果比较,判定测试能否通过,并记录结果2.测试不能通过,填写软件问题报告,并提出相关建议单元测试是一种静态与动...

configfile mybatis-generator-config.xml does not exist

Failed to execute goal org.mybatis.generator:mybatis-generator-maven-plugin:1.4.0:generate (default-cli) on project demo1: configfile Z:\IDEA_Project\demo1\yourLocation\mybatis-generator-config.xml do

《Multi-Agent Medical Decision Consensus Matrix System》深度解读

典型场景:一名结直肠癌患者,传统MDT仅肿瘤科主导推荐化疗(方案错误率34.7%),导致肝转移灶漏诊(影像诊断准确率68.3%)和过度化疗(患者因骨髓抑制中断治疗)。本系统通过MDT三重闭环:影像科精准识别肝转移(准确率89.7%)、病理科匹配靶向治疗(响应率68%)、肿瘤科避免过度治疗(避免骨髓抑制),使5年生存率从58.2%提升至73.6%,方案错误率降至16.2%。“NCCN指南v3.202

#人工智能
从零理解Engram:给大语言模型配一本“智能速查手册“

本文提出Engram机制,通过"条件记忆"解决大语言模型的计算冗余问题。传统Transformer架构浪费10%-30%的计算资源在重复构建固定符号上,Engram则通过三大核心技术实现高效检索:分词器压缩减少词表冗余、多头哈希降低存储碰撞率、上下文门控解决语义歧义。实验表明,Engram与MoE架构协同工作,在固定参数预算下形成双重稀疏性,使模型性能提升2-4%。Engram

#语言模型#人工智能#自然语言处理
从 Yann LeCun 访谈看 AGI 幻觉:为什么大模型 ≠ 通用智能

摘要: Yann LeCun 在访谈中批判了硅谷对 Scaling Law 的盲目信仰,指出大语言模型(LLM)的能力提升仅是统计拟合的增强,而非真正的智能突破。他认为 LLM 缺乏对世界的本质理解,其语言能力掩盖了智能缺陷,关键在于缺失“世界模型”——即预测和推理的能力。LeCun 强调,真正的通用智能(AGI)应是多系统协同,而非单一模型无限扩展。这一观点提醒我们区分“表现智能”与“真正理解”

#人工智能
G-Memory: Tracing Hierarchical Memory for Multi-Agent Systems深度解读

G-Memory让多智能体系统从‘会说话的机器人’升级为‘会思考的团队’——因为它终于学会了从错误中学习。

#microsoft#服务器#数据库
    共 49 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择