logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

WSL安装Ubuntu22.04,以及深度学习环境的搭建

安装 WSL 2 之前,必须启用“虚拟机平台”可选功能。计算机需要虚拟化功能才能使用此功能。下载 Linux 内核更新包:l链接:下载完成后更新。打开 Microsoft Store,搜索WSL,选择你偏好的 Linux版本。我选择的是Ubuntu22.04版本。点进去就可以看到下载链接下载即可。下载完成后,启动系统,配置用户名和密码。输入nvidia-smi。

文章图片
#人工智能
云原生的入门知识

近年来,随着云计算概念和技术的普及,云原生一词也越来越热门,无论是应用还是安全,凡是和云相关的,都要在云后面加上原生二字,好像不提云原生,在技术上就落后了一大截。那到底什么是云原生?云原生是怎么产生的?云原生能带来什么好处?如何实现云原生?随着云计算技术的发展,企业上云已成为趋势,越来越多的企业都已将应用部署到了云上。但是应用上云并不意味着就能充分利用云平台的优势。目前,大部分云化的应用,都是基于

#云原生
手把手教你在gitcode创建项目,并上传项目,完成项目的搭建

GitCode 是 CSDN 为开发者提供的开源项目创新服务平台,秉承“创新、开放、协作、共享”的开源价值观,致力于为大规模开源开放协同创新助力赋能,打造创新成果孵化和新时代开发者培养的开源创新生态!支持公有云使用、私有化部署以及软硬一体化私有部署。项目地址:https://gitcode.net/explore/welcome这篇文章向大家展示如何从零开始使用gitcode完成项目的搭建。

文章图片
计算机视觉与模式识别学术速递[2022.9.20]

机构: Oden Institute, The University of Texas at Austin, Austin, TX, USA, Institute for Parallel and Distributed Systems, University of Stuttgart, Stuttgart, DE, Department of Mathematics, University of

Windows系统下如何安装faiss-gpu

【代码】Windows系统下如何安装faiss-gpu。

文章图片
#windows#faiss#python
subprocess.CalledProcessError: Command ‘[‘ninja‘, ‘-v‘]‘ returned non-zero exit status 1

将anaconda环境下的lib/python3.5/dist-packages/torch/utils/cpp_extension.py文件将[‘ninja’,’-v’]改成[‘ninja’,’–version’]

文章图片
#pytorch#深度学习#人工智能
Qwen3-VL-Embedding 和 Qwen3-VL-Reranker:用于最先进多模态检索和排序的统一框架

在本报告中,我们介绍了Qwen3-VL-Embedding和Qwen3-VL-Reranker模型系列,这是基于Qwen3-VL基础模型构建的Qwen家族的最新扩展。它们共同提供了端到端的高精度多模态搜索流水线,将包括文本、图像、文档图像和视频在内的多种模态映射到统一的表示空间中。Qwen3-VL-Embedding模型采用多阶段训练范式,从大规模对比预训练到重排序模型蒸馏,生成语义丰富的高维向量

文章图片
别卷 Prompt 了,2026 年 AI 工程的新战场是 Harness

Prompt Engineering 解决的是"怎么说"Context Engineering 解决的是"给什么"Harness Engineering 解决的是"怎么让它持续做下去"过去大家在调一句 Prompt,现在大家开始调一整套 Agent 运行系统。这不是因为 Prompt 不重要了,而是因为 AI 应用已经从"回答问题"走到了"连续执行任务"的阶段。真正的变化,不是概念变多了,而是工程

文章图片
#人工智能#java
RuntimeError: Failed to load the backend extension: torch_npu. You can disable extension auto-loadin

根据您之前尝试运行的自注意力机制代码(来自知识库中的内容),这些是标准的 PyTorch 代码,不需要 NPU 支持。是 PyTorch 用于华为昇腾(NPU)处理器的专用后端。当您在没有 NPU 硬件的普通系统上运行代码时,经常会遇到此错误。是最简单有效的解决方案,它会告诉 PyTorch 不要尝试自动加载 NPU 后端扩展。完成上述任一操作后,您应该能够正常运行自注意力机制和其他标准 PyTo

#人工智能#计算机视觉
差分 Mamba (Differential Mamba)

像 Transformer 和 RNN 这样的序列模型经常将注意力过度分配给无关的上下文,导致中间表示充满噪声。这会通过促进幻觉、削弱长程依赖和检索能力以及降低鲁棒性,从而损害大语言模型(LLM)的能力。最近的研究表明,差分设计可以缓解 Transformer 中的这一问题,提高其在各种应用中的有效性。在本文中,我们探讨了这些最初为 Transformer 开发的技术是否可以应用于 Mamba。M

文章图片
#人工智能#机器学习
    共 506 条
  • 1
  • 2
  • 3
  • 51
  • 请选择